Ескалира конфликтот меѓу големите компании за вештачка интелигенција и Пентагон
Извршниот директор на OpenAI, Сем Алтман, им кажал на вработените дека ќе ги повлече истите „црвени линии“ што доведоа до отворен конфликт меѓу конкурентската компанија за вештачка интелигенција Anthropic и Министерството за одбрана на САД. Овие линии вклучуваат забрана за употреба на вештачка интелигенција за масовен надзор на граѓаните и за автономно оружје.
„Ова повеќе не е проблем само за една компанија, туку за целата индустрија за вештачка интелигенција“
Во интерно мемо, Алтман нагласил дека проблемот повеќе не се однесува само на една компанија, туку на целата индустрија за вештачка интелигенција. „Долго време веруваме дека вештачката интелигенција не треба да се користи за масовен надзор или смртоносно автономно оружје и дека луѓето мора да останат вклучени во донесувањето одлуки со висок ризик“, нагласи тој, дефинирајќи ги овие како основни принципи на компанијата.
Во исто време, тој јасно стави до знаење дека сака да постигне договор со Пентагон што ќе дозволи употреба на ChatGPT во чувствителни воени контексти, но со почитување на гореспоменатите ограничувања, објави Axios.
Спорот ескалираше откако Пентагон побара моделите на вештачка интелигенција да му бидат достапни за „сите законски цели“. Тоа е токму формулацијата што Антропик одби да ја прифати бидејќи не ги вклучува своите внатрешни заштитни мерки што ја забрануваат употребата на нејзините модели за масовен надзор и автономно оружје.
Пентагон ѝ даде рок на компанијата да се повлече, заканувајќи се дека ќе ја прогласи за „ризична во синџирот на снабдување“, етикета што обично се користи за субјекти поврзани со странски противници.
Моделот Клод, кој Антропик го развива, беше првиот систем на вештачка интелигенција интегриран во тајни воени мрежи. Договорот, потпишан минатото лето, вреди до 200 милиони долари. Неговата „политика за прифатлива употреба“ конкретно забранува употреба за масовен надзор и автономно оружје.
Отворен конфликт
Извршниот директор на Антропик, Дарио Амодеи, одби да се повлече и покрај притисокот. По состанокот во Пентагон со министерот за одбрана Пит Хегсет, американските претставници се заканија дека ќе го раскинат договорот и ќе воведат дополнителни санкции.
Пентагон тврди дека нема намера да користи вештачка интелигенција за масовен надзор или брзо распоредување на автономно оружје, но инсистира дека приватните компании не можат да диктираат како владата ја користи технологијата за цели на националната безбедност. Особено во контекст на технолошката конкуренција со Кина, претставниците на одбраната нагласуваат дека легалноста на употребата мора да биде одговорност на државата, а не на добавувачот.
Од друга страна, многу експерти во Вашингтон и Силиконската долина јавно го поддржаа Антропик, оценувајќи дека зазел принципиелен став и покрај огромниот финансиски ризик.
Иако Алтман изрази солидарност со конкурентот во врска со клучните етички принципи, ситуацијата е сложена. Ако Пентагон навистина го прогласи Антропик за „ризик за синџирот на снабдување“, тоа би отворило можност OpenAI да ја преземе својата улога во чувствителните воени системи.
ChatGPT е веќе достапен во некласифицирани воени системи, а дискусиите за негово интегрирање во класифицирана средина наводно се забрзуваат. Но, Пентагон сака моделите да можат да се користат без дополнителни ограничувања, што би можело да доведе до истиот конфликт што се појави со Антропик.
Алтман рече дека ќе се обиде да ја „деескалира ситуацијата“ и да најде модел на соработка што овозможува работа во класифицирана средина, но исклучува нелегални или несоодветни апликации како што се домашен надзор и автономно офанзивно оружје.
Одмазда на Пентагон
Потенцијалното означување на Anthropic како „ризик за синџирот на снабдување“ би можело да има сериозни последици не само за компанијата, туку и за целиот технолошки сектор. Многу големи корпорации што соработуваат со Пентагон би морале да докажат дека не користат ништо поврзано со Anthropic во своите системи.
Постои и можност за повикување на Законот за одбранбени набавки од 1950 година, кој му дава на американскиот претседател вонредни овластувања над домашната индустрија во име на националната безбедност.
Во исто време, некои официјални лица велат дека системот Grok AI, кој го развива xAI на Елон Маск, е подготвен да работи во тајни средини, но не се смета за целосна замена за Claude.
Овој конфликт претставува потенцијален преседан: за прв пат, водечките компании за вештачка интелигенција колективно ги дефинираа границите за тоа како владата на САД може да ја користи својата технологија. Вработените во OpenAI и други технолошки компании потпишаа писмо за поддршка на Anthropic, барајќи од администрацијата да се спротивстави на притисокот.
Во време кога Белата куќа ја споредува трката со вештачка интелигенција со Кина со вселенската трка за време на Студената војна, отворено е прашањето дали американската администрација може да си дозволи отворен конфликт со еден од технолошките „крунски скапоцености“ на сопствената индустрија. Доколку технолошкиот гигант Google исто така го следи патот на Anthropic и OpenAI, Пентагон нема да има многу опции.
Без разлика дали ќе преовладаат безбедносните императиви на државата или етичките црвени линии на технолошките компании, одговорот на тоа прашање би можел да ја обликува иднината на односите меѓу Силиконската долина и Пентагон, како и ограничувањата на примената на вештачката интелигенција во демократските општества.