Сликата на гробовите за девојчињата убиени во Минаб е вистинска. Вештачката интелигенција вели – не
Од првите денови на војната во Иран, проверувачите на факти беа зафатени со постојан проток на лажни слики на интернет
Гробовите, свежо ископани, лежат во уредни редови од по 20. Повеќе од 60 се веќе издлабени од земјата, со неколку групи луѓе собрани околу нив. Десетици други се обележани на земјата напред: мали правоаголници од креда, со ровокопачи подготвени да ја завршат својата задача.
Гробиштата Минаб, фотографирани додека се подготвуваат да погребаат повеќе од 100 млади девојки од градот, се една од дефинирачките слики од американско-израелската војна против Иран, директно доловувајќи го разорниот број на цивилни жртви.
Но, дали е тоа вистинско?
Прашајте го Џемини, услугата за вештачка интелигенција управувана од Гугл, и одговорот што ќе го добиете е не – всушност, Џемини тврди дека фотографијата е од пред две години и оддалечена повеќе од 2.000 км. Наместо гробови за мали девојчиња убиени од ракета, сликата „прикажува масовна гробница во Кахраманмараш, Турција“ по земјотресот со јачина од 7,8 степени што го погоди во 2023 година. „Оваа специфична воздушна перспектива стана една од најшироко споделуваните слики од катастрофата“, вели Џемини, „илустрирајќи го самиот обем на загубата“.
Гледајќи ја истата слика од погребот на социјалните медиуми, другите се обратија до асистентот на вештачката интелигенција на Икс, Грок, за да ја проверат нејзината веродостојност. Како и Џемини, Грок лесно ќе ве увери дека фотографијата воопшто не е од Иран – иако паѓа на различен датум, катастрофа и локација. Сликата е „од гробиштата Роротан во Џакарта, Индонезија – фотографија од јули 2021 година од масовни погребувања од ковид. Не е Минаб“, се вели во Грок.
Во двата случаи, одговорите на вештачката интелигенција звучат сигурно: тие не се двосмислени, па дури и даваат „извори“ за оригиналната слика, доколку одлучите да ги проверите. Сепак, следете ја темата за да ги испитате и ќе почнете да наидувате на ќор-сокак: или сликата воопшто не се појавува, или дадената врска е до вести што не постојат. И покрај целиот нивен впечаток за јасност и прецизност, вештачките интелигенции едноставно грешат.
Се испоставува дека сликата од гробиштата е автентична. Истражувачите ја споредиле фотографијата од локацијата со сателитски снимки што ја потврдуваат нејзината локација, а таа може повторно да се спореди со десетици други слики направени од истата локација од малку поинакви агли, и повторно со видео снимки – од кои ниту една, според експертите, не покажува знаци на манипулација или дигитална манипулација. „Проверките на фактите“ од Џемини и Грок се само еден пример за бран на несовршености генерирани од вештачка интелигенција – халуцинирани факти, бесмислени анализи и лажни слики – што го опфаќаат известувањето за војната во Иран. Експертите велат дека тоа е губење време за истрага и ризикува да се негираат злосторствата – како и најавува алармантни слабости бидејќи луѓето сè повеќе се потпираат на резимеата на вештачката интелигенција за вести и информации.

Од првите денови на војната, проверувачите на факти беа зафатени со постојан проток на лажни слики на интернет. Фотографија од она што „Техеран тајмс“ го тврдеше дека е сателитска снимка од американски радар уништен во Катар беше откриена како лажна снимка од вештачка интелигенција направена од стари слики од Google Earth – нејзините објави ги вклучуваа автомобилите, кои беа сите во идентични позиции како и сликата од пред две години.
Широко циркулираните слики од телото на Хамнеи како се извлекува од урнатините имаа „знаци“ вклучувајќи дупликати екстремитети меѓу спасувачите. „Една лажна слика што ми се издвои тврдеше дека прикажува висок ирански командант како шета низ Техеран преправен во жена за да избегне потенцијален атентат“, вели Шајан Сардаризаде, виш новинар во тимот за проверка на Би-Би-Си, кој користи форензички техники за потврдување на информациите и спроведување визуелни истраги. „Улицата, зградата во позадина и околината изгледаа како реалистична сцена во Техеран“.
Сардаризаде вели дека вештачката интелигенција сега сочинува голем дел од сите дезинформации што тимот ги разоткрива – а обемот се зголемува. На пример, во првите неколку недели од војните во Газа или Украина, повеќето лажни објави што ги видел тимот биле стари или неповрзани видеа или пренаменети снимки од видео игри. Сега, „речиси половина, ако не и повеќе, од сите вирусни лаги што сега ги следиме и разоткриваме се генеративна вештачка интелигенција“.
Тоа делумно се должи на леснотијата со која секој сега може да генерира реалистично видео или фотографија. Но, другата огромна промена е во тоа што луѓето користат вештачка интелигенција за да сумираат вести или да одговорат на прашања, наместо да одат директно на оригиналниот извор. Резимеата на вештачката интелигенција на Гугл и Грок беа воведени на пошироката меѓународна јавност дури во средината на 2024 година и брзо станаа широко распространети: 65% од луѓето известуваат дека редовно гледаат резимеа на вести или други информации од вештачка интелигенција, а делот од луѓето кои велат дека користат генеративна вештачка интелигенција за да добијат информации се удвоил во изминатата година. Сепак, честопати, резимеата на вештачката интелигенција се едноставно погрешни. Меѓународна студија од 2025 година откри дека околу половина од сите резимеа генерирани од вештачка интелигенција имале барем еден значаен проблем со изворот или точноста – кај некои алатки, како што е популарниот интерфејс Џемини, тој процент се искачил на 76 отсто.
Во случајот со војната во Иран, проверувачите на факти велат дека гледаат поплава од ваков вид погрешен материјал. Освен сликите од гробиштата Минаб, примерите вклучуваат неточно сугерирање на Грок на корисниците на Икс дека видео снимките од пожарите во Техеран всушност биле од Лос Анџелес во 2017 година, како и корисници кои се повикуваат на „анализа на вештачката интелигенција“ за погрешно да идентификуваат ракета снимена како паѓа до училиштето Минаб (бројни експерти за муниција велат дека станува збор за американски „Томахавк“, наод поткрепен со фрагменти наводно пронајдени на местото на настанот и внатрешни брифинзи на САД за бомбардирањето).
Дел од проблемот е како функционираат моделите на вештачка интелигенција за LLM (како што се Грок, ЧетЏП и Џемини). На многу основно ниво, тие се веројатносни јазични модели, кои конструираат реченици дел по дел врз основа на тоа кој следен збор има најголема веројатност да биде соодветен. Иако тој процес произведува убедливи, авторитативно звучни реченици, тоа не значи дека вештачката интелигенција всушност го анализирала материјалот пред неа.
„Вештачката интелигенција се перцепира како сезнаечки ентитет со пристап до сè, но без емоции“, вели Тал Хагин, аналитичар за интелигенција со отворен код и едукатор за медиумска писменост – па затоа луѓето имаат тенденција да ѝ веруваат. „Она што го користите е всушност многу напредна машина за веројатност, а не кутија за вистина“.
Проблемот е усложнет од авторитативниот начин на кој вештачката интелигенција има тенденција да ги презентира своите наоди. Таа ќе генерира детални „извештаи“, вклучувајќи имиња и датуми, референци и извори – вид материјал што сугерира длабоко истражување и разбирање, но всушност може да биде халуцинантен или воопшто да не постои. (Гардијан)