Научниците пронашле решение за „халуцинациите“ на вештачка интелигенција


Истражувачите пронајдоа нов метод што може да се користи за откривање и спречување на „халуцинации“ од вештачката интелигенција, што е колоквијално име за неточните одговори дадени од ВИ.

Една нова студија на тим од Универзитетот во Оксфорд разви статистички модел кој може да идентификува кога прашањето поставено на големите јазични модели (large language models, LLM) што се користи за напојување на чет-бот со вештачка интелигенција веројатно ќе даде неточен одговор.

Нивното истражување е објавено во списанието Nature.

Што се „халуцинации“ од вештачка интелигенција?

„Халуцинациите“ од вештачката интелигенција се идентификувани како клучен проблем бидејќи напредната природа на технологијата и нејзините разговорни способности значат дека таа е способна да прикаже неточни информации како факт кога одговара на прашање.

Во време кога повеќе студенти се свртуваат кон алатките за вештачка интелигенција кога им треба помош при истражување или завршување на задачите, многу експерти повикуваат на акција за да се спречат „халуцинации“ со вештачка интелигенција, особено кога станува збор за прашања поврзани со медицински или правни прашања.

Пронајден начин да се посочи кога вештачката интелигенција измислува одговор

Истражувачите од Оксфорд рекоа дека нивното истражување нашло начин да се каже кога вештачката интелигенција е сигурна за одговорот и кога го измислува.

„ЛЛМ се многу способни да го кажат истото на многу различни начини, што може да го отежне разликувањето кога се сигурни во одговорот и кога буквално само „халуцинираат“ нешто.

Со претходните пристапи, не беше можно да се направи разлика кога моделот не знае што да каже и кога не знае како да го каже. Но, нашиот нов метод оди подалеку од тоа“, вели авторот на студијата д-р Себастијан Фаркухар.

Но, д-р Фаркухар вели дека сè уште треба да се работи за да се поправат грешките што моделите со вештачка интелигенција можат да ги направат.