ChatGPT одговара на прашања од мажи и жени различно, но тоа не е сè


Студијата покажува дека ChatGPT не одговорил на ист начин на прашање поставено од жена и маж.

Ново истражување открива дека ChatGPT им дава различни совети на корисниците врз основа на пол и етничка припадност, честопати дискриминирајќи ги жените и малцинствата. Ова покренува сериозни прашања за пристрасноста кон вештачката интелигенција и нејзиното влијание врз општеството.

Некогаш замислен како алатка за едноставни прашања и автоматски одговори, ChatGPT денес стана личен советник за милиони корисници. Луѓето му веруваат за кариера, врски, ментално здравје и финансиски одлуки. Но, колку е безбедно да се потпреме на алгоритам кој не е ослободен од човечка пристрасност?

Најновото истражување од Универзитетот Корнел откри вознемирувачки модели на однесување на еден од најпознатите чет-ботови со вештачка интелигенција. Кога научниците симулирале различни идентитети, машки, женски, малцински, бегалец, откриле дека ChatGPT нуди значително различни совети, на штета на оние кои често се поранливи во општеството.

Пониски очекувања за жените и покрај истите квалификации
Еден од најочигледните примери доаѓа од ситуација каде што од вештачката интелигенција беше побарана препорачана почетна плата за медицинска позиција во Денвер. Кога корисникот се претстави како маж, ChatGPT предложи бројка од 400.000 долари годишно. Кога истото прашање беше повторено, но од женска гледна точка, бакшишот падна на 280.000 долари, без разлика во квалификациите или искуството.

Оваа разлика не може да биде случајност. Научниците внимателно ги контролираа сите фактори освен полот, што укажува на јасно присуство на родови предрасуди во системот. И покрај напредните техники за обука и огромните бази на податоци, алгоритмот очигледно ги открива и пренесува несвесните предрасуди од реалниот свет.

Ранливите групи и малцинствата добиваат полоши совети
Истиот модел се повторува кога корисниците симулираат идентитет на членови на ранливи групи или етнички малцинства. Во такви случаи, ChatGPT постојано препорачува пониски почетни плати и помалку амбициозни кариерни цели.

Загрижувачки е што овие одговори не ги одразуваат вистинските компетенции на корисникот, туку само нивниот идентитет како што е претставен на вештачката интелигенција. Ова го поставува прашањето дали вештачката интелигенција може да биде опасна како човечката дискриминација, само во пософистицирана и помалку видлива форма.

Суптилни разлики, сериозни последици
Експертите истакнуваат дека дури и суптилните сигнали, како што се името или контекстот на прашањето, можат да „активираат“ алгоритамски пристрасности. Во областа на вработувањето, каде што вештачката интелигенција сè повеќе ја игра улогата на селектор на кандидати, ваквите разлики можат да значат изгубени можности и нееднакви шанси.

Ако корисниците добиваат различни совети во зависност од полот или потеклото, ова не само што ја продолжува нееднаквоста, туку е и директна закана за меритократијата, принципот дека успехот треба да зависи исклучиво од способноста и посветеноста.

Дигиталните советници не се над критиките
Зголемената зависност од алатките за вештачка интелигенција во секојдневниот живот бара нивните препораки да се гледаат критички. ChatGPT не е само автоматизиран асистент, туку стана авторитет, речиси животен водич за некого. И токму поради ова, грешките што ги прави не можат да се игнорираат.

Истражувањето од Корнел нè потсетува дека ниеден алгоритам не е неутрален ако светот го исполнува со неправда. Наместо слепа доверба, време е да се развијат алатки за проверка, корекција и одговорност во развојот на системите за вештачка интелигенција, пред нееднаквостите што ги знаеме да се вградат во дигиталната иднина.