Стив Вознијак, принцот Хари и уште 800 други сакаат забрана за „суперинтелигенција“
Повеќе од 800 јавни личности, вклучувајќи ги Стив Вознијак, принцот Хари, научници за вештачка интелигенција, поранешни воени лидери и извршни директори, потпишаа изјава со која бараат забрана за работа со вештачка интелигенција што би можела да доведе до суперинтелигенција, објавува The Financial Times.
Реклама
„Повикуваме на забрана за развој на суперинтелигенција, која не смее да се укине пред да имаме широк научен консензус дека тоа ќе се прави безбедно и на контролиран начин, како и силна јавна поддршка“, се вели во изјавата.
Потписниците вклучуваат широк спектар на луѓе од различни сектори и политички спектар, вклучувајќи го истражувачот на вештачка интелигенција и добитник на Нобелова награда Џефри Хинтон, Стив Банон, поранешниот помошник на американскиот претседател Доналд Трамп, поранешниот претседател на Здружениот штаб на вооружените сили Мајк Мулен и раперот Will.i.am. Изјавата доаѓа од Институтот за иднината на животот, кој рече дека развојот на вештачката интелигенција се случува побрзо отколку што јавноста може да сфати.
„На некое ниво, ова време ни го одбраа компаниите и основачите на вештачката интелигенција, како и економскиот систем што ги напојува, но никој навистина не праша никого дали ова е она што навистина го сакаме“, изјави за NBC News извршниот директор на институтот, Ентони Агире.
Вештачката општа интелигенција (AGI) се однесува на способноста на машините да размислуваат и да извршуваат задачи исто како и луѓето, додека суперинтелигенцијата би ѝ дозволила на вештачката интелигенција да ги прави работите подобро дури и од човечките експерти. Критичарите, а и културата воопшто, ја наведуваат оваа потенцијална способност како сериозен ризик за човештвото. Сепак, досега, вештачката интелигенција се покажала корисна само за тесен опсег на задачи и постојано не успева да се справи со сложени задачи како што е автономното возење.
И покрај недостатокот на неодамнешни откритија, компании како OpenAI инвестираат милијарди во нови модели на вештачка интелигенција и центри за податоци потребни за нивно работење. Извршниот директор на Meta, Марк Закерберг, неодамна изјави дека суперинтелигенцијата е „на хоризонтот“, додека извршниот директор на X, Елон Маск, рече дека суперинтелигенцијата „се случува во реално време“. Маск претходно предупреди и за потенцијалните опасности од вештачката интелигенција.
Извршниот директор на OpenAI, Сем Алтман, изјави дека очекува суперинтелигенцијата да се случи најдоцна до 2030 година. Ниту еден од овие лидери, ниту некој важен од нивните компании, не ја потпиша изјавата.
Ова не е единствениот повик за забавување на развојот на вештачката интелигенција. Минатиот месец, повеќе од 200 истражувачи и јавни службеници, вклучувајќи 10 добитници на Нобелова награда и повеќе експерти за вештачка интелигенција, издадоа итен повик за „црвена линија“ против ризиците од вештачката интелигенција. Сепак, писмото не се однесуваше на суперинтелигенцијата, туку на опасностите што веќе почнуваат да се материјализираат, како што се масовната невработеност, климатските промени и кршењето на човековите права. Други критичари предупредуваат на потенцијален меур од вештачката интелигенција што на крајот би можел да пукне и да ја однесе економијата со себе.