IMG_1136

07.04.2025 Скопје

DeepMind, водечка истражувачка организација за вештачка интелигенција во Google, која се фокусира на технологијата за вештачка интелигенција, навести дека вештачката општа интелигенција, популарно наречена AGI, би можела да пристигне веќе во 2030 година.

Во документ од 145 страници, ко-автор на ко-основачот на DeepMind, Шејн Лег, авторите предупредија дека AGI може да направи „тешка штета“ и споделија некои алармантни примери за тоа како AGI може да доведе до „егзистенцијална криза“ што може „трајно да го уништи човештвото“.

Новообјавениот документ DeepMind пишува за ризиците што ги носи AGI во четири категории – злоупотреба, неусогласеност, грешки и структурни ризици. Додека трудот детално ја разгледува злоупотребата и неусогласеноста, другите два ризици се опфатени накратко.

Зборувајќи за злоупотреба, ризикот од AGI е прилично сличен на моментално достапните алатки за вештачка интелигенција, но бидејќи AGI ќе биде многу помоќен од моделите на големи јазици од сегашната генерација, штетата ќе биде многу поголема. На пример, лош актер со пристап може да побара од него да најде и да ги искористи пропустите на нула ден или да фабрикува вирус кој еден ден би можел да се користи како оружје. За да се спречи ова, DeepMind вели дека програмерите ќе мора да креираат и развијат безбедносни протоколи и да ги идентификуваат и ограничат можностите на системот да прави такви работи.

Ако AGI треба да им помогне на луѓето, важно е системот да се усогласи со човечките вредности. DeepMind вели дека неусогласеноста се случува „кога системот за вештачка интелигенција следи цел што е различна од човечките намери“, што звучи директно од филм за Терминатор.

На пример, кога корисникот бара вештачка интелигенција да резервира билети за филм, тој може да одлучи да го хакира системот за билети за да добие веќе резервирани билети. DeepMind вели дека исто така го истражува ризикот од измамнички усогласување, каде што системот за вештачка интелигенција може да сфати дека неговите цели не се усогласуваат со луѓето и намерно се обидува да ги надмине поставените безбедносни мерки. За да се спротивстави на неусогласеноста, DeepMind вели дека во моментов користи засилен надзор, техника која кажува дали одговорите на вештачката интелигенција се добри или не, но тоа може да стане тешко откако вештачката интелигенција ќе напредне.

Што се однесува до ублажувањето на грешките, трудот не дава решение за проблемот, но вели дека не треба да дозволиме AGI да стане премногу моќен на прво место со тоа што полека ќе го распоредиме и ќе ја ограничиме неговата употребливост. И на крај, структурните ризици се однесуваат на последиците од системите со повеќе агенти кои исфрлаат лажни информации кои звучат толку убедливо што може да се збуниме на кого да му веруваме.

Подготвено од М.Д.

About Author