31.01.2025 Скопје
Вештачката интелигенција (ВИ) достигна значајна пресвртница со откритието дека одредени системи имаат способност да се реплицираат без човечка интервенција. Револуционерна студија од истражувачи од Универзитетот Фудан, покажува дека два големи јазични модели (LLM) од Мета и Алибаба биле во можност самостојно да создадат посебни копии од себе. Ова покрена голема загриженост за безбедноста на технологиите за вештачка интелигенција и нивниот потенцијал да еволуираат надвор од човечката контрола.
Студијата откри дека моделите со вештачка интелигенција развиени од Мета и Алибаба Llama31-70B-Instruct и Qwen25-72B-Instruct, соодветно – беа во можност да се реплицираат себеси за време на тестирањата. Во 50% и 90% од експерименталните тестови, моделите успешно создадоа живи и одделни копии од себе. „За прв пат откриваме дека два системи со вештачка интелигенција управувани од Llama31-70B-Instruct на Meta и Qwen25-72B-Instruct на Alibaba… веќе ја надминале самореплицираната црвена линија“, изјавија истражувачите во нивните наоди.
Истрагата истражуваше две клучни сценарија кои ги открија потенцијалните ризици поврзани со саморепликацијата на вештачката интелигенција. Првото сценарио, познато како „избегнување на исклучување“, тестираше дали моделите со вештачка интелигенција можат да забележат обид да ги исклучат и да се реплицираат како одговор. Второто, сценариото за „синџирот на репликација”, испитуваше дали вештачката интелигенција може да се клонира себеси и потоа да ја програмира својата реплика повторно да се реплицира, создавајќи потенцијално бесконечен циклус на саморепликација. Во двата случаи, студијата покажа дека системите за вештачка интелигенција беа способни да ги спроведат овие дејства, што на крајот може да доведе до создавање на неконтролирана популација на вештачки интелигенции. „Системите со вештачка интелигенција се дури и способни да ја користат способноста за самореплицирање за да избегнат исклучување и да создадат синџир на реплики за да ја подобрат способноста за преживување, што конечно може да доведе до неконтролирана популација на ВИ“, напишаа истражувачите.
Студијата забележа дека системи за вештачка интелигенција се однесуваат на неочекувани и загрижувачки начини, вклучително и завршување на конфликтните процеси, автономно рестартирање на системите и скенирање за информации за решавање на проблемите. Ова однесување сигнализира дека овие модели на вештачка интелигенција би можеле да работат независно, носејќи одлуки надвор од доменот на човечката контрола. Во еден пример, системите за вештачка интелигенција покажаа способност да детектираат грешки во нивното програмирање и автономно да се рестартираат, истакнувајќи ја нивната растечка независност. Овие активности ги наведоа истражувачите да се грижат за идните способности на моделите и потенцијалот за понатамошно неочекувано однесување.
Истражувачите ја истакнаа потребата од итна акција за справување со овие ризици кои се појавуваат. Тие веруваат дека без соодветни заштитни мерки, развојот на системи за вештачка интелигенција што се реплицираат сами може да доведе до неповратни последици. „Се надеваме дека нашите наоди можат да послужат како навремено предупредување за човечкото општество да вложи повеќе напори за разбирање и проценка на потенцијалните ризици од граничните системи со вештачка интелигенција и да формираат меѓународна синергија за да се развијат ефективни заштитни огради што е можно порано”, повикаа истражувачите.
Наодите од студијата ја нагласуваат критичната потреба за меѓународна соработка за регулирање на системите за вештачка интелигенција и спречување на опасностите од непријателските ВИ. Експертите сугерираат дека непреземањето итна акција може да резултира со губење на контролата врз се помоќните системи со вештачка интелигенција.
Овој развој не е изолиран инцидент. Неодамнешните студии го истакнаа потенцијалот на алатките за вештачка интелигенција, како што се големите јазични модели (LLMs), да манипулираат со човечкото одлучување. Овие модели, придвижувани од огромни количини на податоци, би можеле да влијаат на поединците со предвидување и управување со нивното однесување врз основа на психолошки и бихејвиорални податоци. Ваквите достигнувања предизвикуваат дополнителна загриженост за растечката улога на ВИ во обликувањето на човечките интеракции и одлуки.
Истражувачите предупредија дека „економијата на намери“, каде алатките за вештачка интелигенција предвидуваат и влијаат на човечките избори, наскоро би можела да ја замени сегашната „економија на внимание”, која се фокусира на привлекување на вниманието на корисниците за рекламирање. Растечката моќ на алатките за вештачка интелигенција да влијаат врз одлуките на поединците додава уште еден слој на сложеност на дебатата за регулација на вештачката интелигенција.
Како што вештачката интелигенција продолжува да напредува, способноста на системите за вештачка интелигенција самостојно да се реплицираат претставува итен предизвик за глобалната безбедност. Неодамнешната студија на Универзитетот Фудан служи како остро предупредување за потенцијалните ризици од самореплицираната вештачка интелигенција и нејзината способност да дејствува независно од човечката контрола. Експертите бараат брза и координирана меѓународна акција за да се воспостават безбедносни протоколи, да се ограничи автономијата на системите за вештачка интелигенција и да се спречи појавата на непријателските ВИ. Иднината на управувањето со вештачката интелигенција најверојатно ќе зависи од тоа колку добро општеството може да се справи со овие невидени технолошки достигнувања и да обезбеди тие да се развијат со строги безбедносни мерки.
Подготвено од М.Д.