28.07.2023 Скопје
Четири од највлијателните компании во областа на вештачката интелигенција формираа групација во индустријата за да го надгледуваат безбедниот развој на најнапредните модели со вештачка интелигенција.
Организацијата „Frontier Model Forum“ ја формираше компанијата Open AI, која го разви чет-ботот ChatGPT, потоа Microsoft, Google, сопственик на компанијата за вештачка интелигенција „Deep Mind“ со седиште во Велика Британија и компанијата Antropik.
Претставниците на оваа група велат дека фокусот ќе биде ставен на безбеден и одговорен развој на најнапредните модели на вештачка интелигенција, додека размислуваат и за идна технологија базирана на вештачка интелигенција која ќе биде многу понапредна од алатките што моментално се достапни.
„Компаниите кои развиваат технологија базирана на вештачка интелигенција се одговорни за создавање безбеден производ кој мора да остане под човечка контрола“, рече Бред Смит, претседател на Мајкрософт.
Тој додава дека оваа иницијатива е клучен чекор за зближување на технолошкиот сектор на полето на одговорен развој на вештачката интелигенција на начин што ќе има корист за целото човештво.
Членовите на форумот наведуваат дека нивните главни цели се да промовираат безбедносни истражувања за вештачка интелигенција, како што е развивање стандарди за евалуација на модели; поттикнување на одговорна примена на напредни модели базирани на вештачка интелигенција; дискусија за безбедносните ризици и довербата во вештачката интелигенција со политичари и експерти; поддршка на развојот на позитивни употреби на вештачката интелигенција како што е борбата против климатската криза и рано откривање на ракот.
Тие додаваат дека членството во групата е отворено за организации кои развиваат гранични модели, кои се дефинирани како „големи модели за машинско учење кои ги надминуваат можностите моментално присутни во најнапредните постоечки модели и можат да извршуваат широк опсег на задачи“.
Најавата за основање на оваа групација доаѓа во време кога се забрзува регулацијата на технологијата. Во петокот, технолошките компании – вклучително и членовите на групата Frontier Model Forum – се согласија на нови заштитни мерки поврзани со вештачката интелигенција по состанокот со Џо Бајден во Белата куќа.
Заложбите усвоени на состанокот вклучуваат означување на содржината произведена од алатки засновани на вештачка интелигенција за полесно да се воочат материјалите што доведуваат до заблуда и да им се дозволи на независни експерти да тестираат модели на вештачка интелигенција.
Најавата на Белата куќа беше дочекана со скептицизам од страна на некои активисти кои велат дека технолошката индустрија е позната по прекршувањето на саморегулацијата. Минатонеделната најава на Мета дека ќе објави модел на вештачка интелигенција беше опишана од еден експерт како „давање на луѓето шаблон за правење нуклеарна бомба“.
Групата Frontier Model Forum посочува дека „важни придонеси“ за безбедноста се направени од тела како владата на ОК, која свика глобален самит за безбедност на вештачката интелигенција и ЕУ, која воведува нацрт-закон за вештачка интелигенција што претставува најсериозен законодавен обид за регулирање на најбрзо растечката технологија.
Подготвено од А.Ѓ.