10.01.2023 Скопје

Коизвестителите на Европскиот парламент доставија нови компромисни амандмани на Законот за вештачка интелигенција (ВИ) со кои се предлага како да се вршат проценки на влијанието на основните права и други обврски за корисниците на системи со висок ризик.

Во текот на вчерашниот ден беше објавен новиот компромис за да се дискутира на техничкиот состанок во среда. Тоа е една од последните серии што го комплетираа првиот преглед на Законот за вештачка интелигенција, значаен законски предлог за регулирање на технологијата врз основа на нејзиниот потенцијал да предизвика штета.

Коизвестувачите сакаат да вклучат барање за сите корисници на високоризични системи за вештачка интелигенција, и јавни тела и приватни субјекти, да спроведат проценка на влијанието на основните права, наведувајќи неколку минимални елементи што треба да ги вклучи проценката.

Имено, корисниците на вештачка интелигенција треба да ја земат предвид намената, географскиот и временскиот опсег на употреба, категориите на поединци и групи кои се засегнати, специфичните ризици за маргинализираните групи и предвидливото влијание врз животната средина, на пример, во потрошувачката на енергија.

Други елементи вклучуваат усогласеност со ЕУ и националното законодавство и законот за основни права, потенцијалното негативно влијание врз вредностите на ЕУ и, за јавните власти, какви било размислувања за демократијата, владеењето на правото и распределбата на јавното финансирање.

За водечките европратеници, корисниците треба да подготват детален план за тоа како ќе се ублажи директното или индиректното негативно влијание врз основните права. Во тоа отсуство, тие ќе треба да го известат давателот на вештачка интелигенција и релевантниот национален орган без одлагање.

„Во текот на проценката на влијанието, корисникот ќе ги извести релевантните национални надлежни органи и релевантните засегнати страни и ќе вклучи претставници на лица или групи на лица кои разумно може да се предвидат да бидат засегнати од високоризичниот систем за вештачка интелигенција“, се наведува во компромисот.

Примери на претставници кои би дале инпути за проценката на влијанието вклучуваат тела за еднаквост, агенции за заштита на потрошувачите, социјални партнери и органи за заштита на податоци. Корисниците треба да им овозможат шест недели да дадат таков придонес, а доколку се јавно тело, треба да го објават резултатот од проценката на влијанието како дел од регистрацијата во регистарот на ЕУ.

Коизвестувачите направија некои значајни дополнувања на обврските за корисниците на системи со вештачка интелигенција кои се сметаат за високоризични, на пример, осигурувајќи дека тие имаат соодветни мерки за робусност и сајбер безбедност и дека овие мерки редовно се ажурираат.

Покрај тоа, „до степен до кој корисникот врши контрола над високоризичниот систем на вештачка интелигенција“, корисниците треба да ги проценат ризиците поврзани со потенцијалните негативни ефекти од употребата и соодветните мерки за ублажување. Доколку корисниците станат свесни дека користењето на системот со висок ризик според упатствата повлекува ризик за здравјето, безбедноста или заштитата на основните права, тие ќе мора веднаш да го известат давателот или дистрибутерот на ВИ и надлежниот национален орган.

Компромисот прецизира дека корисниците треба да обезбедат човечки надзор во сите случаи што ги бара регулативата за вештачка интелигенција и да се погрижат одговорните луѓе да ги имаат потребните компетенции, обука и ресурси за соодветен надзор.

Високоризичните корисници на вештачка интелигенција, исто така, ќе мора да ги одржуваат автоматските дневници генерирани од системот за да обезбедат усогласеност со Законот за вештачка интелигенција, да вршат ревизија на какви било предвидливи дефекти или инциденти и да ги следат системите во текот на нивниот животен циклус. Пред да се имплементира високоризичен систем за вештачка интелигенција на работното место, корисниците треба да се консултираат со претставниците на работниците и да информираат и да добијат согласност од вработените.

Дополнително, корисниците треба да ги информираат поединците засегнати од системот со висок ризик, особено за видот на вештачката интелигенција што се користи, неговата намена и видот на одлуката што ја носи. Исто така, додаден е пасус за решавање на генеративната вештачка интелигенција, сè попопуларни модели како ChatGPT кои можат да генерираат содржина врз основа на човечки влезови. Корисниците на таквите системи ќе мора да откријат дека таквиот текст е генериран или манипулиран со вештачка интелигенција, освен ако содржината поминала низ човечки преглед и неговиот издавач е одговорен или има уредувачка одговорност. Давателите на вештачка интелигенција треба тесно да соработуваат со корисниците за да се усогласат со таквите обврски. За возврат, корисниците ќе треба да соработуваат со националните власти за какви било активности поврзани со системи со висок ризик.

Дистрибутерите, увозниците, корисниците и која било друга трета страна би се сметале за даватели на систем со висок ризик, со релативни обврски, под одредени специфични околности кои водечките европратеници во голема мера ги уредувале. На пример, ако ја модифицираат наменетата цел или направат било каква суштинска модификација што ја прави ВИ апликација со висок ризик. Друг услов е ако системот со висок ризик бил пуштен во услуги под нивно име или заштитен знак, освен ако договорниот аранжман не ги доделува обврските поинаку. Кога овие трети страни ќе станат нов давател на вештачка интелигенција, оригиналниот провајдер треба тесно да соработува со нив за да се усогласи со обврските од регулативата.

Подготвено од А.Ѓ.

About Author

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *