VESTACKA INTELIGENCIJA 4

10.01.2025 Скопје

Истражувачите од Стенфорд и Google DeepMind создадоа вештачка интелигенција која може да реплицира човечки личности со неверојатна точност по само двочасовен разговор.

Со интервјуирање на 1.052 луѓе од различно потекло, тие создадоа како што го нарекуваат „агенти за симулација“ – дигитални копии кои беа страшно ефективни во предвидувањето на верувањата, ставовите и однесувањата на нивните човечки колеги.

За да се создадат дигитални копии, тимот користи податоци од „интервјуер со вештачка интелигенција“ дизајниран да ги вклучи учесниците во природен разговор.

Интервјуерот со вештачка интелигенција поставува прашања и генерира персонализирани последователни прашања – во просек 82 по сесија – истражувајќи сè, од сеќавањата од детството до политичките ставови.

Преку овие двочасовни дискусии, секој учесник генерира детални записници во просек од 6.500 зборови.

На пример, кога учесникот го спомнува својот роден град од детството, вештачката интелигенција може да истражува подлабоко, прашувајќи за конкретни спомени или искуства. Со симулирање на природен тек на разговор, системот доловува нијансирани лични информации кои стандардните анкети имаат тенденција да ги прескокнуваат.

Зад сцената, студијата го документира она што истражувачите го нарекуваат „експертско размислување“ – поттикнувајќи големи јазични модели (LLMs) да го анализираат секој разговор од четири различни професионални гледишта:

Како психолог, тој ги идентификува специфичните особини на личноста и емоционалните обрасци – на пример, забележувајќи како некој ја цени независноста врз основа на нивните описи на семејните односи.

Преку леќата на бихејвиоралниот економист, извлекува увид во врска со финансиското одлучување и толеранцијата на ризик, како на пример како тие пристапуваат кон заштедите или изборот на кариера.

Перспективата на политикологот ги мапира идеолошките наклонетости и преференциите на политиките за различни прашања.

Демографската анализа ги доловува социо-економските фактори и животните околности.

Истражувачите заклучија дека оваа техника заснована на интервју ги надминала споредливите методи – како што е ископувањето податоци од социјалните медиуми – со значителна маргина. Тестирање на дигитални копии

Значи, колку беа добри копии со вештачка интелигенција? Истражувачите ги ставиле низ батерија од тестови за да дознаат.

Прво, тие го користеле општото социјално истражување – мерка за општествени ставови што поставува прашања за сè, од политички ставови до религиозни убедувања. Овде, копии со вештачка интелигенција се совпаѓаат со одговорите на нивните човечки колеги 85% од времето.

На тестот на личноста Big Five, кој мери особини како отвореност и совесност преку 44 различни прашања, предвидувањата за вештачката интелигенција се усогласија со човечките одговори околу 80% од времето. Системот бил одличен во доловувањето на особини како што се екстравертноста и невротизмот.

Сепак, економското тестирање на игри откри фасцинантни ограничувања. Во „Играта на диктаторот“, каде учесниците одлучуваат како да ги поделат парите со другите, вештачката интелигенција се бореше совршено да ја предвиди човечката дарежливост.

Во „Играта на доверба“, која ја тестира подготвеноста за соработка со другите за заедничка корист, дигиталните копии одговараат само на човечките избори околу две третини од времето.

Ова сугерира дека иако вештачката интелигенција може да ги сфати нашите наведени вредности, сè уште не може целосно да ги опфати нијансите на човечкото општествено одлучување.

Не застанувајќи тука, истражувачите исто така ги подложуваат копиите на пет класични експерименти за социјална психологија.

Во еден експеримент кој тестираше како перцепираната намера влијае на вината, и луѓето и нивните копии со вештачка интелигенција покажаа слични шеми на доделување поголема вина кога штетните дејства изгледаа намерни.

Друг експеримент испитуваше како правичноста влијае на емоционалните одговори, при што копии со вештачка интелигенција прецизно ги предвидуваат човечките реакции на фер наспроти нефер третман.

Репликите со вештачка интелигенција успешно го репродуцираа човечкото однесување во четири од пет експерименти, што сугерира дека тие можат да моделираат не само индивидуални локални одговори, туку и широки, сложени модели на однесување.

Системите за вештачка интелигенција што ги „клонираат“ човечките погледи и однесувања се голем бизнис, а Мета неодамна објави дека планира да ги пополни Фејсбук и Инстаграм со профили за вештачка интелигенција кои можат да создаваат содржина и да се вклучат со корисниците.

TikTok, исто така, влезе во кавгата со својот нов пакет креативни алатки „Симфонија“ со вештачка интелигенција, кој вклучува дигитални аватари што можат да ги користат брендовите и креаторите за да произведат локализирана содржина во обем.

Со Symphony Digital Avatars, TikTok им дозволува на подобните создавачи да градат аватари што претставуваат вистински луѓе, комплетирани со широк спектар на гестови, изрази, возрасти, националности и јазици.

Истражувањето на Стенфорд и ДипМајнд сугерира дека таквите дигитални копии ќе станат многу пософистицирани – и полесни за градење и распоредување во обем.

„Ако можете да имате еден куп мали „ваши“ да трчаат наоколу и да ги донесувате одлуките што би ги донеле – тоа, мислам, на крајот е иднината“, водечкиот истражувач Џун Сунг Парк, докторант на Стенфорд по компјутерски науки.

Парк опишува дека има добри страни во таквата технологија, бидејќи градењето точни клонови би можело да ги поддржи научните истражувања.

Наместо да спроведуваат скапи или етички сомнителни експерименти врз вистински луѓе, истражувачите би можеле да тестираат како популациите би можеле да реагираат на одредени влезни информации. На пример, може да помогне да се предвидат реакциите на пораките за јавно здравје или да се проучува како заедниците се прилагодуваат на големите општествени промени.

Сепак, на крајот, истите карактеристики што ги прават овие реплики со вештачка интелигенција вредни за истражување, исто така ги прават моќни алатки за измама.

Подготвено од М.Д.

About Author