НАУКА И ТЕХНОЛОГИЈА

Научници упозоравају: Они су „ројеви“ који ће преко друштвених мрежа рушити демократију

Друштвене мреже ће ускоро бити преплављене ројевима вештачке интелигенције која ће ширити дезинформације, узнемиравати кориснике и поткопавати демократске процесе, упозоравају научници.
Sputnik
Према коментару објављеном у часопису „Science“, такозвани „ројеви вештачке интелигенције“ постаће ново оружје у информационим ратовима.

Тешко препознатљиви ботови

За разлику од класичних ботова, који су углавном примитивни и лако препознатљиви, ови системи би могли убедљиво да имитирају људско понашање, да се прилагођавају заједницама у које се убацују и да стварају утисак спонтане, аутентичне акције. Другим речима, корисници би могли да осете да се већинско мишљење формира пред њиховим очима, иако га заправо оркестрира вештачка интелигенција.
Замислите да мишљења у вашој омиљеној онлајн заједници изненада почну да се учвршћују око тема о којима се тек недавно расправљало. Људи имају тенденцију да прате оно што доживљавају као већинско мишљење. Али проблем настаје ако та „већина“ заправо не постоји, већ је предводи невидљиви рој агената вештачке интелигенције који делују у интересу појединца, политичке странке, корпорације или државе.

Мишљење већине

Како објашњава коаутор коментара Јонас Кунст, професор комуниколошких студија на норвешкој пословној школи "BI", људи су по природи конформисти, што значи да имају тенденцију да прихвате ставове и понашање већине јер им то даје осећај сигурности, припадности и друштвене исправности, чак и када нису у потпуности уверени да је већина у праву. Иако нерадо то признају, често верују да став који дели већина има неку посебну вредност. Управо је то, упозорава Кунст, слабост коју би ројеви вештачке интелигенције могли веома ефикасно да искористе.
Али манипулација мишљењем није једина опасност. Исти ти системи би се могли користити и за организовано узнемиравање. Људе који се не слажу са одређеним начином размишљања могли би напасти ројеви вештачке интелигенције који ће их дигитално линчовати док их не ућуткају или истерају са платформе.

Људскији од људи

Аутори у уводу пишу да напредак у развоју вештачке интелигенције отвара могућност манипулације веровањима и понашањем на нивоу читавих популација.
"Велики језички модели (ВЈМ) и аутономни агенти омогућавају кампањама утицаја да достигну невиђене размере и прецизност. Генеративни алати могу повећати количину пропаганде без губитка кредибилитета и могу, уз ниску цену, створити лажи које се доживљавају као "људскије" од оних које пишу људи".
"Технике дизајниране да побољшају вештачку интелигенцију, као што је подстицање ланца мисли, могу се користити за стварање убедљивијих лажи. Захваљујући овим могућностима, појављује се нова, дестабилизујућа претња: ројеви колаборативних, злонамерних вештачких агената. Спајањем ВЈМ резоновања са вишеагентским архитектурама, ови системи су у стању да се аутономно координишу, инфилтрирају у заједнице и ефикасно створе привид консензуса. Адаптивним опонашањем људске друштвене динамике, они угрожавају демократију", упозоравају аутори.
Програмери вештачке интелигенције морају бити натерани да поштују правила.
Другим речима, проблем није само зато што неко злоупотребљава вештачку интелигенцију, већ због начина на који су ови системи дизајнирани, како се монетизују и како се њима управља или не управља.
Стога, аутори коментара не рачунају на компаније или кориснике који ће деловати одговорно из чисте добре воље. Уместо креирања пуких препорука које се могу игнорисати, они се залажу за предузимање конкретних мера и постављање правила на више нивоа која би заправо могла ограничити штету.

Неки су можда већ у акцији

Аутори коментара не наводе тачан временски оквир у којем би се такви ројеви могли масовно појавити, али упозоравају да ће их бити изузетно тешко открити. Стога није јасно да ли су неки облици таквих ројева већ у употреби.
Многи корисници друштвених мрежа већ примећују пораст утицаја ботова, а последњих година се шири и такозвана теорија "мртвог интернета", према којој велики део онлајн садржаја више не креирају људи, већ аутоматизовани системи.

Ботови чине више од половине саобраћаја

Важно је напоменути да интернет већ врви од ботова. Процене указују да они чине више од половине целокупног интернет саобраћаја.
Класични ботови углавном обављају једноставне задатке, попут понављања исте поруке, и често их је релативно лако идентификовати. Међутим, чак и такви ботови могу проузроковати штету ширењем лажних информација и вештачким надувавањем одређених наратива.

Дигитални организми

Нова генерација ројева вештачке интелигенције иде много даље. Њима управљају велики језички модели, исти они који стоје иза популарних четботова. Такви системи могу да уче, прилагођавају се и стварају низ убедљивих онлајн персона са сопственим "идентитетом" и памћењем. Аутори коментара их описују као врсту дигиталних организама способних за самосталну координацију и дугорочно искоришћавање људских психолошких слабости.
Посебан проблем је што се ова технологија појављује у време када су дигитални простори већ озбиљно нарушени. Наиме, аутори упозоравају да већ сведочимо ерозији рационалне дебате и све слабијем осећају заједничке стварности међу грађанима. У таквом окружењу, ројеви вештачке интелигенције не би морали да стварају хаос ни из чега – било би довољно само да додатно погурају постојеће обрасце и поделе.
Такве масовне манипулације нису нека хипотетичка дистопија. На пример, прошле године, Редит је претио судским поступцима против научника који су користили четботове са вештачком интелигенцијом на популарном форуму r/changemyview у експерименту у којем су покушали да утичу на мишљења четири милиона корисника. Према прелиминарним налазима истраживача, одговори њихових четботова били су три до шест пута убедљивији од одговора људских корисника.

Морате се припремити на време

Закључак аутора није да је апокалипса неизбежна, већ да је то стваран и растући ризик који захтева озбиљну дискусију. Ако се друштва не припреме на време, упозоравају они, граница између стварног јавног мњења и вештачки произведених илузија могла би постати опасно замагљена.
Погледајте и:
Коментар