https://sputnikportal.rs/20260202/naucnici-upozoravaju-oni-su-rojevi-koji-ce-preko-drustvenih-mreza-rusiti-demokratiju-1195440022.html
Научници упозоравају: Они су „ројеви“ који ће преко друштвених мрежа рушити демократију
Научници упозоравају: Они су „ројеви“ који ће преко друштвених мрежа рушити демократију
Sputnik Србија
Друштвене мреже ће ускоро бити преплављене ројевима вештачке интелигенције која ће ширити дезинформације, узнемиравати кориснике и поткопавати демократске... 02.02.2026, Sputnik Србија
2026-02-02T22:51+0100
2026-02-02T22:51+0100
2026-02-02T22:51+0100
наука и технологија
друштво
ит
https://cdn1.img.sputnikportal.rs/img/07ea/02/02/1195440479_0:0:1248:702_1920x0_80_0_0_416ba90ea5d5af98009ee34dcf4494be.jpg
Према коментару објављеном у часопису „Science“, такозвани „ројеви вештачке интелигенције“ постаће ново оружје у информационим ратовима.Тешко препознатљиви ботовиЗа разлику од класичних ботова, који су углавном примитивни и лако препознатљиви, ови системи би могли убедљиво да имитирају људско понашање, да се прилагођавају заједницама у које се убацују и да стварају утисак спонтане, аутентичне акције. Другим речима, корисници би могли да осете да се већинско мишљење формира пред њиховим очима, иако га заправо оркестрира вештачка интелигенција.Замислите да мишљења у вашој омиљеној онлајн заједници изненада почну да се учвршћују око тема о којима се тек недавно расправљало. Људи имају тенденцију да прате оно што доживљавају као већинско мишљење. Али проблем настаје ако та „већина“ заправо не постоји, већ је предводи невидљиви рој агената вештачке интелигенције који делују у интересу појединца, политичке странке, корпорације или државе.Мишљење већинеКако објашњава коаутор коментара Јонас Кунст, професор комуниколошких студија на норвешкој пословној школи "BI", људи су по природи конформисти, што значи да имају тенденцију да прихвате ставове и понашање већине јер им то даје осећај сигурности, припадности и друштвене исправности, чак и када нису у потпуности уверени да је већина у праву. Иако нерадо то признају, често верују да став који дели већина има неку посебну вредност. Управо је то, упозорава Кунст, слабост коју би ројеви вештачке интелигенције могли веома ефикасно да искористе.Али манипулација мишљењем није једина опасност. Исти ти системи би се могли користити и за организовано узнемиравање. Људе који се не слажу са одређеним начином размишљања могли би напасти ројеви вештачке интелигенције који ће их дигитално линчовати док их не ућуткају или истерају са платформе.Људскији од људиАутори у уводу пишу да напредак у развоју вештачке интелигенције отвара могућност манипулације веровањима и понашањем на нивоу читавих популација."Велики језички модели (ВЈМ) и аутономни агенти омогућавају кампањама утицаја да достигну невиђене размере и прецизност. Генеративни алати могу повећати количину пропаганде без губитка кредибилитета и могу, уз ниску цену, створити лажи које се доживљавају као "људскије" од оних које пишу људи".Програмери вештачке интелигенције морају бити натерани да поштују правила.Другим речима, проблем није само зато што неко злоупотребљава вештачку интелигенцију, већ због начина на који су ови системи дизајнирани, како се монетизују и како се њима управља или не управља.Стога, аутори коментара не рачунају на компаније или кориснике који ће деловати одговорно из чисте добре воље. Уместо креирања пуких препорука које се могу игнорисати, они се залажу за предузимање конкретних мера и постављање правила на више нивоа која би заправо могла ограничити штету.Неки су можда већ у акцијиАутори коментара не наводе тачан временски оквир у којем би се такви ројеви могли масовно појавити, али упозоравају да ће их бити изузетно тешко открити. Стога није јасно да ли су неки облици таквих ројева већ у употреби.Многи корисници друштвених мрежа већ примећују пораст утицаја ботова, а последњих година се шири и такозвана теорија "мртвог интернета", према којој велики део онлајн садржаја више не креирају људи, већ аутоматизовани системи.Ботови чине више од половине саобраћајаВажно је напоменути да интернет већ врви од ботова. Процене указују да они чине више од половине целокупног интернет саобраћаја.Класични ботови углавном обављају једноставне задатке, попут понављања исте поруке, и често их је релативно лако идентификовати. Међутим, чак и такви ботови могу проузроковати штету ширењем лажних информација и вештачким надувавањем одређених наратива.Дигитални организмиНова генерација ројева вештачке интелигенције иде много даље. Њима управљају велики језички модели, исти они који стоје иза популарних четботова. Такви системи могу да уче, прилагођавају се и стварају низ убедљивих онлајн персона са сопственим "идентитетом" и памћењем. Аутори коментара их описују као врсту дигиталних организама способних за самосталну координацију и дугорочно искоришћавање људских психолошких слабости.Посебан проблем је што се ова технологија појављује у време када су дигитални простори већ озбиљно нарушени. Наиме, аутори упозоравају да већ сведочимо ерозији рационалне дебате и све слабијем осећају заједничке стварности међу грађанима. У таквом окружењу, ројеви вештачке интелигенције не би морали да стварају хаос ни из чега – било би довољно само да додатно погурају постојеће обрасце и поделе.Такве масовне манипулације нису нека хипотетичка дистопија. На пример, прошле године, Редит је претио судским поступцима против научника који су користили четботове са вештачком интелигенцијом на популарном форуму r/changemyview у експерименту у којем су покушали да утичу на мишљења четири милиона корисника. Према прелиминарним налазима истраживача, одговори њихових четботова били су три до шест пута убедљивији од одговора људских корисника.Морате се припремити на времеЗакључак аутора није да је апокалипса неизбежна, већ да је то стваран и растући ризик који захтева озбиљну дискусију. Ако се друштва не припреме на време, упозоравају они, граница између стварног јавног мњења и вештачки произведених илузија могла би постати опасно замагљена.Погледајте и:
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2026
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07ea/02/02/1195440479_0:0:1110:832_1920x0_80_0_0_907936cea5c0a52920104ca8fd264c6b.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
друштво, ит
Научници упозоравају: Они су „ројеви“ који ће преко друштвених мрежа рушити демократију
Друштвене мреже ће ускоро бити преплављене ројевима вештачке интелигенције која ће ширити дезинформације, узнемиравати кориснике и поткопавати демократске процесе, упозоравају научници.
Према коментару
објављеном у часопису „Science“, такозвани „ројеви вештачке интелигенције“ постаће ново оружје у информационим ратовима.
Тешко препознатљиви ботови
За разлику од класичних ботова, који су углавном примитивни и лако препознатљиви, ови системи би могли убедљиво да имитирају људско понашање, да се прилагођавају заједницама у које се убацују и да стварају утисак спонтане, аутентичне акције. Другим речима, корисници би могли да осете да се већинско мишљење формира пред њиховим очима, иако га заправо оркестрира вештачка интелигенција.
Замислите да мишљења у вашој омиљеној онлајн заједници изненада почну да се учвршћују око тема о којима се тек недавно расправљало. Људи имају тенденцију да прате оно што доживљавају као већинско мишљење. Али проблем настаје ако та „већина“ заправо не постоји, већ је предводи невидљиви рој агената вештачке интелигенције који делују у интересу појединца, политичке странке, корпорације или државе.
Како објашњава коаутор коментара Јонас Кунст, професор комуниколошких студија на норвешкој пословној школи "BI", људи су по природи конформисти, што значи да имају тенденцију да прихвате ставове и понашање већине јер им то даје осећај сигурности, припадности и друштвене исправности, чак и када нису у потпуности уверени да је већина у праву. Иако нерадо то признају, често верују да став који дели већина има неку посебну вредност. Управо је то, упозорава Кунст, слабост коју би ројеви вештачке интелигенције могли веома ефикасно да искористе.
Али манипулација мишљењем није једина опасност. Исти ти системи би се могли користити и за организовано узнемиравање. Људе који се не слажу са одређеним начином размишљања могли би напасти ројеви вештачке интелигенције који ће их дигитално линчовати док их не ућуткају или истерају са платформе.
Аутори у уводу пишу да напредак у развоју вештачке интелигенције отвара могућност манипулације веровањима и понашањем на нивоу читавих популација.
"Велики језички модели (ВЈМ) и аутономни агенти омогућавају кампањама утицаја да достигну невиђене размере и прецизност. Генеративни алати могу повећати количину пропаганде без губитка кредибилитета и могу, уз ниску цену, створити лажи које се доживљавају као "људскије" од оних које пишу људи".
"Технике дизајниране да побољшају вештачку интелигенцију, као што је подстицање ланца мисли, могу се користити за стварање убедљивијих лажи. Захваљујући овим могућностима, појављује се нова, дестабилизујућа претња: ројеви колаборативних, злонамерних вештачких агената. Спајањем ВЈМ резоновања са вишеагентским архитектурама, ови системи су у стању да се аутономно координишу, инфилтрирају у заједнице и ефикасно створе привид консензуса. Адаптивним опонашањем људске друштвене динамике, они угрожавају демократију", упозоравају аутори.
Програмери вештачке интелигенције морају бити натерани да поштују правила.
Другим речима, проблем није само зато што неко злоупотребљава вештачку интелигенцију, већ због начина на који су ови системи дизајнирани, како се монетизују и како се њима управља или не управља.
Стога, аутори коментара не рачунају на компаније или кориснике који ће деловати одговорно из чисте добре воље. Уместо креирања пуких препорука које се могу игнорисати, они се залажу за предузимање конкретних мера и постављање правила на више нивоа која би заправо могла ограничити штету.
Неки су можда већ у акцији
Аутори коментара не наводе тачан временски оквир у којем би се такви ројеви могли масовно појавити, али упозоравају да ће их бити изузетно тешко открити. Стога није јасно да ли су неки облици таквих ројева већ у употреби.
Многи корисници друштвених мрежа већ примећују пораст утицаја ботова, а последњих година се шири и такозвана теорија "мртвог интернета", према којој велики део онлајн садржаја више не креирају људи, већ аутоматизовани системи.
Ботови чине више од половине саобраћаја
Важно је напоменути да интернет већ врви од ботова. Процене указују да они чине више од половине целокупног интернет саобраћаја.
Класични ботови углавном обављају једноставне задатке, попут понављања исте поруке, и често их је релативно лако идентификовати. Међутим, чак и такви ботови могу проузроковати штету ширењем лажних информација и вештачким надувавањем одређених наратива.
Нова генерација ројева вештачке интелигенције иде много даље. Њима управљају велики језички модели, исти они који стоје иза популарних четботова. Такви системи могу да уче, прилагођавају се и стварају низ убедљивих онлајн персона са сопственим "идентитетом" и памћењем. Аутори коментара их описују као врсту дигиталних организама способних за самосталну координацију и дугорочно искоришћавање људских психолошких слабости.
Посебан проблем је што се ова технологија појављује у време када су дигитални простори већ озбиљно нарушени. Наиме, аутори упозоравају да већ сведочимо ерозији рационалне дебате и све слабијем осећају заједничке стварности међу грађанима. У таквом окружењу, ројеви вештачке интелигенције не би морали да стварају хаос ни из чега – било би довољно само да додатно погурају постојеће обрасце и поделе.
Такве масовне манипулације нису нека хипотетичка дистопија. На пример, прошле године, Редит је претио судским поступцима против научника који су користили четботове са вештачком интелигенцијом на популарном форуму r/changemyview у експерименту у којем су покушали да утичу на мишљења четири милиона корисника. Према прелиминарним налазима истраживача, одговори њихових четботова били су три до шест пута убедљивији од одговора људских корисника.
Морате се припремити на време
Закључак аутора није да је апокалипса неизбежна, већ да је то стваран и растући ризик који захтева озбиљну дискусију. Ако се друштва не припреме на време, упозоравају они, граница између стварног јавног мњења и вештачки произведених илузија могла би постати опасно замагљена.