Етички изазов: Да ли је будућност вештачке интелигенције неминовно - Терминатор

CC0 / Слика генерисана вештачком интелигенцијом /
Пратите нас
Сазнања о вештачкој интелигенцији (AИ) и њен напредак мењају се из године у годину, наука мора да јој се непрекидно прилагођава. Стручњаци већ увелико дебатују о АИ етици, а људи се све више навикавају на АИ реалност. Будућност јесте неизвесна, али ће АИ засигурно бити део ње, те би паметније било изучити је ,,са свих страна“ него страховати од ње.
Аустралијска студија показала је да чак и људи који су до скоро били изузетно добри у препознавању АИ материјала од стварног садржаја, немају више ту ,,вештину". АИ брзо ,,учи" и прилагођава се, па је самим тим и ,,реалнија". Поред класичних АИ превара, које су у огромном порасту, ово носи и друге опасности са собом. По неким параметрима нас је одавно претекла, али где ћемо још постати сувишни, на које ћемо све начине постати „глупљи“ и води ли АИ будућност ка бољитку човечанства или само бољитку вештачке интелигенције?
Научна сарадница на Институту за филозофију при Филозофском факултету у Београду Вања Суботић каже да би на питање о штетности АИ реалности пре само три године и сама другачије одговорила него сада.
Да сте ми то питање поставили пре две или три године, имала бих много неутралнији одговор него што га имам сада. Пре две или три године бих рекла да је та АИ реалност не толико нова, колико представља својеврсни „апгрејд“ постојеће стварности. У почетку се подразумевало да ће људи добити прилику да живе функционалнијим животом, јер би делегирали неке задатке вештачкој интелигенцији, на које су иначе, услед све веће бирократизације друштва у 20. веку, трошили много времена, објашњава Суботићева за Спутњик.

Уместо да усисавају, перу и пеглају, роботи су почели да пишу поезију, прозу и дају филмске критике.
CC0 / Слика генерисана вештачком интелигенцијом /
Како каже, тада је размишљала о томе да постоје етички изазови у употреби вештачке интелигенције, али да је сама АИ реалност релативно неутрална, те да ће људи временом научити како да је користе и како да се суоче са таквим изазовима, уместо што забијају главу у песак у страху од „Терминатора“.
Међутим, у међувремену се свашта догодило. Имамо озбиљна истраживања, попут поменутог аустралијског, али и истраживање научника са МИТ-а (Масачусетски институт технологије) од пре неколико месеци, које је показало озбиљан ниво когнитивног пада код студената који користе генеративну вештачку интелигенцију за писање есеја. Поређене су две групе — једна је самостално писала есеје, друга је користила комерцијалне четботове попут ChatGPT-а, Gemini-ја и сличних. Примећена је на неуралном нивоу значајна разлика у можданој активности.
То је само једно од многих истраживања, објашњава наша саговорница. Појавили су се и радови о такозваном „паду вештина“, односно губитку вештина. Парадоксално, употребом вештачке интелигенције, уместо да унапређујемо своје способности, временом смо почели да их губимо.
Када све то сагледамо у ширем геополитичком контексту — колико употреба вештачке интелигенције има везе са промовисањем одређених геополитичких интереса и профита великих компанија — видимо да та стварност постаје све мање неутрална. Све више се своди на избор стране и избора начина живота, који можда и није онакав каквим је обећаван пре три године.
Шта је морал вештачке интелигенције?
Етика вештачке интелигенције би требало да покрива расправе о друштвеним последицама нових технологија и њиховом утицају на међусобне односе и личност, односно когнитивне способности које су људима потребне да би се повезивали с другима, објашњава Суботићева. Други део етике односи се на етички дизајн технологије — питање моралне одговорности када нешто пође по злу – ако постоји сумња да је употреба четбота довела до трагичног исхода попут нечијег самоубиства, ко је морално одговоран? Компанија? Инжењери? Где се повлачи линија одговорности?
Човек хиљадама година тражи одговор на питање који је универзални најмањи заједнички садржалац по питању морала. Одговор још није пронађен ни за људе, а камоли за роботе.

Етика вештачке интелигенције би требало да покрива расправе о друштвеним последицама нових технологија и њиховом утицају на међусобне односе и личност, односно когнитивне способности које су људима потребне да би се повезивали с другима.
CC0 / Слика генерисана вештачком интелигенцијом /
У етици АИ постоје две струје. Једна заговара универзални морални консензус који подразумева да штиклирамо на листи да су ти АИ модели довољно и одговорно развијени како би били употребљени. Друга струја би рекла да иако можда и постоји неки универзални основ моралности, управо те културолошке разлике јесу нешто што превасходно мора да се обради како би чет ботови били функционални на тржишту које није западно и англосаксонско.
Докле год не постоје довољно добри скупови података за друга, незападна тржишта и докле год не постоје стручњаци са тих тржишта који би учествовали у развоју нових модела, практично неће постојати довољно добар универзални АИ производ, нити ће он бити довољно етички.
Шта ако АИ постане бољи од нас, па почне да нам суди?
Вештачка интелигенција учи од људи и све што зна црпи из људских искустава. Ако је научимо, или бар покушамо, како да буде морална, стављамо себе, људске, грешне, често врло неморалне, у незгодну позицију. Како што нас је претекла у математици, АИ би можда могла да почне и да нас „осуђује“.
То рачунамо у неки вид егзистенцијалних ризика код вештачке интелигенције до које хипотетички може доћи уколико се моралност развије до те мере да АИ помисли да ми на неки начин штетимо овој планети. Ако се спроведе исувише рационална етичка анализа базирана на последицама, рачунајући да је нешто морално исправно ако су последице тога добре, и обрнуто, да је нешто морално неисправно ако су последице лоше, човечанство, грешно какво јесте, неће стајати баш претерано добро.
У том случају, каже наша саговорница, могло би се рећи да постоји известан егзистенцијални ризик да би таква суперрационална вештачка интелигенција одлучила да је просто боље за планету да нас овде нема. Будући да се такав сценарио рачуна у егзистенцијалне ризике, на томе се већ, колико год то научнофантастично звучало, увелико ради.

Како што нас је претекла у математици, АИ би можда могла да почне и да нас „осуђује“.
CC0 / Слика генерисана вештачком интелигенцијом /
То је уједно и разлог зашто морају постојати разни сигурносни протоколи, односно одређени протоколи који се укључују у случају да вештачка интелигенција почне да нам „измиче испод руку“ како би се све зауставило на време. Постоје механизми искључивања и ту се не мисли на искључивање из струје, него на механизме гашења таквог понашања.
Хоће ли и АИ започети светски рат?
Трка између западних и источних модела АИ, где су источни дошли одмах након западних, са истим перформансама, а направљени за далеко мање пара, показала је да ће трка за вештачку интелигенцију да се одвија на релацији САД – Кина, каже наша саговорница.
Нисам сигурна да смо још дошли до тог тренутка да се и остале државе деле по томе којем ће се АИ такмичару приклонити, али ово питање свакако има геополитичку конотацију. Питање је да ли је оптимална стратегија за будућност правити мање и специјализоване језичке моделе за сваку државу понаособ, што би значило да би свака национална држава контролисала податке који улазе у такав модел, а самим тим и даље контролисала како би ти модели били комерцијализовани, у којој мери и на који начин и да ли би та комерцијализација пратила националну легислатуру.
На овај начин може се доћи до неког модела очувања дигиталног суверенитета земље која не жели да се сврстава у било коју од струја које учествују у трци за вештачком интелигенцијом.
Постојао би, наравно, и потпуно други модел где држава све податке које сакупи делегира великим технолошким компанијама, губећи дигитални суверенитет по цену тога да уживате много функционалније моделе. Ово би било прихватљиво земљама у развоју које често немају финанције да праве властите моделе. На овај начин би се земље будућности сврставале на једну или другу страну.

Роботи борци. Трка за развој вештачке интелигенције одвијаће се на релацији САД - Кина.
© Sputnik / Alexei Danichev
/ Треба ли се бојати АИ реалности
Мишљење наше саговорница је да људи дефинитивно не би требало да се боје АИ реалности. Још увек је реч о моделима који нису толико напредни колико медијски наратив сугерише, а компаније желе да продају свој производ па га из тог разлога максимално хвале. У суштини, АИ реалност је мање функционална него што се често представља.
Страх не би ни требало овде да буде примарна емоција. Међутим, оно што је јако битно јесте да имамо заиста велику дозу опреза. Данас је врло исплативо хвалити вештачку интелигенцију. У бизнису, образовању, науци — довољно је да у наслов ставите „вештачка интелигенција“ и већ сте у предности. То нам говори да смо превише разводњили причу да бисмо имали неку реалистичну, довољно информисану и паметну процену саме АИ реалности.
Човечанство се тренутно налази у потпуном шуму од информација, личних интереса, интереса много већих играча и корпорација, да бисмо добили добру процену АИ стварности. Из тог разлога, закључује Вања Суботић, када је реч о вештачкој интелигенцији, за сад нам је потребан само здрав опрез и здрава доза скептицизма.
Погледајте и:




