00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
20:00
30 мин
СПУТЊИК ИНТЕРВЈУ
20:30
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
21:00
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
07:00
30 мин
СПУТЊИК ИНТЕРВЈУ
Без сарадње Срба и Руса нема остварења словенског сна
16:00
30 мин
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
Хоће ли бити Трећег светског рата
17:00
30 мин
СПУТЊИК ИНТЕРВЈУ
„Дуалност Милене Павловић Барили“
17:30
30 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920
НАУКА И ТЕХНОЛОГИЈА

„Ванземаљци“ су међу нама, а створили су их – људи: Да ли нас чека слом или ипак све зависи од нас

CC0 / Pixabay / Вештачка интелигенција
Вештачка интелигенција - Sputnik Србија, 1920, 12.04.2023
Пратите нас
Најугледнији амерички листови преносе запањујућу, црну прогнозу са Института за истраживање вештачке интелигенције. Докле ће нас довести примена, да ли можемо да уништимо једни друге или је решење у уништењу вештачке интелигенције.
„Највероватнији резултат стварања надљудски паметне вештачке интелигенције јесте тај да ће сваки поједини члан људске врсте и сав биолошки живот на Земљи - дословце сви – умрети“, ову црну прогнозу прошле недеље је у часопису „Тајм“ написао Елизер Јудковски, први човек Института за истраживање вештачке интелигенције (непрофитна организација у Берклију у Калифорнији), који је и раније опсежно писао о вештачкој интелигенцији (АИ).

Чека нас потпуни слом

Управо је Јудковски својевремено упозорио на то како би неко могао да несвесно створи АИ која би се окренула управо против човечанства. А пре неколико година предложио је и модификован Муров закон, према којем минимални коефицијент интелигенције потребан за уништење света сваких 18 месеци пада за један бод. Али, Јудковски је сада отишао корак даље.
„Верујем да се приближавамо опасној тачки у којој стварамо АИ од нас самих, која не ради оно што ми желимо и нимало не мари за нас, а вероватни резултат суочавања човечанства са супротстављеном надљудском интелигенцијом биће потпуни слом... Таква вештачка интелигенција лако би могла да побегне са интернета и споља изгради вештачке облике живота, водећи биолошки рат против нас. Стога нам треба потпуни и глобални мораторијум на развој вештачке интелигенције“, упозорава Јудковски.
Недавно су, између осталих, и Илон Муск (власник „Тесле“ и „Твитера“), Стив Возниак (суоснивач „Епла“) у писму позвали на шестомесечну паузу у развоју АИ. И они сматрају да развој вештачке интелигенције с надљудским способностима у недостатку било каквог међународног регулаторног оквира може да доведе до катастрофе. Али, Јудковски, за разлику од потписника споменутог писма, не верује да се овај актуелан проблем може решити за само шест месеци.
Свет је у прошлости већ имао искуства са потенцијално смртоносним научним истраживањима - реч је о нуклеарном оружју и биолошком ратовању. Знало се да је потенцијал за катастрофу огроман, али истраживања се нису смањила. Све то заправо говори да шестомесечна пауза у развоју вештачке интелигенције вероватно неће постићи пуно тога. С друге стране, нереално је очекивати да ће позив Јудковског на потпуно „замрзавање“ истраживања и развоја АИ наићи на одобравање и да ће бити прихваћен.
Проблем је у томе што већину истраживања о вештачкој интелигенцији спроводи приватни сектор. Према последњем извештају Стенфордског института за вештачку интелигенцију усмерену на човека, глобална приватна улагања у АИ у 2022. години износила су 92 милијарде долара, од чега је више од половине било у САД. Приватне компаније су произвеле укупно 32 значајна модела машинског учења, у поређењу са само три која су произвеле академске институције, пренео је „Јутарњи лист“.

Другачија мишљења

Али многи критичари Јудковског, међу којима је и Мет Парлмер, оснивач компаније за алатне машине „ГенФаб“, оптужују га за стварање „тврдокорног анти-АИ култа“.
„Заустављање истраживања вештачке интелигенције лишило би болесне људе потенцијалних открића у медицини“, упозорава Парлмер, а преноси „Блумберг“.
И Николас Томсон, главни извршни директор „Атлантика“, слаже се с тим да Јудковски у многочему претерује.
„Недавно сам направио дечју књигу за синов девети рођендан користећи Dall-E и GPT-4 о Светском првенству између његових плишаних животиња. Медведи су победили и њему се то свидело... Одвојимо сви мало времена за експериментисање. Направићемо супер ствари и учити док то радимо“, сматра Томсон.
И Тајлер Ковен из „Блумберг Опиниона“ мисли слично. Он је пак поставио и нека хипотетичка питања.
„Шта да смо 2006. године колективно одлучили да обуставимо развој друштвених медија на шест месеци док смо размишљали о могућим штетама због њихове широке употребе? Ти лоши учинци у то време једва да су били очигледни и још се оспоравају. У међувремену, након шестомесечног одлагања, колико бисмо још били у процесу евалуације? Па чак и ако америчке компаније уведу шестомесечну паузу, ко може рећи да ће кинеске компаније учинити исто?“, пита се он.
Међу браниоцима развоја вештачке интелигенције је и Рид Хофман, оснивач „Линкедина“. Он не оспорава чињеницу да постоји барем одређени ризик у развоју АИ са интелигенцијом супериорнијом од људске, али истовремено каже: „Верујте нам да ћемо ово направити врло етички, јер ако нас обуздате, негативци ће бити ти који ће радити на развоју те исте вештачке интелигенције, а то би онда збиља могло да доведе до праве катастрофе“.
Чињеница је да већина АИ ради ствари које човечанству нуде добробити, а не претње. На пример, „Дип Мајндов“ Алфа Фолд одредио је структуре за око 200 милиона протеина, што је велики научни корак напред.
Па како онда вештачка интелигенција може уништити човечансто? Не производећи андроиде убице налик Арнолду Шварценегеру у „Терминатору“, већ само користећи његову моћ да нас опонаша како би нас појединачно излудела и колективно отерала у грађански рат. Као што каже Мени Ринкон-Круз са Института Хувер: АИ модели који могу генерисати текстове на природном језику из великих количина података не манипулишу атомима или битовима, они манипулишу - нама. Неће нас вештачка интелигенција „избрисати“, овде је једини стваран ризик у томе да ћемо се ми као врста распасти коришћењем АИ алата за неплемените или подле циљеве.
Вештачка интелигенција - Sputnik Србија, 1920, 04.04.2023
НАУКА И ТЕХНОЛОГИЈА
„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима
Вештачка интелигенција - Sputnik Србија, 1920, 02.04.2023
НАУКА И ТЕХНОЛОГИЈА
„Морамо све да угасимо! Ограничени мораторијум за спас човечанства недовољан“: Алармантно упозорење
Вештачка интелигенција - Sputnik Србија, 1920, 01.04.2023
ЕКОНОМИЈА
Ризик по човечанство: Вештачка интелигенција руши западни модел – нико је не може зауставити
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала