https://sputnikportal.rs/20230412/vanzemaljci-su-medju-nama-a-stvorili-su-ih--ljudi-da-li-nas-ceka-slom-ili-ipak-sve-zavisi-od-nas-1154076328.html
„Ванземаљци“ су међу нама, а створили су их – људи: Да ли нас чека слом или ипак све зависи од нас
„Ванземаљци“ су међу нама, а створили су их – људи: Да ли нас чека слом или ипак све зависи од нас
Sputnik Србија
Најугледнији амерички листови преносе запањујућу, црну прогнозу са Института за истраживање вештачке интелигенције. Докле ће нас довести примена, да ли можемо... 12.04.2023, Sputnik Србија
2023-04-12T21:42+0200
2023-04-12T21:42+0200
2023-04-12T21:42+0200
наука и технологија
наука и технологија
ит
друштво
https://cdn1.img.sputnikportal.rs/img/07e7/04/0c/1154076698_176:0:1746:883_1920x0_80_0_0_74cf13dbbc3df10dd9aea7d98219b725.jpg
„Највероватнији резултат стварања надљудски паметне вештачке интелигенције јесте тај да ће сваки поједини члан људске врсте и сав биолошки живот на Земљи - дословце сви – умрети“, ову црну прогнозу прошле недеље је у часопису „Тајм“ написао Елизер Јудковски, први човек Института за истраживање вештачке интелигенције (непрофитна организација у Берклију у Калифорнији), који је и раније опсежно писао о вештачкој интелигенцији (АИ).Чека нас потпуни сломУправо је Јудковски својевремено упозорио на то како би неко могао да несвесно створи АИ која би се окренула управо против човечанства. А пре неколико година предложио је и модификован Муров закон, према којем минимални коефицијент интелигенције потребан за уништење света сваких 18 месеци пада за један бод. Али, Јудковски је сада отишао корак даље.Недавно су, између осталих, и Илон Муск (власник „Тесле“ и „Твитера“), Стив Возниак (суоснивач „Епла“) у писму позвали на шестомесечну паузу у развоју АИ. И они сматрају да развој вештачке интелигенције с надљудским способностима у недостатку било каквог међународног регулаторног оквира може да доведе до катастрофе. Али, Јудковски, за разлику од потписника споменутог писма, не верује да се овај актуелан проблем може решити за само шест месеци.Свет је у прошлости већ имао искуства са потенцијално смртоносним научним истраживањима - реч је о нуклеарном оружју и биолошком ратовању. Знало се да је потенцијал за катастрофу огроман, али истраживања се нису смањила. Све то заправо говори да шестомесечна пауза у развоју вештачке интелигенције вероватно неће постићи пуно тога. С друге стране, нереално је очекивати да ће позив Јудковског на потпуно „замрзавање“ истраживања и развоја АИ наићи на одобравање и да ће бити прихваћен.Проблем је у томе што већину истраживања о вештачкој интелигенцији спроводи приватни сектор. Према последњем извештају Стенфордског института за вештачку интелигенцију усмерену на човека, глобална приватна улагања у АИ у 2022. години износила су 92 милијарде долара, од чега је више од половине било у САД. Приватне компаније су произвеле укупно 32 значајна модела машинског учења, у поређењу са само три која су произвеле академске институције, пренео је „Јутарњи лист“.Другачија мишљењаАли многи критичари Јудковског, међу којима је и Мет Парлмер, оснивач компаније за алатне машине „ГенФаб“, оптужују га за стварање „тврдокорног анти-АИ култа“.„Заустављање истраживања вештачке интелигенције лишило би болесне људе потенцијалних открића у медицини“, упозорава Парлмер, а преноси „Блумберг“.И Николас Томсон, главни извршни директор „Атлантика“, слаже се с тим да Јудковски у многочему претерује.„Недавно сам направио дечју књигу за синов девети рођендан користећи Dall-E и GPT-4 о Светском првенству између његових плишаних животиња. Медведи су победили и њему се то свидело... Одвојимо сви мало времена за експериментисање. Направићемо супер ствари и учити док то радимо“, сматра Томсон.И Тајлер Ковен из „Блумберг Опиниона“ мисли слично. Он је пак поставио и нека хипотетичка питања.Међу браниоцима развоја вештачке интелигенције је и Рид Хофман, оснивач „Линкедина“. Он не оспорава чињеницу да постоји барем одређени ризик у развоју АИ са интелигенцијом супериорнијом од људске, али истовремено каже: „Верујте нам да ћемо ово направити врло етички, јер ако нас обуздате, негативци ће бити ти који ће радити на развоју те исте вештачке интелигенције, а то би онда збиља могло да доведе до праве катастрофе“.Чињеница је да већина АИ ради ствари које човечанству нуде добробити, а не претње. На пример, „Дип Мајндов“ Алфа Фолд одредио је структуре за око 200 милиона протеина, што је велики научни корак напред.Па како онда вештачка интелигенција може уништити човечансто? Не производећи андроиде убице налик Арнолду Шварценегеру у „Терминатору“, већ само користећи његову моћ да нас опонаша како би нас појединачно излудела и колективно отерала у грађански рат. Као што каже Мени Ринкон-Круз са Института Хувер: АИ модели који могу генерисати текстове на природном језику из великих количина података не манипулишу атомима или битовима, они манипулишу - нама. Неће нас вештачка интелигенција „избрисати“, овде је једини стваран ризик у томе да ћемо се ми као врста распасти коришћењем АИ алата за неплемените или подле циљеве.
https://sputnikportal.rs/20230404/covecanstvo-je-u-opasnosti-predlog-da-se-na-vestacku-inteligenciju-krene-nuklearnim-udarima-1153603108.html
https://sputnikportal.rs/20230402/moramo-sve-da-ugasimo-ograniceni-moratorijum-za-spas-covecanstva-nedovoljan-alarmantno-upozorenje--1153469437.html
https://sputnikportal.rs/20230401/rizik-po-covecanstvo-vestacka-inteligencija-rusi-zapadni-model--niko-je-ne-moze-zaustaviti-1153410206.html
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e7/04/0c/1154076698_372:0:1549:883_1920x0_80_0_0_ce514d5ebad469aac44607397efe0724.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологија, ит, друштво
наука и технологија, ит, друштво
„Ванземаљци“ су међу нама, а створили су их – људи: Да ли нас чека слом или ипак све зависи од нас
Најугледнији амерички листови преносе запањујућу, црну прогнозу са Института за истраживање вештачке интелигенције. Докле ће нас довести примена, да ли можемо да уништимо једни друге или је решење у уништењу вештачке интелигенције.
„Највероватнији резултат стварања надљудски паметне вештачке интелигенције јесте тај да ће сваки поједини члан људске врсте и сав биолошки живот на Земљи - дословце сви – умрети“, ову црну прогнозу прошле недеље је у часопису „Тајм“ написао Елизер Јудковски, први човек Института за истраживање вештачке интелигенције (непрофитна организација у Берклију у Калифорнији), који је и раније опсежно писао о вештачкој интелигенцији (АИ).
Управо је Јудковски својевремено упозорио на то како би неко могао да несвесно створи АИ која би се окренула управо против човечанства. А пре неколико година предложио је и модификован Муров закон, према којем минимални коефицијент интелигенције потребан за уништење света сваких 18 месеци пада за један бод. Али, Јудковски је сада отишао корак даље.
„Верујем да се приближавамо опасној тачки у којој стварамо АИ од нас самих, која не ради оно што ми желимо и нимало не мари за нас, а вероватни резултат суочавања човечанства са супротстављеном надљудском интелигенцијом биће потпуни слом... Таква вештачка интелигенција лако би могла да побегне са интернета и споља изгради вештачке облике живота, водећи биолошки рат против нас. Стога нам треба потпуни и глобални мораторијум на развој вештачке интелигенције“, упозорава Јудковски.
Недавно су, између осталих, и Илон Муск (власник „Тесле“ и „Твитера“), Стив Возниак (суоснивач „Епла“) у писму позвали на шестомесечну паузу у развоју АИ. И они сматрају да развој вештачке интелигенције с надљудским способностима у недостатку било каквог међународног регулаторног оквира може да доведе до катастрофе. Али, Јудковски, за разлику од потписника споменутог писма, не верује да се овај актуелан проблем може решити за само шест месеци.
Свет је у прошлости већ имао искуства са потенцијално смртоносним научним истраживањима - реч је о нуклеарном оружју и биолошком ратовању. Знало се да је потенцијал за катастрофу огроман, али истраживања се нису смањила. Све то заправо говори да шестомесечна пауза у развоју вештачке интелигенције вероватно неће постићи пуно тога. С друге стране, нереално је очекивати да ће позив Јудковског на потпуно „замрзавање“ истраживања и развоја АИ наићи на одобравање и да ће бити прихваћен.
Проблем је у томе што већину истраживања о вештачкој интелигенцији спроводи
приватни сектор. Према последњем извештају Стенфордског института за вештачку интелигенцију усмерену на човека, глобална приватна улагања у АИ у 2022. години износила су 92 милијарде долара, од чега је више од половине било у САД. Приватне компаније су произвеле укупно 32 значајна модела машинског учења, у поређењу са само три која су произвеле академске институције,
пренео је „Јутарњи лист“.
Али многи критичари Јудковског, међу којима је и Мет Парлмер, оснивач компаније за алатне машине „ГенФаб“, оптужују га за стварање „тврдокорног анти-АИ култа“.
„Заустављање истраживања вештачке интелигенције лишило би болесне људе потенцијалних открића у медицини“, упозорава Парлмер, а преноси „Блумберг“.
И Николас Томсон, главни извршни директор „Атлантика“, слаже се с тим да Јудковски у многочему претерује.
„Недавно сам направио дечју књигу за синов девети рођендан користећи Dall-E и GPT-4 о Светском првенству између његових плишаних животиња. Медведи су победили и њему се то свидело... Одвојимо сви мало времена за експериментисање. Направићемо супер ствари и учити док то радимо“, сматра Томсон.
И Тајлер Ковен из „Блумберг Опиниона“ мисли слично. Он је пак поставио и нека хипотетичка питања.
„Шта да смо 2006. године колективно одлучили да обуставимо развој друштвених медија на шест месеци док смо размишљали о могућим штетама због њихове широке употребе? Ти лоши учинци у то време једва да су били очигледни и још се оспоравају. У међувремену, након шестомесечног одлагања, колико бисмо још били у процесу евалуације? Па чак и ако америчке компаније уведу шестомесечну паузу, ко може рећи да ће кинеске компаније учинити исто?“, пита се он.
Међу браниоцима развоја вештачке интелигенције је и Рид Хофман, оснивач „Линкедина“. Он не оспорава чињеницу да постоји барем одређени ризик у развоју АИ са интелигенцијом супериорнијом од људске, али истовремено каже: „Верујте нам да ћемо ово направити врло етички, јер ако нас обуздате, негативци ће бити ти који ће радити на развоју те исте вештачке интелигенције, а то би онда збиља могло да доведе до праве катастрофе“.
Чињеница је да већина АИ ради ствари које човечанству нуде добробити, а не претње. На пример, „Дип Мајндов“ Алфа Фолд одредио је структуре за око 200 милиона протеина, што је велики научни корак напред.
Па како онда вештачка интелигенција може уништити човечансто? Не производећи андроиде убице налик Арнолду Шварценегеру у „Терминатору“, већ само користећи његову моћ да нас опонаша како би нас појединачно излудела и колективно отерала у грађански рат. Као што каже Мени Ринкон-Круз са Института Хувер: АИ модели који могу генерисати текстове на природном језику из великих количина података не манипулишу атомима или битовима, они манипулишу - нама. Неће нас вештачка интелигенција „избрисати“, овде је једини стваран ризик у томе да ћемо се ми као врста распасти коришћењем АИ алата за неплемените или подле циљеве.