https://sputnikportal.rs/20230404/covecanstvo-je-u-opasnosti-predlog-da-se-na-vestacku-inteligenciju-krene-nuklearnim-udarima-1153603108.html
„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима
„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима
Sputnik Србија
Расправа „за“ и „против“ вештачке интелигенције (АИ) не престаје, већ, рекло би се узима маха, па се у светским медијима појављују и мишљења која заговарају... 04.04.2023, Sputnik Србија
2023-04-04T22:18+0200
2023-04-04T22:18+0200
2023-04-04T22:18+0200
наука и технологија
наука и технологија
ит
србија – друштво
https://cdn1.img.sputnikportal.rs/img/07e7/04/04/1153604499_0:0:1921:1080_1920x0_80_0_0_55215464cd29921e3144b55e10d3c9f5.jpg
Експерт за вештачку интелигенцију Елизер Јудковски између осталог је у магазину „Тајм“ предложио превентивне нуклеарне нападе на такозване CPUкластере - велике „фарме“ компјутера пресудне за функционисање АИ - уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би уследио покушај конвенционалног ваздушног војног напада на компјутерске „фарме“ државе која одбије да заустави развој АИ, али мора се бити сигуран „..да су савезничке нуклеарне земље спремне да се изложe одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ“.Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком, својевремено је популарисао „пријатељску“ АИ и суоснивач је и истраживач „Machine Learning Research Institute“ у Берклију, а његов рад на тему експлозије утицаја АИ имао је значајан утицај на славну књигу Ника Бострома „Суперинтелигенција: Путеви, опасности, стратегије“.Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на инфраструктуру вештачке интелигенције, Јудковски је само потврдио да би ипак прво почео с конвенционалним ваздушним нападом.Тек када је доживео више јавних критика због заговарања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је преко Твитера поручио да његов чланак у „Тајму“ не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао, пренео је „Јутарњи лист“.Јудковски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима је и Илон Маск, већ је потписао отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци. Међутим, Јудковски процењује да је вештачка интелигенција толико опасна да брзо може да изазове крај човечанства и да зато не треба превише бирати средства како би се зауставио њен развој.Број и утицај оних који сматрају да АИ под руком доноси смрт човечанства расте.
https://sputnikportal.rs/20230402/moramo-sve-da-ugasimo-ograniceni-moratorijum-za-spas-covecanstva-nedovoljan-alarmantno-upozorenje--1153469437.html
https://sputnikportal.rs/20230330/ne-umemo-da-je-kontrolisemo-tehnoloski-lideri-za-moratorijum-na-razvoj-vestacke-inteligencije-1153305232.html
https://sputnikportal.rs/20230401/rizik-po-covecanstvo-vestacka-inteligencija-rusi-zapadni-model--niko-je-ne-moze-zaustaviti-1153410206.html
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e7/04/04/1153604499_0:0:1707:1280_1920x0_80_0_0_0c16ff58c7105d13b6c16c811f5dbf86.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологија, ит, србија – друштво
наука и технологија, ит, србија – друштво
„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима
Расправа „за“ и „против“ вештачке интелигенције (АИ) не престаје, већ, рекло би се узима маха, па се у светским медијима појављују и мишљења која заговарају чак нуклеарне ударе на АИ.
Експерт за вештачку интелигенцију Елизер Јудковски између осталог је у магазину „Тајм“ предложио превентивне нуклеарне нападе на такозване CPUкластере - велике „фарме“ компјутера пресудне за функционисање АИ - уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би уследио покушај конвенционалног ваздушног војног напада на компјутерске „фарме“ државе која одбије да заустави развој АИ, али мора се бити сигуран „..да су савезничке нуклеарне земље спремне да се изложe одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ“.
Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком, својевремено је популарисао „пријатељску“ АИ и суоснивач је и истраживач „Machine Learning Research Institute“ у Берклију, а његов рад на тему експлозије утицаја АИ имао је значајан утицај на славну књигу Ника Бострома „Суперинтелигенција: Путеви, опасности, стратегије“.
Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на инфраструктуру вештачке интелигенције, Јудковски је само потврдио да би ипак прво почео с конвенционалним ваздушним нападом.
Тек када је доживео више јавних критика због заговарања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је преко Твитера поручио да његов
чланак у „Тајму“ не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао,
пренео је „Јутарњи лист“.
Јудковски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима је и Илон Маск, већ је потписао отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци. Међутим, Јудковски процењује да је вештачка интелигенција толико опасна да брзо може да изазове крај човечанства и да зато не треба превише бирати средства како би се зауставио њен развој.
Број и утицај оних који сматрају да АИ под руком доноси смрт човечанства расте.