НАУКА И ТЕХНОЛОГИЈА

„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима

Расправа „за“ и „против“ вештачке интелигенције (АИ) не престаје, већ, рекло би се узима маха, па се у светским медијима појављују и мишљења која заговарају чак нуклеарне ударе на АИ.
Sputnik
Експерт за вештачку интелигенцију Елизер Јудковски између осталог је у магазину „Тајм“ предложио превентивне нуклеарне нападе на такозване CPUкластере - велике „фарме“ компјутера пресудне за функционисање АИ - уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би уследио покушај конвенционалног ваздушног војног напада на компјутерске „фарме“ државе која одбије да заустави развој АИ, али мора се бити сигуран „..да су савезничке нуклеарне земље спремне да се изложe одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ“.
Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком, својевремено је популарисао „пријатељску“ АИ и суоснивач је и истраживач „Machine Learning Research Institute“ у Берклију, а његов рад на тему експлозије утицаја АИ имао је значајан утицај на славну књигу Ника Бострома „Суперинтелигенција: Путеви, опасности, стратегије“.
Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на инфраструктуру вештачке интелигенције, Јудковски је само потврдио да би ипак прво почео с конвенционалним ваздушним нападом.
Тек када је доживео више јавних критика због заговарања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је преко Твитера поручио да његов чланак у „Тајму“ не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао, пренео је „Јутарњи лист“.
Јудковски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима је и Илон Маск, већ је потписао отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци. Међутим, Јудковски процењује да је вештачка интелигенција толико опасна да брзо може да изазове крај човечанства и да зато не треба превише бирати средства како би се зауставио њен развој.
Број и утицај оних који сматрају да АИ под руком доноси смрт човечанства расте.
НАУКА И ТЕХНОЛОГИЈА
„Морамо све да угасимо! Ограничени мораторијум за спас човечанства недовољан“: Алармантно упозорење
НАУКА И ТЕХНОЛОГИЈА
„Не умемо да је контролишемо“: Технолошки лидери за мораторијум на развој вештачке интелигенције
ЕКОНОМИЈА
Ризик по човечанство: Вештачка интелигенција руши западни модел – нико је не може зауставити
Коментар