Експерт за вештачку интелигенцију Елизер Јудковски између осталог је у магазину „Тајм“ предложио превентивне нуклеарне нападе на такозване CPUкластере - велике „фарме“ компјутера пресудне за функционисање АИ - уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би уследио покушај конвенционалног ваздушног војног напада на компјутерске „фарме“ државе која одбије да заустави развој АИ, али мора се бити сигуран „..да су савезничке нуклеарне земље спремне да се изложe одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ“.
Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком, својевремено је популарисао „пријатељску“ АИ и суоснивач је и истраживач „Machine Learning Research Institute“ у Берклију, а његов рад на тему експлозије утицаја АИ имао је значајан утицај на славну књигу Ника Бострома „Суперинтелигенција: Путеви, опасности, стратегије“.
Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на инфраструктуру вештачке интелигенције, Јудковски је само потврдио да би ипак прво почео с конвенционалним ваздушним нападом.
Тек када је доживео више јавних критика због заговарања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је преко Твитера поручио да његов чланак у „Тајму“ не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао, пренео је „Јутарњи лист“.
Јудковски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима је и Илон Маск, већ је потписао отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци. Међутим, Јудковски процењује да је вештачка интелигенција толико опасна да брзо може да изазове крај човечанства и да зато не треба превише бирати средства како би се зауставио њен развој.
Број и утицај оних који сматрају да АИ под руком доноси смрт човечанства расте.