Елизер Јудковски, један од оснивача Института за истраживање вештачке интелигенције MIRI, изнео је у ауторском тексту за „Тајм“ под насловом „Пауза у развоју вештачке интелигенције није довољна. Морамо све то да угасимо“, разлоге због којих се није придружио петицији групе светских стручњака из области АI, међу којима је и Илон Маск, а којом се позива на шестомесечни мораторијум у развоју система моћнијих од недавно покренутог GPT-4.
Јудковски сматра да ограничени мораторијум није довољан за решавање проблема који произилазе из брзог и неконтролисаног развој вештачке интелигенције, већ да се морају предузети још драстичније мере - неограничени и светски мораторијум уместо паузе.
„Највероватнији исход стварања надљудски интелигентне вештачке интелигенције, под било којим околностима које иоле наликују садашњим, јесте тај да ће дословно све на Земљи бити уништено“, мишљења је Јудковски.
Према његовим речима, човечанство још није спремно да се носи са суперинтелигенцијом која је моћнија од GPT-4, пошто су за контролу потребне напредније технологије.
„Довољно интелигентна вештачка интелигенција неће дуго остати ограничена на рачунаре“, написао је, између осталог, Јудковски, пренео је РТ.
Он тврди да је већ могуће слати ДНК низове електронском поштом лабораторијама, што може да омогући вештачкој интелигенцији да „изгради вештачке облике живота или да се директно укључи у постбиолошку молекуларну производњу“.
Јудковски апелује да се неограничен и светски мораторијум на развој вештачке интелигенције уведе одмах.
„Не може бити изузетака, укључујући владе или војске“, нагласио је он.
Подсетимо, технолошки лидери из области вештачке интелигенције су у отвореном писму, објављеном на сајту „futureoflife“, тражили мораторијум у истраживањима док се не успостави систем безбедности, укључујући и специјална регулаторна тела за надзор система вештачке интелигенције и техника које ће помоћи да се разликује реално од вештачког, као и институције способне да управљају „драматичним економским и политичким поремећајима (посебно за демократију) које ће вештачка интелигенција изазвати”.