Хинтон, који је добио Нобела за свој пионирски рад у истраживању вештачких неуронских мрежа и чији концепт из 1986. је темељ данашњих великих језичких модела (ЛЛМ) - основе АИ, процењује да постоји ризик између 10 и 20 посто да ће вештачка интелигенција на крају преузети контролу од људи, преноси Си-Би-Ес њуз.
Он је упозорио да људи још нису схватили шта следи.
„Најбољи начин да то разумемо је да се упоредимо са неким ко има преслатко младунче тигра. Осим ако нисте потпуно сигурни да оно неће пожелети да вас убије када порасте, треба да будете забринути“ рекао је он.
Према мишљењу Хинтона, компаније које се баве вештачком интелигенцијом требало би да издвоје знатно већа средства за истраживање безбедности, од средстава која тренутно троше. У мају 2023. Хинтон је објавио своју оставку из Гугла да би могао „слободно да говори о ризицима вештачке интелигенције“.
„Машинско учење имаће велики утицај на нашу цивилизацију. Оно може да се пореди са индустријском револуцијом. Само што ће уместо да превазиђе људе у снази, превазићи људе у интелектуалним способностима. Немамо никакво искуство у томе како је да ствари буду паметније од нас, а то ће бити дивно у многим аспектима, у областима попут здравства, у скоро свим деловима индустрије, биће много ефикаснија. Људи ће моћи да раде исти ниво посла са АИ асистентом за много мање времена. Довешће и до великог побољшања у продуктивности. Такође морамо да бринемо о могућим лошим последицама, посебно о опасности да се ове ствари отргну контроли“, навео је својевремено Хинтон.
Погледајте и: