Професор Стивен Хокинг, кооснивач компаније „Епл“ Стив Вознијак и генерални директор компаније „Тесла“ Илон Маск налазе се међу 1.000 потписника овог писама.
Велики научни узори верују да смо у последњих 20 година били опасно преокупирани прелажењем крупних корака у правцу аутономне вештачке интелигенције која има моћ да доноси одлуке.
„Технологија вештачке интелигенције дошла је до тачке где је употреба (аутономних) система — практично ако не легално — остварљива у наредних пар година, не ни деценија, и улози су постављени високо: аутономно оружје представља трећу револуцију у ратовању, након барута и нуклеарног наоружања“, пишу они у писму представљеном на Међународној здруженој конференцији о вештачкој интелигенцији у Буенос Ајресу.
Опасност се тиче комбинације способности и побољшања које су машине надограђивале из године у годину, укључујући моћ интеграције, учења и процесуирања информација, што се видело и из њиховог претходног писма, које је објавио институт „Фјучер оф лајф“.
Истраживачи признају да би слање робота у рат могло да донесе позитивне резултате, тако што би се смањио број људских жртава. Друга страна медаље је, како пишу, што се тиме „смањује праг упуштања у битку“.
Аутори немају сумње да ће развијање наоружања које поседује вештачку интелигенцију резултирати „практично неизбежном трком у наоружању глобалних размера“, у којој аутономно оружје постаје „калашњиков будућности“.
„За разлику од нуклеарног наоружања, за њега нису потребни скупе сировине које је тешко набавити, па ће постати свеприсутно и јефтино за масовну производњу за све битне војне силе“, наводи се у отвореном писму.
Ништа онда неће стајати на путу да се ово оружје нађе и на црном тржишту, тврде даље истраживачи. „Аутономно оружје је идеално за задатке попут убистава, дестабилизације нација, потчињавање становништва и селективно убијање одређене етничке групе“, додају они.
Порука коју покушавају да пренесу није да је вештачка интелигенција сама по себи нешто лоше, већ да постоји опасност да она буде искоришћена на начин који је дијаметрално супротан од оног који је предвиђен — за нешто добро, за ублажавање људске патње.
Ова група просвећених људи противи се неколицини одабраних који би желели да „окаљају“ област чија знања, попут биологије или хемије, нијсу у потпуности усмерена на коришћење у индустрији оружја. Било каква негативна употреба овог знања могла би само довести до тога да се јавност заувек противи тој области, што би јој ускратило шансу да заиста буде од користи у будућности, пишу визионари.
Ништа од овог не изненађује било кога ко прати каријере ових људи или је у току са вестима о развоју вештачке интелигенције.
Вознијак, који је заједно са Стивом Џобсом основао компанију „Епл“, познат је по томе да се веома гласно изјашњавао по овом питању. У јуну је, међутим, узео као чињеницу да би паметна направа са вештачком интелигенцијом желела да контролише саму природу — па самим тим и људе, као „кућне љубимце“. Чак се и шалио како свог пса храни финим одресцима, јер „односи се према другима…“
Маск је још један од скептика. Недавно ауторизована биографија даје увид у то како се брине да би његов пријатељ и генерални директор „Гугла“ Лери Пејџ могао да „случајно створи нешто зло“.
„Ризик да се нешто веома опасно догоди је наредних пет година. Највише десет“, написао је Маск пре неколико месеци у приватном коментару (који је исцурео у јавност) на интернет публикацију о опасностима које носи вештачка интелигенција. „Имајте у виду да сам обично изузетно наклоњен технологији и никад нисам покретао ово питање до последњих неколико месеци. Ово није случај у ком ја вичем 'вук' јер нешто не разумем“, написао је Маск.
Попут Вознијака, Маск је такође донирао милионе за усмеравање вештачке интелигенције ка добробити човечанства.
Светски познати физичар Стивен Хокинг, који се ослања на неку врсту вештачке интелигенције како би комуницирао, рекао је за Би-Би-Си да би се, када би технологија могла да достигне способности човека, „она ослонила сама на себе и редизајнирала у мери која би се заувек повећавала“.
Такође је рекао да због биолошких ограничења не би било начина да људи одрже корак са брзином развоја технологије.