НАУКА И ТЕХНОЛОГИЈА

Могу ли милијардерима помоћи „бункери за апокалипсу“

Познато је да су неки богаташи у свету, поготово они који су милијарде стекли у технолошком сектору, опседнути апокалипсама и тражењем заштите од катастрофа у некаквим удаљеним и скривеним бункерима, а чини се да је Нови Зеланд најпопуларнија дестинација за таква склоништа.
Sputnik
Један од таквих богаташа је и Сем Олтман, извршни директор ОпенАИ-а (Open AI). Он, како је рекао, нема бункер за судњи дан, али зато има - “структуру”.
Међутим, док би им такви бункери, структуре и све што такозвани „препери“ припремају како би спремни дочекали „нуклеарне апокалипсе“ или ратове, можда и могли помоћи да преживе у неким ситуацијама, чини се да ипак неће моћи да побегну од једне опасности, а то је, како се нашалио Олтман, „уколико вештачка интелигенција (АИ) оде у погрешном смеру“, преноси портал Инсајдер.
Иако се технолошки магнат из Силикон Велија нашалио, они који су песимистични око развоја вештачке интелигенције и њеног утицаја на човечанство, вероватно ће се сложити с таквим начином размишљања.
Олтман је, наиме, споменуо општу, а не генеративну вештачку интелигенцију. Док су могућности данашње вештачке интелигенције веома велике, она је и даље зависна од података на којима је тренирана и не може се мерити с људском интелигенцијом, а највише се користи као асистент људима. Међутим, будућност доноси АИ која ће бити још моћнија и интелигентнија и једном ће моћи обављати све интелектуалне задатке као и људи, па ће њена интелигенција вероватно надмашити људску. Одговор на питање што ће се онда догодити нико не зна, а можемо само да се надамо да ће општа АИ размишљати позитивно о будућности и напретку човечанства.
Мишљења о томе какву нам будућност доноси вештачка интелигенција су подељена, а раније ове године бројни научници и стручњаци на овом пољу чак су тражили паузирање њеног развоја, док владе и регулаторна тела бројних земаља ужурбано раде на правилима и законима како тај развој не би отишао у погрешном смеру.
Један од оних који упозоравају на потенцијалне проблеме управо је и Сем Олтман, један од најупућенијих особа у тој индустрији. У једној ранијој објави на блогу његове компаније, коју је написао с колегама, он је упозорио како би до краја ове деценије вештачка интелигенција могла да надмаши људе у већини подручја, па би стога могла представљати егзистенцијалну претњу за човечанство. Такође, подржао је изјаву коју су потписали извршни директори Дипмајнда и Антропика у којој се упозорава да АИ представља ризик од уништења човечанства и да би је требало третирати на сличан начин као пандемије и нуклеарни рат.
Коментар