https://sputnikportal.rs/20231022/mogu-li-milijarderima-pomoci-bunkeri-za-apokalipsu-1162713523.html
Могу ли милијардерима помоћи „бункери за апокалипсу“
Могу ли милијардерима помоћи „бункери за апокалипсу“
Sputnik Србија
Познато је да су неки богаташи у свету, поготово они који су милијарде стекли у технолошком сектору, опседнути апокалипсама и тражењем заштите од катастрофа у... 22.10.2023, Sputnik Србија
2023-10-22T12:45+0200
2023-10-22T12:45+0200
2023-10-22T12:45+0200
наука и технологија
наука и технологија
свет
вештачка интелигенција
апокалипса
https://cdn1.img.sputnikportal.rs/img/07e7/0a/16/1162713346_0:365:2345:1684_1920x0_80_0_0_55f5ea8c4ce742d0710c35256d0cef73.jpg
Један од таквих богаташа је и Сем Олтман, извршни директор ОпенАИ-а (Open AI). Он, како је рекао, нема бункер за судњи дан, али зато има - “структуру”.Међутим, док би им такви бункери, структуре и све што такозвани „препери“ припремају како би спремни дочекали „нуклеарне апокалипсе“ или ратове, можда и могли помоћи да преживе у неким ситуацијама, чини се да ипак неће моћи да побегну од једне опасности, а то је, како се нашалио Олтман, „уколико вештачка интелигенција (АИ) оде у погрешном смеру“, преноси портал Инсајдер.Иако се технолошки магнат из Силикон Велија нашалио, они који су песимистични око развоја вештачке интелигенције и њеног утицаја на човечанство, вероватно ће се сложити с таквим начином размишљања.Олтман је, наиме, споменуо општу, а не генеративну вештачку интелигенцију. Док су могућности данашње вештачке интелигенције веома велике, она је и даље зависна од података на којима је тренирана и не може се мерити с људском интелигенцијом, а највише се користи као асистент људима. Међутим, будућност доноси АИ која ће бити још моћнија и интелигентнија и једном ће моћи обављати све интелектуалне задатке као и људи, па ће њена интелигенција вероватно надмашити људску. Одговор на питање што ће се онда догодити нико не зна, а можемо само да се надамо да ће општа АИ размишљати позитивно о будућности и напретку човечанства.Мишљења о томе какву нам будућност доноси вештачка интелигенција су подељена, а раније ове године бројни научници и стручњаци на овом пољу чак су тражили паузирање њеног развоја, док владе и регулаторна тела бројних земаља ужурбано раде на правилима и законима како тај развој не би отишао у погрешном смеру.Један од оних који упозоравају на потенцијалне проблеме управо је и Сем Олтман, један од најупућенијих особа у тој индустрији. У једној ранијој објави на блогу његове компаније, коју је написао с колегама, он је упозорио како би до краја ове деценије вештачка интелигенција могла да надмаши људе у већини подручја, па би стога могла представљати егзистенцијалну претњу за човечанство. Такође, подржао је изјаву коју су потписали извршни директори Дипмајнда и Антропика у којој се упозорава да АИ представља ризик од уништења човечанства и да би је требало третирати на сличан начин као пандемије и нуклеарни рат.
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e7/0a/16/1162713346_0:146:2345:1904_1920x0_80_0_0_53ca47d62af21af708d61d318938f158.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологија, свет, вештачка интелигенција, апокалипса
наука и технологија, свет, вештачка интелигенција, апокалипса
Могу ли милијардерима помоћи „бункери за апокалипсу“
Познато је да су неки богаташи у свету, поготово они који су милијарде стекли у технолошком сектору, опседнути апокалипсама и тражењем заштите од катастрофа у некаквим удаљеним и скривеним бункерима, а чини се да је Нови Зеланд најпопуларнија дестинација за таква склоништа.
Један од таквих богаташа је и Сем Олтман, извршни директор ОпенАИ-а (Open AI). Он, како је рекао, нема бункер за судњи дан, али зато има - “структуру”.
Међутим, док би им такви бункери, структуре и све што такозвани „препери“ припремају како би спремни дочекали „
нуклеарне апокалипсе“ или ратове, можда и могли помоћи да преживе у неким ситуацијама, чини се да ипак неће моћи да побегну од једне опасности, а то је, како се нашалио Олтман, „уколико вештачка интелигенција (АИ) оде у погрешном смеру“,
преноси портал Инсајдер.
Иако се технолошки магнат из Силикон Велија нашалио, они који су песимистични око развоја вештачке интелигенције и њеног утицаја на човечанство, вероватно ће се сложити с таквим начином размишљања.
Олтман је, наиме, споменуо општу, а не генеративну вештачку интелигенцију. Док су могућности данашње вештачке интелигенције веома велике, она је и даље зависна од података на којима је тренирана и не може се мерити с људском интелигенцијом, а највише се користи као асистент људима. Међутим, будућност доноси АИ која ће бити још моћнија и интелигентнија и једном ће моћи обављати све интелектуалне задатке као и људи, па ће њена интелигенција вероватно надмашити људску. Одговор на питање што ће се онда догодити нико не зна, а можемо само да се надамо да ће општа АИ размишљати позитивно о будућности и напретку човечанства.
Мишљења о томе какву нам будућност доноси вештачка интелигенција су подељена, а раније ове године бројни научници и стручњаци на овом пољу чак су тражили паузирање њеног развоја, док владе и регулаторна тела бројних земаља ужурбано раде на правилима и законима како тај развој не би отишао у погрешном смеру.
Један од оних који упозоравају на потенцијалне проблеме управо је и Сем Олтман, један од најупућенијих особа у тој индустрији. У једној ранијој објави на блогу његове компаније, коју је написао с колегама, он је упозорио како би до краја ове деценије вештачка интелигенција могла да надмаши људе у већини подручја, па би стога могла представљати
егзистенцијалну претњу за човечанство. Такође, подржао је изјаву коју су потписали извршни директори Дипмајнда и Антропика у којој се упозорава да АИ представља ризик од уништења човечанства и да би је требало третирати на сличан начин као пандемије и нуклеарни рат.