00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
20:00
30 мин
СПУТЊИК ИНТЕРВЈУ
20:30
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
21:00
30 мин
ВЕСТИ
Сукоб у Украјини после напада западним ракетама на Русију
06:30
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
Ауторска емисија Љубинке Милинчић
07:00
30 мин
СПУТЊИК ИНТЕРВЈУ
Без сарадње Срба и Руса нема остварења словенског сна
16:00
30 мин
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
Хоће ли бити Трећег светског рата
17:00
30 мин
СПУТЊИК ИНТЕРВЈУ
„Дуалност Милене Павловић Барили“
17:30
30 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920, 26.08.2021
ДРУШТВО
Друштвене теме, занимљиве приче, репортаже, догађаји, фестивали и културна дешавања из Србије, и остатка света

„Упозорио сам вас и нисте ме слушали“: Творац Терминатора о вештачкој интелигенцији

© Youtube/Legacy EffectsТерминатор
Терминатор - Sputnik Србија, 1920, 20.07.2023
Пратите нас
Канадски режисер Џејмс Камерон рекао је да је његов научно фантастични блокбастер „Терминатор“ из 1984. године требало да послужи као упозорење на опасности вештачке интелигенције, те да би „наоружавање“ технологије у настајању могло имати катастрофалне последице.
Говорећи за Си-Ти-Ви Њуз у уторак, награђивани филмски стваралац упитан је да ли верује да би вештачка интелигенција једног дана могла да доведе до „изумирања човечанства“, што је страх који деле чак и неки лидери те индустрије.

„Апсолутно делим њихову забринутост. Ја сам вас упозорио 1984. године, и нисте ме слушали“, рекао је он мислећи на његов филм „Терминатор“ који прати кибернетичког убицу ког је креирао интелигентни суперкомпјутер познат као Скајнет.

Камерон је даље упозорио да је „наоружавање АИ највећа опасност“.
„Мислим да ћемо ући у еквивалент трке у нуклеарном наоружању са вештачком интелигенцијом. А ако га ми не изградимо, други ће га сигурно изградити, а онда ће то ескалирати”, навео је он.
У случају да се вештачка интелигенција примени на бојном пољу, компјутери би се могли кретати тако брзо да људи више неће моћи да посредују, рекао је чувени режисер, тврдећи да таква технологија неће оставити времена за мировне преговоре или примирје.
„Када имате посла са таквим потенцијалом да он ескалира у нуклеарни рат, деескалација је главни циљ. Потребан је тај тајм аут – али да ли ће то учинити? АИ неће“, наставио је Камерон.
Славни филмски стваралац раније је давао слична упозорења, рекавши да, иако АИ може бити прилично сјајан, то би такође могло буквално бити смак света. Чак је отишао толико далеко да је рекао да је вештачка интелигенција могла да преузме свет и да већ манипулише њиме, али ми једноставно не знамо, спекулишући да би компјутери са разумом имали потпуну контролу над свим медијима и свиме.
Иако технологија тек треба да постигне светску доминацију, неки водећи стручњаци су такође звучали забринуто у вези са вештачком интелигенцијом. Раније ове године, гиганти вештачке интелигенције, укључујући ОпенАИ и Гуглов Дип Мајнд, придружили су се академицима, законодавцима и предузетницима да издају саопштење којим би позвали на ублажавање „ризика од изумирања од вештачке интелигенције“, рекавши да би то требало да буде „глобални приоритет заједно са другим ризицима на друштвеном нивоу као што су пандемије и нуклеарни рат“.
У сличном отвореном писму објављеном прошлог марта позива се на шестомесечну паузу у обуци моћних система вештачке интелигенције, рекавши да их „треба развити тек када будемо уверени да ће њихови ефекти бити позитивни и да ће се њиховим ризицима моћи управљати“. У изјави коју је потписало више од 1.000 стручњака и руководилаца – укључујући Илона Маска и суоснивача Епла Стива Вознијака – упозорава се да би вештачка интелигенција могла да представља „дубоке ризике за друштво и човечанство“.
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала