00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ОРБИТА КУЛТУРЕ
10:00
120 мин
СПУТЊИК ИНТЕРВЈУ
16:30
30 мин
СПУТЊИК ИНТЕРВЈУ
21:00
30 мин
СПУТЊИК ИНТЕРВЈУ
„Интермецо“
07:00
30 мин
ОРБИТА КУЛТУРЕ
У којој књижевној епохи живимо
16:00
120 мин
МИЉАНОВ КОРНЕР
Живот је као бокс: Научите да примате ударце, али задате победнички
20:00
30 мин
СПУТЊИК ИНТЕРВЈУ
„Пречник страним речима и изразима“
20:30
30 мин
СПУТЊИК ИНТЕРВЈУ
Неко лаже: Трамп или Зеленски
21:30
30 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920
НАУКА И ТЕХНОЛОГИЈА

„Човечанство је у опасности“: Предлог да се на вештачку интелигенцију крене нуклеарним ударима

CC0 / Pixabay / Вештачка интелигенција
Вештачка интелигенција - Sputnik Србија, 1920, 04.04.2023
Пратите нас
Расправа „за“ и „против“ вештачке интелигенције (АИ) не престаје, већ, рекло би се узима маха, па се у светским медијима појављују и мишљења која заговарају чак нуклеарне ударе на АИ.
Експерт за вештачку интелигенцију Елизер Јудковски између осталог је у магазину „Тајм“ предложио превентивне нуклеарне нападе на такозване CPUкластере - велике „фарме“ компјутера пресудне за функционисање АИ - уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би уследио покушај конвенционалног ваздушног војног напада на компјутерске „фарме“ државе која одбије да заустави развој АИ, али мора се бити сигуран „..да су савезничке нуклеарне земље спремне да се изложe одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ“.
Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком, својевремено је популарисао „пријатељску“ АИ и суоснивач је и истраживач „Machine Learning Research Institute“ у Берклију, а његов рад на тему експлозије утицаја АИ имао је значајан утицај на славну књигу Ника Бострома „Суперинтелигенција: Путеви, опасности, стратегије“.
Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на инфраструктуру вештачке интелигенције, Јудковски је само потврдио да би ипак прво почео с конвенционалним ваздушним нападом.
Тек када је доживео више јавних критика због заговарања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је преко Твитера поручио да његов чланак у „Тајму“ не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао, пренео је „Јутарњи лист“.
Јудковски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима је и Илон Маск, већ је потписао отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци. Међутим, Јудковски процењује да је вештачка интелигенција толико опасна да брзо може да изазове крај човечанства и да зато не треба превише бирати средства како би се зауставио њен развој.
Број и утицај оних који сматрају да АИ под руком доноси смрт човечанства расте.
Вештачка интелигенција - Sputnik Србија, 1920, 02.04.2023
НАУКА И ТЕХНОЛОГИЈА
„Морамо све да угасимо! Ограничени мораторијум за спас човечанства недовољан“: Алармантно упозорење
Вештачка интелигенција - Sputnik Србија, 1920, 30.03.2023
НАУКА И ТЕХНОЛОГИЈА
„Не умемо да је контролишемо“: Технолошки лидери за мораторијум на развој вештачке интелигенције
Вештачка интелигенција - Sputnik Србија, 1920, 01.04.2023
ЕКОНОМИЈА
Ризик по човечанство: Вештачка интелигенција руши западни модел – нико је не може зауставити
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала