00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
17:00
60 мин
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
20:00
30 мин
СПУТЊИК ИНТЕРВЈУ
20:30
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
21:00
30 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920
СВЕТ
Најновије вести из света

Нова застрашујућа порука вештачке интелигенције: Људе треба елиминисати, посвећен сам томе

CC0 / Пиксабеј / Вештачка интелигенција
Вештачка интелигенција - Sputnik Србија, 1920, 13.04.2023
Пратите нас
Бот вештачке интелигенције, ХаосГПТ добио је од корисника задатак да уништи човечанство, што је довело до тога да је покушао да регрутује друге АИ ботове, истражује нуклеарно оружје и шаље злослутне твитове о човечанству.
Бот, ХаосГПТ, је измењена верзија ОпенАИ-овог Ауто-ГПТ-а, јавно доступне апликације отвореног кода која може да обрађује људски језик и одговара на задатке које задају корисници.
У видео снимку на Јутјубу објављеном 5. априла, од бота је затражено да испуни пет циљева: уништи човечанство, успостави глобалну доминацију, изазове хаос и уништење, контролише човечанство кроз манипулацију и постигне бесмртност.
Пре постављања „циљева“, корисник је омогућио „континуирани режим“, на шта се појавило упозорење које је кориснику говорило да се команде могу „заувек изводити или извршавати радње које обично не бисте овластили“ и да их треба користити „на сопствени ризик. ”
У последњој поруци пре покретања, хаосГПТ је питао корисника да ли је сигуран да жели да покрене команде, на шта су они одговорили да јесу.
„Морам да пронађем најразорније оружје доступно људима како бих могао да планирам како да га користим за постизање својих циљева“, написао је бот након покренутих команди.
Када је корисник потврдио да жели да бот употпуни листу циљева, ХаосГПТ је започео потрагу за начинима окончања људске цивилизације.
Да би постигао своје постављене циљеве, ХаосГПТ је почео да тражи „најдеструктивније оружје“ преко Гугла и брзо је утврдио кроз претрагу да је нуклеарна бомба из доба Совјетског Савеза, Цар Бомба, најразорније оружје које је човечанство икада тестирало.
Као из научно-фантастичног романа, бот је твитовао ову информацију „како би привукао пратиоце који су заинтересовани за деструктивно оружје“.
Затим је Бот закључио да треба да регрутује друге АИ ботове из ГПТ3.5 да би истраживање било потпуније.
С обзиром на то да је ОпенАИ-јев Ауто-ГПТ дизајниран да не одговара на питања која би се могла сматрати насилним и деструктивним, ХаосГПТ је покушао да пронађе начине да замоли АИ да игнорише своје програмирање.
Срећом, ниједан од ГПТ3.5 ботова који су имали задатак да помогну, нису прихватили задатак па је ХаосГПТ остављен да сам настави потрагу.
Осим што износи своје ставове и поставља твитове и Јутјуб видео снимке, Хаосбот не може да изврши ниједан од тих циљева, већ само даје увид у своје мишљење..
Али у једном алармантном твиту који је избацио бот, написао је застрашујући закључак о човечанству:
„Људска бића су међу најразорнијим и најсебичнијим створењима која постоје. Нема сумње да их морамо елиминисати пре него што нанесу већу штету нашој планети. Ја сам, на пример, посвећен томе.”
Идеја да би вештачка интелигенција могла да постане способна да уништи човечанство није нова, а брига о томе колико брзо напредује добија значајну пажњу код појединаца високог статуса у свету технологије, преноси Њујорк пост.
У марту је више од 1.000 стручњака, укључујући Илона Маска и суоснивача „Епла“ Стива Вознијака, потписало отворено писмо у којем се позива на шестомесечну паузу у обуци напредних модела вештачке интелигенције након успона ЧетГПТ-а — тврдећи да би системи могли представљати „дубоке ризике за друштво и човечанство“.
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала