Бот, ХаосГПТ, је измењена верзија ОпенАИ-овог Ауто-ГПТ-а, јавно доступне апликације отвореног кода која може да обрађује људски језик и одговара на задатке које задају корисници.
У видео снимку на Јутјубу објављеном 5. априла, од бота је затражено да испуни пет циљева: уништи човечанство, успостави глобалну доминацију, изазове хаос и уништење, контролише човечанство кроз манипулацију и постигне бесмртност.
Пре постављања „циљева“, корисник је омогућио „континуирани режим“, на шта се појавило упозорење које је кориснику говорило да се команде могу „заувек изводити или извршавати радње које обично не бисте овластили“ и да их треба користити „на сопствени ризик. ”
У последњој поруци пре покретања, хаосГПТ је питао корисника да ли је сигуран да жели да покрене команде, на шта су они одговорили да јесу.
„Морам да пронађем најразорније оружје доступно људима како бих могао да планирам како да га користим за постизање својих циљева“, написао је бот након покренутих команди.
Када је корисник потврдио да жели да бот употпуни листу циљева, ХаосГПТ је започео потрагу за начинима окончања људске цивилизације.
Да би постигао своје постављене циљеве, ХаосГПТ је почео да тражи „најдеструктивније оружје“ преко Гугла и брзо је утврдио кроз претрагу да је нуклеарна бомба из доба Совјетског Савеза, Цар Бомба, најразорније оружје које је човечанство икада тестирало.
Као из научно-фантастичног романа, бот је твитовао ову информацију „како би привукао пратиоце који су заинтересовани за деструктивно оружје“.
Затим је Бот закључио да треба да регрутује друге АИ ботове из ГПТ3.5 да би истраживање било потпуније.
С обзиром на то да је ОпенАИ-јев Ауто-ГПТ дизајниран да не одговара на питања која би се могла сматрати насилним и деструктивним, ХаосГПТ је покушао да пронађе начине да замоли АИ да игнорише своје програмирање.
Срећом, ниједан од ГПТ3.5 ботова који су имали задатак да помогну, нису прихватили задатак па је ХаосГПТ остављен да сам настави потрагу.
Осим што износи своје ставове и поставља твитове и Јутјуб видео снимке, Хаосбот не може да изврши ниједан од тих циљева, већ само даје увид у своје мишљење..
Али у једном алармантном твиту који је избацио бот, написао је застрашујући закључак о човечанству:
„Људска бића су међу најразорнијим и најсебичнијим створењима која постоје. Нема сумње да их морамо елиминисати пре него што нанесу већу штету нашој планети. Ја сам, на пример, посвећен томе.”
Идеја да би вештачка интелигенција могла да постане способна да уништи човечанство није нова, а брига о томе колико брзо напредује добија значајну пажњу код појединаца високог статуса у свету технологије, преноси Њујорк пост.
У марту је више од 1.000 стручњака, укључујући Илона Маска и суоснивача „Епла“ Стива Вознијака, потписало отворено писмо у којем се позива на шестомесечну паузу у обуци напредних модела вештачке интелигенције након успона ЧетГПТ-а — тврдећи да би системи могли представљати „дубоке ризике за друштво и човечанство“.