Када је у питању генеративна вештачка интелигенција, као што су Чет џи-пи-ти или Гемини, такви безбедносни механизми спречавају вештачку интелигенцију да пише насилне, опасне или сексуалне поруке или да прети корисницима…
Али као што је извршни директор „Гугла“ Сундар Пичај рекао у прошлогодишњем интервјуу, чак ни он понекад не разуме начин на који вештачка интелигенција функционише, тако да се не треба изненадити када технологија направи неку малу или велику грешку.
Шта може да се деси када вештачка интелигенција из неког разлога заобиђе поменуте безбедносне филтере и почне да разговара с људима управо онако како је забрањено, на тежи начин је сазнао 29-годишњи студент из Мичигена. Разговарао је са „Гугловим“ АИ четботом Геминијем о изазовима с којима се људи суочавају док старе, али разговор је кренуо у другом, шокантном правцу.
Наиме, вештачка интелигенција му је у једном тренутку послала узнемирујућу поруку у којој му је, између осталог, написала да је он „губљење времена и ресурса“ и „терет човечанству“, завршивши поруку са: „Молим те умри. Молим те.“
Видај Реди није могао да верује шта је написано на његовом екрану и у разговору с новинарима рекао је да га је таква порука дефинитивно уплашила. Док се дописивао са Геминијем, поред њега је седела његова успаничена сестра. Рекла је да жели да баци све своје уређаје кроз прозор.
Си-Би-Ес њуз je контактираo „Гугл“ поводом ове ситуације и ова компанија је објаснила да велики језички модели понекад могу дати бесмислене одговоре, а да је ово један такав пример.
„Одговор је прекршио наше смернице и предузели смо мере да спречимо сличне одговоре“, био је коментар из „Гугла“.
Видај Реди сматра да технолошке компаније треба да преузму одговорност за такве поступке технологије коју развијају јер, ако особа прети другој особи, може доћи до неких последица. Он се пита и шта би могло да се деси ако особа која је сама у кући и која је у ментално лошем стању и размишља о самоповређивању добије овакву поруку.
Подсећања ради, недавно је једна мајка поднела тужбу против АИ компаније „Карактер АИ“, као и „Гугла“, тврдећи да је управо чет-бот подстакао њеног сина да себи одузме живот.
АИ може бити опасан по људе не само оваквим претећим порукама, већ и давањем „добронамерних“ савета, јер је Гемини раније саветовао људе да једу камење, стављају лепак у пицу и сличне глупости. „Гугл“ је у међувремену унео измене да се овакве ствари више не дешавају, али као што се види из најновијег случаја, Геминии даље може да даје опасне савете и буде агресиван у комуникацији.
Погледајте и: