- Sputnik Србија, 1920
НАУКА И ТЕХНОЛОГИЈА

Моћ вештачке интелигенције шири се брзином светлости: Могла би да се користи за масовни надзор

© PixabayНадзор
Надзор - Sputnik Србија, 1920, 17.03.2023
Пратите нас
Сектор за истраживање вештачке интелигенције „ОпенАИ“ лансирало је најновију верзију језичког софтвера - ГПТ-4, напредног алата за анализу слика и опонашање људског говора, и тиме још једном померила техничке границе вештачке интелигенције које се шире брзином светлости.
Дуго очекивани алат означава велики корак напред када је у питању моћ вештачке интелигенције, али поставља и нова питања када су у питању етичке норме у примени ове технологије.
Недавно објављени Чет ГПТ из лабораторије Опен АИ одушевио је, али у исто време узнемирио јавност својом способношћу да води конверзације.
Међутим, Чет ГПТ се ослањао на старију генерацију технологије која није представљала максимум који вештачка интелигенција тренутно може, преноси „Вашингтон Пост“.
ГПТ-4, насупрот томе, је најсавременији систем који може много више од генерисања реченица. Он, поред текста, може да анализира различите слике и медије.
Програмери су објавили да би нова технологија могла драстично да продуби АИ револуцију, али су обећања изазвала и део негодовања јавности која сматра да тако напредни системи вештачке интелигенција могу заменити многе послове од којих зависе милиони људи.
Званичници из лабораторије у Сан Франциску рекли су да ће ГПТ-4 „мултимодална“ обука за текст и слике омогућити четботу да побегне из оквира за ћаскање и потпуније опонаша свет боја и слика, надмашујући Чет ГПТ у његовим „напредним могућностима закључивања“.

Највећи страхови се остварују

Када су му током иницијалног тестирања приказали слику са клацкалицом на којој се на једној страни налази тег, а на другој страни лопта, ГПТ 4 је успешно изанализирао фотографију и објаснио да, уколико тег падне – лопта ће полетети у ваздух.
Проблем са овим новим карактеристикама је што би модел, због своје могућности препознавања ситуација, предмета и слика, могао да погледа слику велике групе људи и понуди информације о њима, укључујући и њихов идентитет.
Највећи страх је да би овакав систем могао да се искористи за масовни надзор због своје могућности препознавања лица.
Сандини Агарвал, истраживач из ОпенАИ, рекао је за „Вашингтон Пост“ да је компанија због тога задржала ову функцију како би боље проучила све потенцијалне ризике.
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала