Вештачка интелигенција треба да прави модел људске интелигенције, да га реплицира, симулира, међутим, сваки модел има грешку. Ми покушавамо да створимо модел вештачке интелигенције који ће реплицирати оно што човек ради, али ту долазимо у ситуацију да машина може неке ствари боље да ради него људи, рекао је Делибашић.
“Вештачка интелигенција нама користи и направљена је да нама олакша рад и то је нормалан процес у развоју информационих система. Увек је била идеја да се направе ти системи како би људска интелигенција могла да се допуњава”, објашњава професор.
Делибашић истиче да би по препорукама немачких званичника дете требало да први телефон добије са осам година и то без “смарт” функција, али је код нас другачија ситуација – добијају их као бебе. Наводи да је потребно децу научити да одговорно користе вештачку интелигенцију.
“Факултет организационаих наука у Београду је међу првима у свету направио етичке смернице како да студент и запослени користе исправно вештачку интелигенцију, тј. велике језичке моделе као што је “чет гпт”. То је урађено у скоро исто време када је урађено и на енглеским факултетима и “Кингс” колеџу. Праксе су сличне и важно је да су сви научни радови доступни на ту тему”, наводи Делибашић.
Професор додаје да је неопходно научити комуникацију са тим системима, прецизно дефинисати захтев, јер некада реч или реченица могу направити велику разлику какав ће бити резултат. Истиче да је поражавајућа чињеница да неки људи више воле да комуницирају са машинама него са људима, јер је људска интеракција незаменљива.
Осврћући се на тему приватности информација Делибашић каже да се наши подаци налазе у системима, све је кодирано и скоро је немогуће да било шта сакријемо, телефони се прате, камере су на многим локацијама. Професор наводи да смо зашли у неке зоне које се граниче са етиком, зато морају постојати државне и правне регулативе које дефинишу шта је етички дозвољено како би ти системи правилно функционисали.
Закључује да је велики проблем са темама које се пласирају деци, видео снимцима чије је порекло тешко пронаћи и који не подлежу никаквим рецензијама и да би у том случају требало користити вештачку интелигенцију која би сузбила штетне садржаје за децу.