https://sputnikportal.rs/20251029/o-cemu-nikada-ne-bi-trebalo-da-razgovarate-sa-alatima-vestacke-inteligencije-1191928728.html
О чему никада не би требало да „разговарате“ са алатима вештачке интелигенције
О чему никада не би требало да „разговарате“ са алатима вештачке интелигенције
Sputnik Србија
Према стручним смерницама, постоје одређене теме и врсте података о којима никада не треба разговарати са четботовима. 29.10.2025, Sputnik Србија
2025-10-29T22:13+0100
2025-10-29T22:13+0100
2025-10-29T22:13+0100
наука и технологија
ит
друштво
https://cdn1.img.sputnikportal.rs/img/07e8/04/1c/1171566637_0:0:3640:2048_1920x0_80_0_0_0753cd422928e32d652bcbd449e84b7d.jpg
Све већи број корисника широм света окреће се вештачким четботовима попут ChatGPT за савете о здрављу, финансијама и свакодневним проблемима. Истраживања показују да многи корисници сматрају четботове приступачним и поузданим, али стручњаци упозоравају на претерано ослањање на вештачку интелигенцију, посебно када је реч о осетљивим и приватним темама.Студије су показале да људи све више користе алате вештачке интелигенције за финансијске одлуке, здравствене савете, па чак и као виртуелне терапеуте. Међутим, стручњаци наглашавају да вештачки четботови нису лекари или саветници, већ системи засновани на алгоритмима и подацима који имају своја ограничења.Поред тога, информације које корисници деле са четботовима могу бити сачуване или доступне трећим лицима, што покреће питања безбедности и приватности.Шта не треба делитиПрема стручним смерницама, постоје одређене теме и врсте података о којима никада не треба разговарати са четботовима.То укључује личне податке као што су лозинке, бројеви банковних рачуна или кредитних картица, као и осетљиве информације о идентитету. Дељење таквих информација може довести до крађе идентитета или финансијске преваре.Такође, корисници не би требало да се ослањају на АИ у ситуацијама које захтевају хитну реакцију, као што су пожари, тровање гасом или хитне медицинске ситуације. АИ не може да детектује опасност или да позове помоћ. У таквим случајевима треба одмах контактирати службе за хитне случајеве.Још једно ограничењеЈош једно ограничење се односи на вести и актуелне догађаје. Четботови немају стални приступ ажурираним информацијама и не пружају поуздане податке у реалном времену о тржиштима, акцијама или кризним ситуацијама. За проверене информације препоручује се ослањање на веродостојне медијске изворе.У области здравља, АИ алати могу да пруже опште информације о симптомима или животним навикама, али нису замена за дијагнозу или лечење. Исто важи и за емоционалну подршку – разговори о романтичним везама или личним проблемима су ван оквира онога за шта су ови системи дизајнирани.На крају, стручњаци упозоравају да корисници треба да избегавају дељење свега што не би желели да постане јавно доступно. Иако платформе вештачке интелигенције теже да обезбеде приватност, потпуна анонимност и безбедност нису загарантовани.Погледајте и:
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e8/04/1c/1171566637_909:0:3640:2048_1920x0_80_0_0_1541ed0e9f2a3d10640e58495630bd57.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
ит, друштво
О чему никада не би требало да „разговарате“ са алатима вештачке интелигенције
Према стручним смерницама, постоје одређене теме и врсте података о којима никада не треба разговарати са четботовима.
Све већи број корисника широм света окреће се вештачким четботовима попут ChatGPT за савете о здрављу, финансијама и свакодневним проблемима. Истраживања показују да многи корисници сматрају четботове приступачним и поузданим, али стручњаци упозоравају на претерано ослањање на вештачку интелигенцију, посебно када је реч о осетљивим и приватним темама.
Студије су показале да људи све више користе алате вештачке интелигенције за финансијске одлуке, здравствене савете, па чак и као виртуелне терапеуте. Међутим, стручњаци наглашавају да вештачки четботови нису лекари или саветници, већ системи засновани на алгоритмима и подацима који имају своја ограничења.
Поред тога, информације које корисници деле са четботовима могу бити сачуване или доступне трећим лицима, што покреће питања безбедности и приватности.
Према стручним смерницама, постоје одређене теме и врсте података о којима никада не треба разговарати са четботовима.
То укључује личне податке као што су лозинке, бројеви банковних рачуна или кредитних картица, као и осетљиве информације о идентитету. Дељење таквих информација може довести до крађе идентитета или финансијске преваре.
Такође, корисници не би требало да се ослањају на АИ у ситуацијама које захтевају хитну реакцију, као што су пожари, тровање гасом или хитне медицинске ситуације. АИ не може да детектује опасност или да позове помоћ. У таквим случајевима треба одмах контактирати службе за хитне случајеве.
Још једно ограничење се односи на вести и актуелне догађаје. Четботови немају стални приступ ажурираним информацијама и не пружају поуздане податке у реалном времену о тржиштима, акцијама или кризним ситуацијама. За проверене информације препоручује се ослањање на веродостојне медијске изворе.
У области здравља, АИ алати могу да пруже опште информације о симптомима или животним навикама, али нису замена за дијагнозу или лечење. Исто важи и за емоционалну подршку – разговори о романтичним везама или личним проблемима су ван оквира онога за шта су ови системи дизајнирани.
На крају, стручњаци упозоравају да корисници треба да избегавају дељење свега што не би желели да постане јавно доступно. Иако платформе вештачке интелигенције теже да обезбеде приватност, потпуна анонимност и безбедност нису загарантовани.