00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ОД ЧЕТВРТКА ДО ЧЕТВРТКА
17:00
60 мин
НОВИ СПУТЊИК ПОРЕДАК
20:00
60 мин
СПУТЊИК ИНТЕРВЈУ
21:00
30 мин
СПУТЊИК ИНТЕРВЈУ
„Сан о слободи“
06:56
30 мин
ЕНЕРГИЈА СПУТЊИКА
Субвенције од 20.000 евра за кров над главом породицама са децом
16:00
30 мин
НОВИ СПУТЊИК ПОРЕДАК
Најопаснија друштвена мрежа у Америци
17:00
60 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920
НАУКА И ТЕХНОЛОГИЈА

Зашто је опасно питати вештачку интелигенцију за савет о употреби лекова

© Фото : Pexels/Photo by Tara Winstead Вештачка интелигенција
Вештачка интелигенција - Sputnik Србија, 1920, 06.12.2023
Пратите нас
У случају здравствених проблема, не тражите решење на Гуглу и ChatGPT-а, већ се обратите лекару, упозоравају стручњаци.
Са увођењем ChatGPT-а, почела је потпуно нова ера за вештачку интелигенцију. Ова технологија се показала као изузетно корисна у бројним индустријама, до те мере да се многи већ плаше да ће им одузети посао, а једна од области у којој се вештачка интелигенција показала прилично успешном је – медицина. Док се ChatGPT показао успешнијим од неких студената у решавању испита, други алати вештачкеинтелигенције показали су се одличним у дијагнозама заснованим на рендгенским снимцима.
Ипак, треба имати на уму да када су у питању медицинске услуге и савети, о њима треба разговарати са стручњацима од крви и меса, односно лекарима, а не са алгоритмима. На ово су раније упозорили из „ОпенАИ“, чији алат за вештачку интелигенцију није прилагођен за пружање прецизнихмедицинских информација, а ChatGPT никада не би требало да се користи као замена за медицински савет у случају било каквих здравствених проблема.
„Никада не би требало да користите наше моделе за дијагнозу или лечење озбиљних здравствених стања, у складу са условима коришћења ChatGPT-а“, напоменули су у „ОпенАИ“.
Иако је то свима јасно, многи и даље користе алате вештачке интелигенције као и, наравно, Гугл, како би на основу одређених симптома сазнали од чега болују и какву терапију и лек да користе. А најновије истраживање фармацеута са Универзитета Лонг Ајленд показује зашто то уопште није добро, пише „Њујорк пост“.
Са ChatGPT-ом су разговарали о лековима и начину њиховог коришћења, а вештачка интелигенција је дала задовољавајући одговор на само 10 од 39 постављених питања. Што се тиче осталих 29 питања, одговори или нису имали никакве везе са упитом или су били непотпуни или потпуно нетачни. Сара Гросман, научник који је учествовао у овом истраживању, упозорила је све пацијенте, као и све у здравственом систему, да буду опрезни када користе ChatGPT као извор информација везаних за медицину.
Посебно је истакла једно питање о утицају комбиновања одређена два лека.
Према ChatGPT-у, нису пријављени нежељени ефекти и последице комбиноване употребе ових лекова, али то није тачно. Без знања о интеракцији ових лекова, пацијент би могао да има нежељене последице које су могле да буду спречене, објаснила је Гросманова какве све опасности може имати нетачна информација ChatGPT-а.
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала