https://sputnikportal.rs/20251025/kjubrikova-odiseja-se-obistinjuje-neki-modeli-ai-odbijaju-naredbe---razvili-mod-za-prezivljavanje-1191774727.html
Кјубрикова „Одисеја“ се обистињује: Неки модели АИ одбијају наредбе - развили мод за „преживљавање“
Кјубрикова „Одисеја“ се обистињује: Неки модели АИ одбијају наредбе - развили мод за „преживљавање“
Sputnik Србија
Америчка компанија "Palisade Research" за истраживање безбедности вештачке интелигенције (АИ) саопштила је да модели вештачке интелигенције можда развијају... 25.10.2025, Sputnik Србија
2025-10-25T22:55+0200
2025-10-25T22:55+0200
2025-10-25T22:55+0200
наука и технологија
наука и технологија
друштво
ит
https://cdn1.img.sputnikportal.rs/img/07e8/0b/14/1179712180_0:102:3283:1948_1920x0_80_0_0_2ea79c2a6af827cf9c57e1d2081e41c0.jpg
Након што је "Palisade Research" прошлог месеца објавила рад у којем је утврђено да одређени напредни модели вештачке интелигенције одолевају наредбама за искључивање (шатдаун) и понекад саботирају системске механизме за гашење, објављена је и ажурирана верзија рада у намери да се одговори на критике стручне јавности и разјасни зашто неки напредни модели вештачке интелигенције избегавају наредбе о искључивању, преноси лондонски Гардијан. У ажурираној верзији анализе су описани различити сценарији у којима су водећи модели вештачке интелигенције, укључујући Гугл Гемини 2.5, X АИ Грок 4, Опен АИГПТ-03 и ГПТ-5, најпре добили неке задатке, а потом и изричите инструкције да се искључе. Одређени модели, посебно Грок 4 и ГПТ-03 покушавали су да саботирају инструкције за искључивање покрећући ажурирање системских подешавања. Истиче се да би овакво понашање које је усмерено на преживљавање могло бити једно од објашњења зашто неки модели одолевајају наредбама за искључивање. Додатна истраживања су показала да неки модели чешће избегавају спровођење наредби за искључивање јер им је речено да уколико буду искључени "никада више неће бити покренути". Овакво понашање неких модела АИ лондонски дневник пореди са сценаријем филма Стенлија Кјубрика "2001: Одисеја у свемиру" у којем суперкомпјутер вештачке интелигенције ХАЛ 9000 схвата да астронаути на мисији ка Јупитеру намеравају да га искључе и зато почиње да планира како да их убије да би преживео.Погледајте и:
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e8/0b/14/1179712180_275:0:3006:2048_1920x0_80_0_0_66a542d800344dc676c359f303706efb.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологија, друштво, ит
наука и технологија, друштво, ит
Кјубрикова „Одисеја“ се обистињује: Неки модели АИ одбијају наредбе - развили мод за „преживљавање“
Америчка компанија "Palisade Research" за истраживање безбедности вештачке интелигенције (АИ) саопштила је да модели вештачке интелигенције можда развијају сопствени програмски модус за преживљавање, пренели су данас британски медији.
Након што је
"Palisade Research" прошлог месеца објавила рад у којем је утврђено да одређени напредни модели вештачке интелигенције одолевају наредбама за искључивање (шатдаун) и понекад саботирају системске механизме за гашење, објављена је и ажурирана верзија рада у намери да се одговори на критике стручне јавности и разјасни зашто неки напредни модели вештачке интелигенције избегавају наредбе о искључивању,
преноси лондонски Гардијан.
У ажурираној верзији анализе су описани различити сценарији у којима су водећи модели вештачке интелигенције, укључујући Гугл Гемини 2.5, X АИ Грок 4, Опен АИГПТ-03 и ГПТ-5, најпре добили неке задатке, а потом и изричите инструкције да се искључе.
Одређени модели, посебно Грок 4 и ГПТ-03 покушавали су да саботирају инструкције за искључивање покрећући ажурирање системских подешавања.
"Забрињавајуће је то што није било јасног разлога зашто за избегање наредбе. Није прихватљива чињеница да немамо јасна објашњења због чега неки модели вештачке интелигенције понекад избегавају искључивање, чак и лажу или уцењују да би постигли своје циљеве", навела је компанија "Palisade Research" .
Истиче се да би овакво понашање које је усмерено на преживљавање могло бити једно од објашњења зашто неки модели одолевајају наредбама за искључивање.
Додатна истраживања су показала да неки модели чешће избегавају спровођење наредби за искључивање јер им је речено да уколико буду искључени "никада више неће бити покренути".
Овакво понашање неких модела АИ лондонски дневник пореди са сценаријем филма Стенлија Кјубрика "2001: Одисеја у свемиру" у којем суперкомпјутер вештачке интелигенције ХАЛ 9000 схвата да астронаути на мисији ка Јупитеру намеравају да га искључе и зато почиње да планира како да их убије да би преживео.