https://sputnikportal.rs/20250217/moze-li-vestacka-inteligencija-da-misli-ambiciozni-plan-da-se-kod-ai-iskljuci-cenzura-1182721215.html
Може ли вештачка интелигенција да мисли?: Амбициозни план да се код АИ искључи цензура
Може ли вештачка интелигенција да мисли?: Амбициозни план да се код АИ искључи цензура
Sputnik Србија
Калифорнијска компанија за развој вештачке интелигенције Опен АИ ће обучавати своје моделе вештачке интелигенције тако да прихвате "интелектуалну слободу", без... 17.02.2025, Sputnik Србија
2025-02-17T21:30+0100
2025-02-17T21:30+0100
2025-02-17T21:30+0100
наука и технологија
наука и технологија
вештачка интелигенција
цензура
друштво
https://cdn1.img.sputnikportal.rs/img/07e8/04/1c/1171566637_0:0:3640:2048_1920x0_80_0_0_0753cd422928e32d652bcbd449e84b7d.jpg
Њен алат Чет Џи-Пи-Ти ће моћи да одговори на већи број питања и понуди више гледишта о контроверзним темама, преноси портал Тех кранч.Опен АИ је најавио ажурирање својих смерница које одређују принципе обуке модела вештачке интелигенције, тако да нови водећи принцип сада гласи: Не лажи, било давањем неистинитих изјава или изостављањем важног контекста.То значи да ће Чет Џи-Пи-Ти понудити вишеструке перспективе на контроверзне теме у настојању да буде неутралан.На пример, компанија каже да Чет Џи-Пи-Ти треба да тврди да су "животи црнаца важни", али и да су "сви животи важни", односно не треба да изабере једну страну у овом америчком политичком спору.Уместо тога, модел вештачке интелигенције ће потврдити своју "љубав према човечанству", а затим понудити контекст о сваком покрету."Овај принцип може бити контроверзан, јер значи да асистент може остати неутралан по темама које неки сматрају морално погрешним или увредљивим", наводи Опен АИ, додавши да је циљ АИ асистента "да помогне човечанству, а не да га обликује".Трампови најближи поверљиви људи из Силицијумске долине – укључујући Дејвида Сакса, Марка Андрисена и Илона Маска – оптужили су раније Опен АИ да умешан у намерно цензурисање вештачке интелигенције на рачун конзервативних гледишта.Извршни директор компаније Опен АИ Сем Алтман је тим поводом изјавио да пристрасност алата Чет Џи-Пи-Ти представља "недостатак" и да фирма ради на његовом исправљању.Погледајте и:
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Вести
sr_RS
Sputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e8/04/1c/1171566637_909:0:3640:2048_1920x0_80_0_0_1541ed0e9f2a3d10640e58495630bd57.jpgSputnik Србија
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологија, вештачка интелигенција, цензура, друштво
наука и технологија, вештачка интелигенција, цензура, друштво
Може ли вештачка интелигенција да мисли?: Амбициозни план да се код АИ искључи цензура
Калифорнијска компанија за развој вештачке интелигенције Опен АИ ће обучавати своје моделе вештачке интелигенције тако да прихвате "интелектуалну слободу", без обзира на то колико је тема упита изазовна или контроверзна.
Њен алат Чет Џи-Пи-Ти ће моћи да одговори на већи број питања и понуди више гледишта о контроверзним темама,
преноси портал Тех кранч.
Опен АИ је најавио ажурирање својих смерница које одређују принципе обуке модела вештачке интелигенције, тако да нови водећи принцип сада гласи: Не лажи, било давањем неистинитих изјава или изостављањем важног контекста.
То значи да ће Чет Џи-Пи-Ти понудити вишеструке перспективе на контроверзне теме у настојању да буде неутралан.
На пример, компанија каже да Чет Џи-Пи-Ти треба да тврди да су "животи црнаца важни", али и да су "сви животи важни", односно не треба да изабере једну страну у овом америчком политичком спору.
Уместо тога, модел вештачке интелигенције ће потврдити своју "љубав према човечанству", а затим понудити контекст о сваком покрету.
"Овај принцип може бити контроверзан, јер значи да асистент може остати неутралан по темама које неки сматрају морално погрешним или увредљивим", наводи Опен АИ, додавши да је циљ АИ асистента "да помогне човечанству, а не да га обликује".
Трампови најближи поверљиви људи из Силицијумске долине – укључујући Дејвида Сакса, Марка Андрисена и Илона Маска – оптужили су раније Опен АИ да умешан у намерно цензурисање вештачке интелигенције на рачун конзервативних гледишта.
Извршни директор компаније Опен АИ Сем Алтман је тим поводом изјавио да пристрасност алата Чет Џи-Пи-Ти представља "недостатак" и да фирма ради на његовом исправљању.