00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
СПУТЊИК ИНТЕРВЈУ
17:00
30 мин
СПУТЊИК ИНТЕРВЈУ
21:00
30 мин
СПУТЊИК ИНТЕРВЈУ
07:00
30 мин
СПУТЊИК ИНТЕРВЈУ
20:30
30 мин
МОЈ ПОГЛЕД НА РУСИЈУ
Ауторска емисија Љубинке Милинчић
21:30
30 мин
ЈучеДанас
На програму
Реемитери
Студио Б99,1 MHz, 100,8 MHz и 105,4 MHz
Радио Новости104,7 MHz FM
Остали реемитери
 - Sputnik Србија, 1920
НАУКА И ТЕХНОЛОГИЈА

Да ли ћемо ускоро сви имати дигиталног близанца и зашто је то опасно

CC0 / / Вештачка интелигенција
Вештачка интелигенција - Sputnik Србија, 1920, 23.07.2022
Пратите нас
Дигитални близанац је копија особе, производа или процеса који је креиран помоћу података. Ово би могло звучати као научна фантастика, али неки тврде да ћете вероватно имати дигиталног двојника у наредној деценији.
Мобилна апликација Sputnik на српском језику - Sputnik Србија
Пратите Спутњик и на летовању

Спутњик Србија неометано можете читати широм Европе на мобилној апликацији коју ћете пронаћи ОВДЕ. Апликацију такође можете преузети и путем линка apkfab.com

Као копија особе, дигитални близанац би – у идеалном случају – донео исте одлуке које бисте донели и ви да вам буду представљени исти материјали.
Ово би могло изгледати као још једна спекулативна тврдња футуриста. Али то је вероватније много више него што би људи желели да верују, пише портал „Сајенс алерт“ у чланку који је потписао доцент за психологију Џордан Ричард Шоенхер са Универзитета Конкордија.
Иако бисмо могли да претпоставимо да смо посебни и јединствени, са довољном количином информација, вештачка интелигенција (АИ) може да донесе многе закључке о нашим личностима, друштвеном понашању и одлукама о куповини.
Ера великих података значи да се прикупљају огромне количине информација (које се називају „језера података“) о вашим отвореним ставовима и склностима, као и о траговима понашања које остављате за собом.
Једнако је забрињавајућа обим у којем организације прикупљају наше податке. Компанија „Волт Дизни“ је 2019. године купила „Хулу“, компанију за коју су новинари и заговорници истакли да има упитну евиденцију када је у питању прикупљање података.
Наизглед бенигне телефонске апликације – попут оних које се користе за наручивање хране – могу да прикупе огромне количине од корисника сваких неколико минута.
Скандал „Кембриџ аналитика“ илуструје ове забринутости, при чему су корисници и регулатори забринути због изгледа да ће неко моћи да идентификује, предвиди и промени своје понашање.
Али колико треба да будемо забринути?

Висока наспрам ниске веродостојности

У симулационим студијама, веродостојност се односи на то колико блиско копија или модел одговара свом циљу. Веродостојност симулатора се односи на степен реализма који симулација има у односу на реалне референце. На пример, тркачка видео-игра пружа слику која се повећава и смањује брзину када притиснемо тастере на тастатури или контролеру.
Док симулатор вожње може имати ветробран, шасију, мењач и педале за гас и кочницу, видео-игра има нижи степен верности од симулатора вожње.
Дигитални близанац захтева висок степен веродостојности који би могао да укључи информације из стварног света у реалном времену: ако сада пада киша напољу, падала би киша у симулатору.
У индустрији, дигитални близанци могу имати радикалне импликације. Ако смо у стању да моделирамо систем интеракције људи и машина, имамо способност да алоцирамо ресурсе, предвидимо несташице и кварове и направимо пројекције.
Људски дигитални близанац би укључивао огромну количину података о склоностима, предрасудама и понашању неке особе и могао би да има информације о корисниковом физичком и друштвеном окружењу.
Ови захтеви значе да је постизање правог дигиталног близанца далека могућност за блиску будућност. Количина сензора потребна за акумулацију података и капацитета процеса неопходних за одржавање виртуелног модела корисника била би огромна. У садашњости, програмери се задовољавају моделом ниске веродостојности.

Етичка питања

Производња дигиталног близанца поставља друштвена и етичка питања која се тичу интегритета података, тачности предвиђања модела, надзорних капацитета потребних за креирање и ажурирање дигиталног близанца, као и власништва и приступа дигиталном близанцу.
Британски премијер Бенџамин Дизраели својевремено је рекао: „Постоје три врсте лажи: лажи, проклете лажи и статистика“, имплицирајући да се бројевима не може веровати.
Подаци прикупљени о нама ослањају се на прикупљање и анализу статистичких података о нашем понашању и навикама да би направили предвиђања о томе како ћемо се понашати у датим ситуацијама.
Ово одражава неспоразум у томе како статистичари прикупљају и тумаче податке, али изазива важну забринутост.
Једно од најважнијих етичких питања у вези са дигиталним близанцем односи се на квантитативну заблуду, која претпоставља да бројеви имају објективно значење одвојено од њиховог контекста.
Када посматрамо бројеве, често заборављамо да они имају специфична значења која потичу од мерних инструмената који се користе за њихово прикупљање. А мерни инструмент може радити у једном контексту, али не и у другом.
Када прикупљамо и користимо податке, морамо да признамо да избор укључује одређене карактеристике, а не друге. Често се овај избор врши из погодности или због практичних ограничења технологије.
Морамо бити критични према свим тврдњама заснованим на подацима и вештачкој интелигенцији јер нам одлуке о дизајну нису доступне. Морамо разумети како су подаци прикупљени, обрађени, коришћени и представљени.

Неравнотеже моћи

Неравнотежа моћи је све већа дискусија у јавности о подацима, приватности и надзору.
У мањим размерама, ово може да произведе или повећа дигиталне поделе — јаз између оних који имају и оних који немају приступ дигиталним технологијама. У већим размерама, ово прети новом колонијализму заснованом на приступу и контроли информација и технологије.
Чак и стварање дигиталних близанаца ниске веродостојности пружа могућности за праћење корисника, закључивање о њиховом понашању, покушај да се утиче на њих и представља их другима.
Иако ово може помоћи у здравственим или образовним окружењима, немогућност да се корисницима омогући приступ и процена њихових података може угрозити индивидуалну аутономију и колективно добро друштва.
Субјекти података немају приступ истим ресурсима као велике корпорације и владе. Недостатак времена, тренинга, а можда и мотивације. Постоји потреба за доследним и независним надзором како би се осигурало очување наших дигиталних права.
Чланак је објављен на порталу за академске радове „Конверзејшен“
Вештачка интелигенција - Sputnik Србија, 1920, 23.07.2022
НАУКА И ТЕХНОЛОГИЈА
„Гугл“ отпустио инжењера који је тврдио да вештачка интелигенција има свест
Све вести
0
Да бисте учествовали у дискусији
извршите ауторизацију или регистрацију
loader
Ћаскање
Заголовок открываемого материала