У чијим рукама је ваша пажња? Прича о алгоритму потлачених

Пише: Вук Вуковић, продуцент и универзитетски професор

Након читања социолошке студије Прогнани појмови Тодора Куљића интензивно сам почео да размишљам о појмовима који одређују савремено друштво, а посебно о онима који истражују неједнакости у друштву. Или, да овдје парафразирам Куљића – како препознати друштвене услове новог опојмљавања историјског и савременог искуства? Чини се да као индикатор за ову анализу можемо узети низ појмова који се појављују, из године у годину, као ријечи које су обиљежиле одређени период: браин рот (2024), генеративе артифициал интеллигенце (2023), АИ (2023), доомсцроллинг (2020), цанцел цултуре (2019), схаринг ецономy (2015), #блацкливесматтер (2014)… Ова ад хоц анализа нам, изгледа, нуди закључак да су кључни појмови савременог друштва нужно везани за дигиталну културу, односно – да је тренд „опојмљавања савременог искуства“ у директној вези са феноменима медијске културе. Ако ову лексичку анализу сведемо на један појам – заједнички именитељ би био онај који обједињује све поменуте праксе и феномене: његово величанство Алгоритам.

Вријеме алгоритма

Иако (вјероватно) потиче из 9. вијека и суштински припада пољу које је ограничено математиком као формалном и егзактном науком, појам алгоритма је временом мигрирао и у поље друштвено-хуманистичких наука, посебно задирући у област дигиталне хуманистике. Управо због тога, сет прецизно дефинисаних корака за рјешавање проблема (што је једна од дефиниција алгоритма), отворио је низ друштвених проблема које, сагледане у контексту медијске писмености, Светлана Јоветић Копривица назива Тортура алгоритма. И можда се управо у процесу медијског описмењавања крије спој ригорозних СТЕМ дисциплина и критичке рефлексије друштвених наука. Из тог споја родиле су се, између осталог, и – етичке дилеме и оно што незграпно преводимо – алгоритамска пристрасност (алгоритхм биас).

Како алгоритми бирају умјесто нас?

Међутим – како уопште алгоритам данас функционише, шта су била очекивања алгоритамског функционисања, а шта смо добили као реалност? Алгоритамска персонализација или персонализована алгоритамска селекција је обиљежила посљедње двије деценије, а посебно еру друштвених медија. Још откако је Гоогле2004. године увео персонализовану претрагу (од 2009. године – као стандард за све кориснике, чак и оне који су излоговани са својих рачуна, а ни брисање „колачића“ неће много помоћи), низ медијских платформи (Фацебоок, Инстаграм, ТикТок…) је ушао у трку – ко ће понудити „бољи“ алгоритам. Квалитет алгоритма, суштински гледано, процјењиван је на основу два критеријума: колико дуго заокупља пажњу корисника (економија пажње) и колико новца доноси платформама/оглашивачима. Такви критеријуми, укратко, дехуманизују процес персонализоване селекције садржаја и свједоче о доминацији лукративних образаца продукције садржаја чији је основни циљ – експлоатација корисника. Ипак, алгоритамска персонализација као комплексан механизам обраде великих података о понашању корисника на интернету настао је као одговор на убрзану акумулацију медијског материјала: неки подаци указују да се данас, дневно, генерише преко 400 терабајта (ТБ) садржаја због чега се оправдано поставља питање – шта ми радимо са толико медијског садржаја? Идеја да платформе саме, у наше име и на основу наших података, селектују садржаје који су нам корисни или задовољавају наше потребе можда је својевремено могла да се тумачи као стратегија која би нам омогућавала да приступамо садржајима који су за нас најрелевантнији, односно да апсолутну контролу над персонализацијом имамо ми као корисници. Предиктивна аналитика, у пракси, испоставило се да ради искључиво за велике корпорације које имају контролу над процесом селекције садржаја, али и над подацима које им, вољно и невољно, дајемо на располагање. О томе свједочи и хипотеза да је кључну улогу у контексту референдума у Великој Британији (Бреxит) имало управо алгоритамско филтрирање и дистрибуција информација који су обликовали начин на који је јавност перципирала кључна питања миграција, суверенитета, економије и ЕУ бирократије.

Када алгоритми постану неправедни

Дистопијска слика алгоритма не исцрпљује се само у персонализованој селекцији и манипулацији нашим подацима, већ и у системским, понављајућим „грешкама“ којима не управља (искључиво) човјек нити велики центри моћи. Грешке су, уствари, неправедни и дискриминаторни резултати које тенденциозно даје аутоматизовани систем, при чему фаворизује једну групу података на рачун друге. Оваква дискриминација није (нужно) у функцији акумулације капитала, али она јесте доказ да алгоритам није неутралан, односно да је пристрасност интегрисана кроз дизајн алгоритма, податке или начин примјене/обраде података.

Гоогле  је 2015. године увео апликацију за препознавање садржаја на сликама и отворио поље дигиталних стереотипа: тамнопуте особе алгоритам је препознавао и обиљежавао као гориле, због чега се Гоогле извинио. Годинама касније, Гоогле, а ни остале глобалне корпорације попут Аппле-а, не омогућавају препознавање горила јер су ту ознаку блокирали у својим алгоритмима, чиме су само заобишли проблем и умјесто рјешења понудили привидну неутралност. Сличну пристрасност је показивао и алгоритам ЦОМПАС који је коришћен за процјену ризика од поновног чињења кривичног дјела у неким државама САД: истраживачка анализа је показала да је алгоритам чешће давао лажно високе оцјене ризика афроамеричким оптуженицима (у поређењу са бјелцима), односно да су они двостручко чешће означавани као будући преступници, док су бијелци чешће (погрешно) оцијењени као ниско-ризични.

Амазон је развијао АИ алат за преглед радних биографија које је требало рангирати на основу успјешности, али је брзо откривено да алгоритам дискриминише жене. Подаци на којима је алгоритам „трениран“ били су историјски условљени околношћу да је доминација мушкараца у технолошком сектору водила томе да резимеи кандидаткиња добијају „казнене“ бодове. Амазон је обуставио примјену пројекта, због опасности да би се сличне грешке могле поновити. Овакву полну и родну дискриминацију имали су и кодови за циљано оглашавање (Фацебоок) или кредитно бодовање (Аппле Цард) који су, такође, фаворизовали одређени пол, иако им то није задато као намјера.

Иако постоји низ примјера који се, у академским круговима, већ одавно третирају као научни и етички проблем, регулатива споро сустиже технологију и њен развој. Америчка администрација прије неколико година објавила је документ насловљен Блуепринт фор ан АИ Билл оф Ригхт са низом необавезујућих принципа који се тичу вјештачке интелигенције, од којих се дио посебно тиче забране од алгоритамске дискриминације. Нека од ових питања европска регулатива покушала је да третира кроз Општу уредбу о заштити података (ГДПР), Акт о дигиталним услугама (ДСА) или Акт о вјештачкој интелигенцији (АИ Ацт), али је отворено питање како ће све ово земље чланице ЕУ (и оне које декларативно то желе да постану) спроводити у свакодневној пракси. Црногорско законодавство пасивно прати и оне медијске стандарде који се тичу и традиционалних медија, те није за очекивати да питање вјештачке интелигенције и алгоритамске пристрасности буде тачка дневног реда надлежних институција, прије свега – Владе и Скупштине Црне Горе.

Оно што је очигледно из ових примјера је да развој технологије, иако потиче из егзактних наука, није неутралан, већ јако одражава и одсликава друштвене прилике и околности. Алгоритамска пристрасност је, дакле, само дигитализована дискриминација која деценијама и вјековима постоји у друштву, по свим основама – полном, родном, класном, сексуалном, расном, итд. Тако дигитализована, дискриминација више није само временска категорија, већ је постала и просторна – тиме што се проширила на све медије као продужетке наших чула, како би то рекао Маршал Маклуан. Ипак, као таква, она је опаснија: управо због претпоставке да су рачунарске одлуке објективне и егзактне, оне добијају повјерење које не заслужују, а њихова пристрасност је теже уочљива. Откривање привидне неутралности задатак је свих нас, свакодневно и свуда – и то не само да би АИ системи били праведнији, транспарентнији и безбиједнији за друштво. Можда ће тако, бар у дигиталном друштву, дискриминација бити један од – прогнаних појмова.

Овај текст је писан за сајт медијскаписменост.ме у оквиру програма Агенције за аудиовизуелне медијске услуге.

ЛЕАВЕ А РЕПЛY

Плеасе ентер yоур цоммент!
Плеасе ентер yоур наме хере