Приврзаниците на алгоритмите тврдат дека тие го прават одлучувањето пофер, додека критичарите велат оти со нив само се зголемуваат неправдите

Британските ученици и нивните родители неодамна го почувствуваа вистинското влијание на алгоритмите. Но оценките не се единствената област во која алгоритмите го имаат главниот збор

Британските ученици неодамна испратија јасна порака до креаторите на политиките: „Кој го е*е алгоритамот“. Реакцијата имаше ефект. Една недела откако оценките генерирани од алгоритми создадоа ситуација во која речиси 40 проценти од учениците добија пониски оценки од предвидените, британската влада порача оти учениците сепак ќе добијат оценки од нивните наставници. Скандалот го нагласи притаеното влијание на алгоритмите врз нашите животи, како и отпорот кон нив.
– Од оценки за измами со надомести, преку алгоритми за визи, до предвидувања на полициските системи, ние едноставно сè повеќе се движиме кон свет во кој владеат алгоритмите – вели Кори Кридер, чија организација „Фоксглов“ поведе правна постапка против алгоритамот за оценување.
Владите сметаат дека алгоритмите ќе го направат скапиот и бавен процес на носење одлуки многу подобар, поефикасен и поевтин. Но критичарите велат дека автоматизираните системи се користат со мала транспарентност или јавна расправа и ризикуваат само да ги зголемат актуелните нееднаквости.

– Алгоритамот ги зема предрасудите од реалниот свет и ги обландира, создавајќи впечаток дека изборот на политики е неутрален и технички, иако не е така – вели Кридер.
Општата регулатива на ЕУ за заштита на податоците (ГДПР) им дава право на луѓето да бараат објаснување за одлуки донесени по автоматски пат, а луѓето може да се спротивстават на одлуките само ако се засноваат на алгоритам. Но скандалот со оценувањето ги откри недостатоците на ГДПР во справувањето со алгоритмите.
Регулаторите велат дека алгоритамот за оценување не се потпирал само на автоматизирани средства, односно се тврди дека и луѓе биле вклучени во тој процес, што значи дека не постои простор за приговор на одлуката врз таа основа.
Побарувачката за поголема транспарентност е дополнително усложнета од сопствениците на алгоритми, кои тврдат дека тие се трговски тајни и дека затоа нивната содржина може да биде објавена.

Британскиот компјутерски научник и активист за приватност Мајкл Веал е скептичен во однос на можноста ГДПР или други средства да дејствуваат како бедем против алгоритмите. Според него, правото на објаснување за одлуки донесени со помош на алгоритми не прави ништо за да се поправат „системските неправди“ вградени во самите алгоритми, како во случајот со оценувањето на британските студенти.
– Добивањето објаснување, но не и податок за тоа како функционираат системите е исто како да имате политика за приватност, а да немате копче „не се согласувам“ – вели тој.
Наспроти сите критики, алгоритмите на еден или на друг начин веќе раководат со нашите животи. Во продолжение се наведени само пет примери за тоа.
1. Добивање социјална помош. Одлучувањето кој да добие социјална помош и колкава да биде таа е скап бизнис за владите, па, така, ова стана област во која се бележи бум во употребата на алгоритми. Шведскиот град Трелеборг има автоматизирано делови од својата програма за социјална помош, така што новите апликации се комбинираат со друга база на податоци за да се донесе одлука.

Данска исто така реши да користи алгоритми, а тоа го прават веќе десет години и властите во Англија, кога утврдуваат колку пари да потрошат на секое лице. Во еден пример, слеп корисник на инвалидска количка добил 10.000 фунти помалку социјална помош откако локалните власти почнале да го користат системот. Но активистите почнаа да го возвраќаат ударот. Во април, холандски активисти успеаја да издејствуваат забрана за владин систем за откривање измами со социјална помош откако судот утврди дека со него се повредува приватноста на луѓето.
2. Прекугранични патувања. Унгарија, Грција и Летонија имаат пробен систем наречен „ајбордерконтрол“, кој ги проверува државјаните на земји што не се членки на ЕУ со автоматски интервјуа и виртуелна гранична контрола, заснована на „технологија за откривање измами.“ Системот практично е автоматски детектор на лаги што лицето мора да го прифати кога ќе стигне на граница. Во Словенија, систем на граничната полиција автоматски ги споредува податоците на патниците со „други полициски податоци“, како што се криминални досиеја. И во овој случај веќе има реакции. Активисти поднесоа жалби против словенечкиот систем, а САД по низа реакции решија да го укинат алгоритамот што се користи за избор на кандидатите за виза. Групите велат оти алгоритамот е расистички и ги поддржува апликациите од земји со претежно бело население.

3. Апсења. Користењето алгоритми за предвидување кога и каде ќе има криминална активност, област позната како предиктивно полициско работење, веќе е во пораст. Во 2019 година, британската група за граѓански права „Либерти“ предупреди дека порастот на употребата на компјутерски програми за да се предвидат жариштата на криминалот и лицата што најверојатно ќе ги повторат делата, вметнуваат расно профилирање во правосудниот систем. Во 2016 година, белгиски полициски оддел почна со спроведување систем за полициско предвидување, за кој се тврди дека може да предвиди во кои населби ќе има грабежи. Во германскиот град Манхајм, властите инсталирале систем за видеонадзор што го следи однесувањето на луѓето заради утврдување „одредени обрасци што индицираат на кривични дела“.

4. Добивање понуда за работа. Работодавците во Финска претходно беа во можност да ги користат услугите на „Диџитал мајндс“, компанија што го анализираше онлајн-присуството на кандидатите на Твитер, Фејсбук и на други социјални медиуми, за да направат процена на личноста. Следените мерки вклучувале колку лицата се активни на Интернет и како реагираат на објави на социјалните медиуми и на електронската пошта. Компанијата ги прекина активностите по истрагата на „Алгоритам воч“.

5. Добивање заем. Добивањето кредитен рејтинг од приватна компанија е реалност за многумина и може да има далекосежни последици. Ниски оценки обично значат дека банките може да одбијат апликација за заем или кредитна картичка, или дека давателите на услуги на Интернет или телефонските компании може да одбијат услуга. Резултатот што ќе го добиете исто така може да се заснова на сомнителни податоци. Активисти неодамна поднесоа жалба до австриската агенција за заштита на лични податоци откако компанија за кредитен рејтинг му даде лоша кредитна оценка на лице со високи приходи и без долгови, додека негираше дека имала какви било податоци за тоа лице.