Diskrimineerimine liigub digiriiki: AI võib nii võimendada kui vähendada ebaõiglust

foto30.03.2026

Podcastis „Olukorrast digiriigis“ arutleti, kuidas tehisaru võib inimesi diskrimineerida ja kuidas sama tehnoloogiat saab kasutada ebaõigluse tuvastamiseks. Stuudios olid riigi andmete juht Ott Velsberg Justiits- ja Digiministeeriumist ning ettevõtte MindTitan kaasasutaja ja tegevjuht Kristjan Jansons ning saatejuht Avo Elme.

Diskrimineerimine tähendab põhjendamatult ebavõrdset kohtlemist, mille tagajärjel satub keegi halvemasse olukorda. Eestis reguleerivad seda soolise võrdõiguslikkuse seadus ja võrdse kohtlemise seadus. Velsbergi sõnul peitub probleem sageli hoiakutes, mis on ühiskonda sisse juurdunud. Just sealt kandub ebavõrdsus andmetesse ning algoritmidesse.

Näiteid maailmast on juba küllaga. Hollandis tembeldati kümned tuhanded migranditausta või topeltkodakondsusega inimesed algoritmi kallutatuse tõttu alusetult petturiteks, Austrias said mehed süsteemselt suuremat toetust kui naised, Amazonis lükkas värbamis-AI automaatselt tagasi naiste CV-d. Sama loogika võib Velsbergi hinnangul toimida ka Eestis - kui tehisaru treenitakse ajalooliselt ebaõiglaste hoiakute peal, toodab ta sama mustrit edasi.

Eestis pole seni suuri skandaale olnud. Jansons rõhutas, et kõige rohkem vaadatakse diskrimineerimisriske laenude, tööjõuturu ja õigussüsteemi puhul, kuid enamik AI kasutusjuhtudest puudutab hoopis kvaliteeti, turvalisust ja protsesside efektiivsust.

Riigi rolli peab tema sõnul vaatama teisiti kui eraettevõtteid: pangast või poest saab klient ära minna, riigiga suhtlemisel ei ole valikut. Seetõttu on oluline, et automaatsed süsteemid ei langetaks läbipaistmatuid ja ebaõiglasi otsuseid. Velsberg lisas, et näiteks tööturu teenustes on AI praegu abivahend, lõpliku otsuse teeb ametnik ning inimene saab otsust vaidlustada.

Kui keegi tunneb, et teda on diskrimineeritud (ka siis, kui kahtlus langeb TI-le), saab pöörduda võrdõigusvoliniku või õiguskantsleri poole või kohtusse.

Erinevalt eelmise põlvkonna ekspertsüsteemidest on tänapäeva suured keelemudelid sisuliselt „must kast“ ning nende treeningandmestik ja sisemine loogika pole ettevõtetele alati teada. Velsberg tõi näitena küüditamise. Selle Eesti jaoks tundliku teema käsitlus võib oluliselt erineda sõltuvalt mudelist ja selle päritolust. Koos Eesti Keele Instituudiga hinnatakse eri mudelite käitumist just Eesti kontekstis.

Tehisaru ei ole aga ainult oht. Velsberg kirjeldas, kuidas võrdõigusvolinik AI abil töökuulutusi analüüsib: kas otsitakse „teenindajannat“ või nõutakse põhjendamatult kitsast kvalifikatsiooni, mis võib osutuda varjatud diskrimineerimiseks. Masin aitab sellised pimealad üles leida.

Jansonsi hinnangul on algoritmide eelis see, et nende kallutatust saab mõõta ja parandada, samas kui inimeste alateadlikke eelarvamusi on väga raske täpselt tuvastada. Eeldus on, et süsteeme testitakse süstemaatiliselt erinevate kasutajagruppide peal.

Vastutus jääb aga alati inimesele. „Kui keegi ütleb, et otsuse tegi AI ja meie ei vastuta, siis see on vale ja lubamatu,“ rõhutas Velsberg. Vastutav on organisatsioon, kes süsteemi kasutab. Arutlused tehisaru kui eraldi juriidilise isiku loomise üle on tema hinnangul täis lahendamatuid probleeme – masinat ennast karistada ei saa.

Euroopa Liidu tehisaru määrus seab kõrge riskiga süsteemidele karmid nõuded: kvaliteetsed andmed, logimine, järelkontroll, inimjärelevalve ning küberturvalisus. Teatud kasutusviisid – nagu massiline biomeetriline jälgimine või Hiina stiilis „ühiskondlik krediidiskoor“ – on Euroopas plaanitud üldse keelata.

Jansons märkis, et kuigi raamistik on olemas, valitseb ettevõtetes sageli segadus. Hirm suurte trahvide ees on mõnes riigis toonud kaasa AI-projektide pausilepaneku. Velsbergi hinnangul pidurdavad Eestis arengut pigem isikuandmete kaitse karmid reeglid, pikk õiguslike aluste menetlus ja madal riskitaluvus pilveteenuste suhtes.

Kas Eesti on liider või järgija? Velsbergi arvates oleme pigem veidi üle Euroopa keskmise: edumeelsed pilveteenuste kasutajad, kuid Soome tasemest veel maas. Jansonsi sõnul on takistuseks sageli „mentaalsed blokid“ – peljatakse pilve, ent samal ajal kasutatakse Gmaili ja Microsofti teenuseid, mis ongi pilv.

Diskrimineerimise üheks vormiks peavad saate külalised ka digiteenuste ligipääsetavuse puudumist. COVID-i alguses sündinud reaalaja subtiitrite lahendus näitas, et ligipääsetavus ei ole vaid erivajadustega inimeste teema – subtiitritest on abi sadadele tuhandetele. Velsberg kutsus laiendama ka keelelist valikut: kasvõi masintõlke abil teiste keelte kõnelejatele, eeldusel, et on ausalt märgitud, et tõlge võib sisaldada vigu.

Mida peaks tegema asutus, kes tahab AI-d kasutada, aga kardab diskrimineerimist? Jansons soovitas alustada lihtsast küsimusest: kas otsus võib kedagi ebaõiglaselt mõjutada soo, rahvuse, usu või muu tundliku tunnuse alusel? Seejärel tuleb andmeid analüüsida ja süsteemi eri gruppide peal testida. On valdkondi, näiteks personaalmeditsiin, kus teatud „kallutatus“ (vanus, sugu) on hoopis vältimatult vajalik.

Riik pakub teema paremaks mõistmiseks digiriigi akadeemia kursusi, võrdõigusvolinik omakorda on avaldanud kodulehel volinik.ee mitmeid juhendeid ja metoodikaid, kuidas diskrimineerimisest hoiduda.

Eestis pole seni olnud suuri AI-diskrimineerimise skandaale. Saatekülalised leidsid siiski, et just praegu on õige aeg luua metoodikad ja järelevalve, enne kui probleemid paisuvad ning kasutada tehisaru mitte uue ebaõigluse loomiseks, vaid selle tuvastamiseks ja ennetamiseks.

Allikas: https://www.postimees.ee/