Lapse õigused vajavad andmerikkas maailmas paremat kaitset

Andra Siibak, Tartu Ülikooli meediauuringute professor

Ajal, mil paljud erinevad tehnoloogiafirmad ning institutsioonid koguvad rutiinselt laste biomeetrilisi- ja käitumuslikke andmeid ning algoritme kasutatakse üha enam selleks, et ennustada laste edasijõudmist koolis, nende tõenäosust kogeda vaimse tervise riske või võimalikku kalduvust retsidivismile, on äärmine hetk, et rääkida tõhusamast laste õiguste kaitsest tehnoloogiast küllastunud maailmas.

Tänapäeva andmeühiskonnas, kus paljud ühiskondlikud protsessid põhinevad andmetel või on andmetest informeeritud ning juhitud, nõuavad laste andmeid ja nende haldust puudutavad protsessid eriti hoolikat ja eetiliselt vettpidavat analüüsiprotsessi ning andmehaldusplaani. Seda kinnitab kas või tõik, et 2021. aasta kevadel ÜRO lapse õiguste konventsiooni lisatud kommentaar 25 (OHCHR, 2021) kutsub rahvusriike üles tagama senisest suuremat läbipaistvust laste andmete kogumise, analüüsimise, koondamise ja andmepõhiste otsuste tegemise protsessides (vt ka RD4C raport Unicef & GovLab, 2019). Ka Euroopa andmekaitse (GDPR) üldmääruses nenditakse (põhjendus 38), et „laste isikuandmed väärivad erilist kaitset, kuna lapsed ei pruugi olla piisavalt teadlikud asjaomastest ohtudest, tagajärgedest ja kaitsemeetmetest ning oma õigustest seoses isikuandmete töötlemisega“.

Areng tehisintellekti, masinõppe ja ennustava analüütika suunal on tõepoolest nii murranguline, et laste andme- ja algoritmilise kirjaoskuse tõstmine vajab kiiret ning süstemaatilist sekkumist. Olemasolevad empiirilised uuringud näitavad, et lapsed ja noored küll hoomavad teemasid, mis puudutavad nende enda teadlikku andmete jagamist (nt millist enda kohta käivat infot jagada sotsiaalmeedias), kuid hoopis vähem teatakse ja adutakse meta-andmete kogumise ja analüüsimisega seonduvat. Näiteks ei oska lapsed veel teadvustada seda, milliseid potentsiaalseid kitsaskohti ja privaatsusriske võib endaga kaasa tuua algoritmipõhine profileerimine, ega taju, kuidas tehisintellektile toetuvad rakendused võivad hakata suunama nende edasist elukäiku, neile osaks saavaid võimalusi ja tulevikuväljavaateid. Eriti oluline on tõsta laste ja noorte teadlikkust hariduses toimuvate suundumuste ja arengu kontekstis.

Andmestunud koolikeskkond

Kool on aegade algusest olnud keskkond, kus kogutakse palju eriilmelisi andmeid ning tehakse palju andmepõhiseid otsuseid. Kas või hinnete panemine ise on üks näide sellisest andmepõhisest otsustamisest, mis on saanud lahutamatuks osaks koolielust ja õpetaja ametist. Aga kuidas te suhtuksite sellesse, kui õpetaja asemel paneb tunnistusele lõpueksami hinde hoopiski algoritm? Just nii juhtus näiteks 2020. aasta kevadel Suurbritannias, kus koroonapandeemia tõttu ei olnud gümnasistidel võimalik lõpueksameid sooritada ning leiti, et õpetaja pandud koondhinde asemel võiks lõpetajatele hinded kalkuleerida hoopiski algoritm. Kuna algoritmi loomisel oli kasutatud aga kallutatud andmeid, siis leidis koguni 36% lõpetajatest, et nende loodetud lõpueksami hinne oli arvatust madalam ja ca 15 000 õpilast oleks peaaegu jäänud ilma võimalusest jätkata haridusteed kõrgkoolis. Kuna noored pidasid selliseid hindeid ebaõiglaseks ning tulid massiliselt tänavale protestima, pidi Suurbritannia toonane haridusminister andma hindepaneku otsustusõiguse tagasi õpetajate kätte.

Eeltoodud näide on vaid üks paljudest ilmestamaks, kuivõrd suuri ootusi ja lootusi pannakse uutele tehnoloogiatele koolikeskkonnas. Aina kesksemat kohta tänapäeva haridusuuendustes on näiteks leidmas erinevad AI-põhised tehnoloogiad. Reeglina võetakse need kasutusele selleks, et varakult ära hoida mingeid negatiivseid sündmusi või pärssida nende ilmnemist. Paljudes koolides üle maailma on näiteks kasutusel näotuvastustarkvara, mis võimaldab kiirelt ja märkamatult tuvastada nii seda, millised õpilased on kooli jõudnud või kellel neist jäi koolilõuna eest maksmata, kui seda, kes õpilastest parasjagu tunnis mõttega kaasa töötab. Kõigi nende tehnoloogiate toimimise aluseks on biomeetrilised ja käitumuslikud andmed, mille kogumis- ja analüüsiprotsesside keerdkäikudest ei adu ega hooma õpilased midagi. Kui usaldusväärsed võivad sellisele tehnoloogiale usaldatavad otsustused olla?

Su tehisintellekt ei tunne mind!

Korraldasin hiljuti väikese sotsiaalse eksperimendi Läti Ülikooli haridusteaduste doktorantidega, paludes neil kodutöö käigus katsetada, kui usaldusväärseks hindavad nad otsuseid, mida on nende kohta langetanud näotuvastustarkvara.

Kõik doktorandid said ülesandeks külastada näotuvastustarkvara toimimist selgitavat veebilehte ning vaadata, milliseid järeldusi rakendus nende nägude põhjal teeb. Ülesande sooritamine tõi kaasa omajagu üllatunud, pettunud ja pahaseid reaktsioone : „AI arvas, et ma olen 19 aastat vana – ma olen 56! See on küll meelitav, kuid üldse mitte usaldust tekitav“; „Mina sain vastuseks, et ma olen naine – aga ma pole ju!“, „Minu näolt emotsioone lugedes leidis rakendus, et ma olen kurb. Ma ise küll end kurvameelsena ei tundnud“, „Kui mul olid juuksed lahti, sain ühtemoodi vastuseid, kui panin juuksed soengusse, hoopis teisi – kuidas nii olla saab?!“ jne. Katses osalnud doktorantide hulgas ei olnud lõpuks kedagi, kes oleks AI langetatud hinnangutega päri olnud või neid usaldusväärseks pidanud. Ometi kasutatakse selliseid tehnoloogiaid nii kooli- kui töökeskkonnas erisuguste otsuste langetamiseks. Sageli aga ei mõelda järele nende otsuste võimalike tagajärgede üle.

Laps vajab sõnaõigust

Innovatsioon on hea ja oluline, kuid tuleb aduda, et uue tehnoloogia kasutuselevõtuga kaasnevad ka erinevad riskid. Riskid, mille realiseerumist saavad enda nahal tunda lapsed, kelle peal uut tehnoloogiat katsetatakse, mitte tehnoloogiasektori esindajad või haridusametnikud, kes innustavad pidevalt üldsust innovatsiooniga kaasa käima. Mõelgem sellele hetkeks ja küsigem ka asjaosaliste endi arvamust. ÜRO lapse õiguste konventsioon sätestab, et lastel on õigus kaasa rääkida ja olla ära kuulatud kõikides neid puudutavates küsimustes. See siin on üks neist.

Allikas: DilokaStudio, Freepik.com