Uudised

.ee ja domeenindusega seotud uudised

Tagasi

AI ja GDPR: kuidas reguleerida kiiresti arenevat tehnoloogiat?

Balti Domeenipäevade üks mõtlemapanevamaid ettekandeid tegi amitsioonika sammu ning pani tehisintellekti ja GDPRi ühte ruumi, et näha, mis sealt välja tuleb. Teemat avast Telia Eesti andmeanalüütika juht Erki Pogoretski, kes alustas ettekannet ausa tõdemusega – lõplikke vastuseid täna ei ole. On küsimused, ajaline surve ja kiiresti muutuv reaalsus, mis ei jää ootama ühtegi regulatsiooni.
AI ja GDPR: kuidas reguleerida kiiresti arenevat tehnoloogiat?
Erki Pogoretski, Telia Eesti (Foto: Karolin Köster)

Erkki esimene tähelepanek kõlas paljudele tuttavalt. Tehnoloogia, eriti tehisintellekt, areneb kiiremini, kui organisatsioonid suudavad muutuda ning seda enda igapäevases töös rakendada. Organisatsioonid liiguvad aeglaselt ja seda sageli põhjusega. Tehisintellekt aga mitte: isegi sadulas püsimine on tema sõnul peaaegu võimatu.

Tuginedes Telia kogemustele, rõhutas ta, et tehisintellekti puhul ei ole kõige raskem osa tehnoloogia, vaid seda rakendav organisatsioon. See, mida paljud nimetavad „AI strateegiaks“, on tegelikult organisatsiooni strateegia küsimus. Täna on lihtne leida kümneid tööriistu, konsultante ja koolitajaid. Märksa keerulisem on aga otsustada, kuidas kasutada tehisaru vastutustundlikult, seaduslikult ja nii, et see looks ka päriselt väärtust.

Mängu tulevad lisaks erinevad ettevõtteid mõjutavad regulatsioonid, eelkõige GDPR AI määrused. Kuigi neid nähakse tihti ettevõtete arengu piduritena, tuleks neid vaadelda mitte tehnoloogilise, vaid sotsiaalse ehk inimõiguste kaitsmise eesmärgi täitjatena. Suur osa meist mõtleb privaatsusele alles siis, kui midagi läheb valesti, kuid regulatsioonide mõte on kahju ennetamine, mitte tagantjärele reageerimine.

GDPR on kehtinud alates 2018. aastast ja kuigi see tekitas algusaastatel palju segadust, tõi regulatsioon lõpuks selguse. Enne GDPRi tehti andmeanalüütikas täna hullumeelsetena tunduvaid asju, GDPR pani paika piirid ja sundis ettevõtteid teadlikumalt mõtlema. See keskendus andmesubjektile ehk inimesele andmete taga, ning sellele, kuidas tema andmeid kasutatakse.

AI määruse fookus ei ole enam andmesubjekt, vaid kasutuse eesmärk. Sama andmestik, sama süsteem ja sama tehnoloogia võivad olla madala või kõrge riskiga sõltuvalt sellest, milleks neid kasutatakse. Tehisintellekti reguleerimine ei puuduta enam ainult andmeid, vaid otseselt ka eesmärki - see on oluline muutus.

Üheks suurimaks muutuseks on võime analüüsida mitmesuguse struktuuriga andmeid. Mitte ainult tabeleid ja andmebaase, vaid ka dokumente, memosid, esitlusi, jooniseid, e-kirju jne. AI suudab esimest korda ajaloos seda infot kokku lugeda, võrrelda ja järeldusi teha. See on võimas, aga loob uue probleemi: peaaegu ükski organisatsioon ei oska sellist infot hallata.

Siit jõuame tagasi vana tõeni: tehisaru saab olla täpselt nii hea kui on sellele antav sisend ehk ta peegeldab täpselt seda, mida me talle anname. Kui dokumendid räägivad üksteisele vastu, läheb ka mudel segadusse. Kui eesmärgid on ebaselged, on ka tulemused sisutud (oluline on seejuures kriitiline analüüs tema poolt antava vastuse kvaliteedi hindamisel).

Erkki sõnul tugineb edukas AI kasutamine kolmele asjale: heale sisendile, toimivale tehnoloogiale ja lahendust otsiva probleemi selgele formuleeringule. Iroonilisel kombel on tehte kõige lihtsam osa tehnoloogia, kõige keerulisem aga andmete korrastamine ja loodetava väärtuse määratlemine. Paljud ettevõtted ei tea täpselt, millist väärtust nad tahavad tehnoloogia abil luua, mistõttu investeerivad nad sellesse kas liiga palju või liiga vähe.

Regulatsioon lisab veel ühe keerulise kihi. Tehisintellekt toob automatiseeritud süsteemid otse vastutuse keskmesse. Kaks inimest, kes kasutavad sama AI tööriista, kuid erineval viisil, võivad tekitada täiesti erineva õigusliku ja eetilise riski. Erinevalt varasematest süsteemidest ei ole AI väljund alati etteaimatav. See tähendab, et organisatsioonid peavad ümber mõtlema järelevalve, koolituse ja vastutuse. Inimeste õpetamine võib olla sama oluline kui süsteemi arendamine.

Viimasena tõi ta välja tasakaalu tehnilise kontrolli ja inimjärelevalve vahel. Regulatsioonid nõuavad inimese poolt tehtavat järelevalvet, kuid praktikas tahetakse kontrolli ilma vastutuseta. Juba täna saame olla tunnistajaks „valvur-AIdele“, mis jälgivad teisi AI-süsteeme. Pole raske ette kujutada, et varsti jälgivad valvur-AId teisi valvur-AIsid, kuni lõpuks üritab inimene aru saada, mis üldse toimub. See kõlab futuristlikult, kuid Erkki arvates võib see tulla kiiremini, kui arvame.

Ta lõpetas mõttega, mis on korraga lohutav ja mõtlemapanev: tehisintellekt, mida me täna kasutame, on kõige kehvem AI, mida me kunagi kasutame. Tehnoloogia muutub ainult võimsamaks, kiiremaks ja targemaks: kas see töötab meie kasuks või kahjuks, sõltub vähem tehnoloogiast ja rohkem sellest, kuidas me kujundame organisatsioone, juhtimist ja eesmärke selle ümber.


Vaata ka ettekande salvestust:

Kommentaarid

Email again:

Veel uudiseid, sündmusi ja blogipostitusi