Merlin Liis-Toomela ja Hegle Pärna: progressiivne tehistaip võib kasutajale tuua ka hiigeltrahvi
Ellex Raidla vandeadvokaat Merlin Liis-Toomela ja jurist Hegle Pärna: Tehisintellekt aitab saavutada palju positiivseid eesmärke, kuid ei tohi unustada, et selle kasutaja vastutab kaasneva andmetöötluse eest.
Kolm aastat tagasi loodud GPT-3 kõnemudel ning eelmise aasta lõpus selle peale rajatud rakendus ChatGPT on oma hämmastavate võimetega saanud mitmete iduettevõtete tulevikuplaanide mõjutajaks. Jääb mulje, et imeliste võimetega ChatGPT suudab asendada inimesi ka kõige keerulisemates valdkondades. Ilmunud on ka mitmeid teadusartikleid, kuhu on kaasautoriks märgitud mõni tehisintellektist kõnemudel. Kõnemudelid koosnevad miljonitest algtekstidest ja andmebaasidest, kuhu satuvad mõnikord ka inimeste isikuandmed. Mida peab arvestama isikuandmete kasutamisel tehisintellektiga seotud äritegevuses, selgitavad vandeadvokaat Merlin Liis-Toomela ja jurist Hegle Pärna advokaadibüroost Ellex Raidla.
Tehisintellekti kasutaja vastutab kaasneva andmetöötluse eest
Laineid löönud ChatGPT on kasutajasõbralik liides, mis on loodud juba kolm aastat tagasi avalikustatud GPT-3 kõnemudelile. ChatGPT generatsiooni mudeli “aju” moodustab üle 800GB suurune kogum internetist leitud tekste, sealhulgas isikuandmeid. Neid andmeid pole oma mahu tõttu ükski inimene võimeline üle kontrollima.
Nagu iga lahenduse osas, mis kasutab kellegi andmeid, ei saa ka ChatGPT puhul mööda vaadata isikuandmete kaitsega seonduvatest regulatsioonidest, eelkõige isikuandmete kaitse üldmäärusest (eestikeelse lühendi järgi IKÜM või inglise keelselt GDPR). Tehisintellekti kasutaja peab tagama isikuandmete töötlemise õiguspärasuse, sealhulgas nii isikuandmete kui ka muude andmete töötlemisel. Isikuandmete kaitse üldmääruse kohaselt on andmete töötlemine seadusega kooskõlas siis, kui töötlemiseks on olemas õiguslik alus. Sõltuvalt olukorrast võib õiguslikuks aluseks olla andmete omaniku nõusolek või temaga kehtiva lepingu olemasolu.
Tänaseks on mitmeid näiteid selle kohta, kus GPT kõnemudelid on päringu vastuseks andnud inimeste isikuandmeid (sh täisnime, telefoninumbri). Kui aga andmete küsijal ei olnud isikuandmete saamiseks kehtivat õiguslikku alust, võib selliselt isikuandmete saamine tuua kaasa vastutuse ja ka trahvi.
Euroopas ei ole tehisintellekti kasutamisega ja isikuandmete töötlemisega seotud õigusvaidlusi kohtutesse veel väga palju jõudnud. Selliseid vaidlusi on olnud aga Ameerika Ühendriikides. Näiteks on USA kohtus jõutud otsuseni, mis nõuab ettevõttelt isikuandmeid sisaldava info kustutamist, sest kohus leidis, et isikuandmete töötlemine polnud õiguspärane. Kuna mudelite treenimine ja väljatöötamine on tavaliselt aastatepikkune töö, mis võib vahel maksta lausa miljoneid eurosid, võib selline nõue olla ettevõtte jaoks hävitav. Tuleb arvestada, et Ameerika Ühendriikides isikuandmete kaitse üldmäärust ega sellega samaväärset isikuandmete kaitse regulatsiooni ei ole ning Ameerika Ühendriikides on andmekaitse regulatsioon võrreldes Euroopa omaga oluliselt leebem. Eeltoodut on korduvalt kinnitanud Euroopa Kohus, kes on enda otsustes pidanud USA-t ebapiisava andmekaitsetasemega riigiks. Euroopas tuleb arvestada ka võimalike trahvidega. Euroopa Liidus ja
Eestis kehtiva regulatsiooni järgi võib isikuandmete töötlemise põhimõtete rikkumise korral karistada rikkujat kuni 20 000 000 euro suuruse rahatrahviga või trahviga, mis moodustab kuni 4% ettevõtte kontserni ülemaailmsest käibest.
Tulevikuks valmistumine
Kuigi tehisintellekti kasutamisega kaasnevale andmetöötlusele kohaldub isikuandmete kaitse üldmäärus, ei leia olemasolevast regulatsioonist vastuseid paljudele küsimustele, mis tehisintellekti kasutamisega kaasnevad.
Milles seisnevad võimalikud ohukohad? Suuremahuline automatiseeritud andmetöötlus hõlmab endas mitmeid privaatsusega kaasnevaid riske. Tehisintellekti tehnoloogia võimaldab inimeste senisest oluliselt täpsemat jälgimist ja nende mõjutamist. Andmetöötluse abil on võimalik luua inimeste ülitäpseid profiile, mille põhjal saab ennustada inimese käitumist vahel paremini kui ta seda isegi oskaks. Sellise info alusel võib olla võimalik üksikisiku manipuleerimine ja ka tema tahte mõjutamine. Kõige tuntumaks näiteks in siin n-ö Cambridge Analytica skandaal, kus õigusvastane andmetöötlus otsustas USA presidendivalimiste tulemused. Samas on tehisintellektiga kaasneva andmetöötluse abil võimalik saavutada ka palju positiivseid eesmärke, alates kliimamuutuste pidurdamisest kuni haiguste ja terviseriskide ennustamiseni enne selgete sümptomite avaldumist, mis võimaldab meil elada pikemat ja tervemat elu.
Ilmselt on selge see, et tehisintelligent on tulnud selleks, et jääda. Tehisintellekti kasutamine tõstatab siiski palju eetilisi küsimusi, mis vajavad põhjalikku analüüsimist. Seega on selge, et Euroopa seadusandjad peavad lähiajal hakkama olemasolevaid regulatsioone täiendama. Sobivate regulatsioonide väljatöötamine saab olema väljakutse, kuna tuleb leida sobiv tasakaalupunkt, privaatsusõiguste kaitsmisel ning innovatsiooni ja tehnoloogia arengu edendamisel, et Euroopa ühingud ei oleks võrreldes muu maailma ettevõtetega ebavõrdses seisus.
Arvamuslugu ilmus 10. veebruaril Äripäevas.
Seotud teenused