Hegle Pärna ja Merlin Liis-Toomela: tehisaru kasutamine võib viia kohtuasjani

Kolme populaarseima keelemudeli kasutustingimusi sirvides nähtub, et autoriõiguste rikkumise korral vastutab enamjaolt pahaaimamatu tehisaru kasutaja, samuti pole nende juures tagatud konfidentsiaalsust. Ellex Raidla eksperdid Hegle Pärna ja Merlin Liis-Toomela kirjutavad, mida teha, et roboti abi karuteeneks ei osutuks.

Enamik keelemudelite (ChatGPT, Bard, Microsoft CoPilot) arendajaid on loonud eraldi kasutustingimused Euroopa Majanduspiirkonna (EMP), Šveitsi ja Ühendkuningriigi kasutajatele. Kõikide olulisemate arendajate – OpenAI, Microsoft ja Google – kasutustingimused sisaldavad mitmeid õiguslikult keerulisi nüansse, mida tuleks robotit ärilisel eesmärgil rakendades silmas pidada.

ChatGPT looja OpenAI tingimused asetavad peamise kasutamisest tuleneva õigusliku riski otseselt mudeli kasutajale. ChatGPT kasutustingimuste järgi vastutab keelemudeli kasutaja (konto looja) selle eest, et keelemudeli väljund ei rikuks kehtivaid seadusi. See tekitab aga hulgaliselt õiguslikke ja eriti autoriõiguslikke küsimusi. Kui kasutajal puudub selgus, missuguseid andmeid on kasutatud konkreetse mudeli arendamiseks, sh kas nende hulka kuulub autoriõigustega kaitstud kirjutisi või fotosid, siis on keeruline ka kindlaks teha, kas roboti loodud väljund võib rikkuda mõne kolmanda isiku autoriõigusi. Ka Google Bardi tingimustest avaldub sarnane riskide jaotus.

Autoriõiguste võimaliku rikkumise osas on ChatGPT looja OpenAI vastu algatatud USAs ka mitu kohtuasja. Kõige märgilisem on ilmselt New York Timesi kohtuasi OpenAI vastu. Selle puhul seisneb küsimus just võimalikus autoriõiguste rikkumises seoses ChatGPT arendamiseks kasutatud treeningandmetega, mille kasutamine ei pruugi olla seadusega kooskõlas. Üheski säärases kohtuasjas pole praeguseks veel lahendini jõutud.

Sarnastest kohtuasjadest ei pruugi tulevikus pääseda ka siinpool Atlandi olevad mudeli kasutajad. Kui ettevõte kasutab ärilistel eesmärkidel teost, mille on loonud mõni keelemudel, mida treeniti autoriõigustega kaitstud teoste abil, võib see avada tee kohtuvaidlusteks. Microsoft on enda loodud CoPiloti kasutamisest tingitud hädade leevendamiseks loonud juba spetsiaalse süsteemi: ettevõte lubab teatud juhtudel võtta vastutuse, kui nende mudeli kasutajal tekib selle viisipärase kasutamise tulemusel autoriõigustega seotud vaidlus.

Peale intellektuaalset omandit puudutavatele teemade on kasutustingimustes veel tähelepanu vajavaid sätteid, mis puudutavad andmekaitset, privaatsust ning konfidentsiaalsust.

Näiteks on ChatGPT tingimustes punkt, mille järgi võib selle keelemudel kasutada enda arendamiseks ja parandamiseks ka kasutajate sisendit. Mudelite loojate kasutustingimused tagavad inimestele küll ka nn opt out võimaluse ehk teisisõnu on võimalik kasutajatel hoiduda sellest, et kasutaja andmeid kasutatakse mudeli arendamiseks. See kehtib aga üksnes isikuandmete kohta. Peale selle leidub OpenAI tingimustes eraldi märge, et nad ei pruugi saada kasutaja sisestatud sisendandmeid kustutada ning hoiatus, et kasutajad ei jagaks mudelis delikaatset teavet.

Keelemudelite kasutustingimustest puuduvad ka konfidentsiaalsuse sätted. Seega ei ole kasutajale garanteeritud piisavat konfidentsiaalsust ega privaatsust, mis võimaldaks mudelit turvaliselt kasutada.

Konfidentsiaalse teabe keelemudelisse sisestamine võib paljudel juhtudel tähendada ka lepingulise kohustuse rikkumist – näiteks, kui mudeli kasutaja on oma kliendiga, kelle teavet ta kasutab, sõlminud eelnevalt konfidentsiaalsuslepingu.

Ka Google Bardi tingimustes on kirjas, et kasutajate andmeid võidakse kasutada Google toodete, teenuste ja masinõppetehnoloogiate arendamiseks. Vastupidiselt Google Bardile ja ChatGPT-le on Microsoft CoPiloti tingimustes esile toodud, et sisendandmeid ei kasutata mudelite treenimiseks ja arendamiseks. Samuti on Microsoft CoPilot oma tingimustes selgelt väljendanud, et nad järgivad kehtivaid privaatsuse ja turvalisusega seonduvaid nõudeid äriklientide ees, nagu näiteks isikuandmete kaitse üldmäärust (IKÜM/GDPR).

Kokkuvõtlikult, mudelite kasutamisel esineb hulk riske, mille maandamisele tuleks juba praegu mõelda. Esimese sammuna tuleks tõsta töötajate teadlikkust riskidest, korraldades näiteks asjakohaseid koolitusi. Ettevõttesiseselt tuleks paika panna tehisaru kasutamise reeglid ja juhendid, ka tuleks üle vaadata oma klientidega sõlmitud lepingud konfidentsiaalse teabe ja keelemudelite kasutamise reeglite osas.

Artikkel ilmus 09.02.2024 ERR portaalis.

Valdkonna eksperdid

Person Item Background
andmekaitse advokaat merlin liis-toomela
Merlin Liis-Toomela
Vandeadvokaat / Eesti
Person Item Background
Andmekaitse jurist Hegle Pärna
Hegle Pärna
Jurist / Eesti