ES Mākslīgā intelekta akts : inovatīvs risinājums tiesību aizsardzībai digitālajā pasaulē

2021. gada maijā Eiropas Komisija nāca klajā ar inovatīvu priekšlikumu regulai, kas nodrošinātu saskaņotu pieeju mākslīgā intelekta regulēšanā, vienlaikus veicinot tā izaugsmi un drošumu.[1] Priekšlikums bija daļa no plašākas Komisijas iniciatīvu paketes ar mērķi padarīt Eiropas Savienību par līderi droša un ētiska mākslīgā intelekta inovāciju attīstībā un pielietošanā.[2] Jaunais priekšlikums līdz šim ir saņēmis gan uzslavas, gan arī kritiku, jo ir pirmais sava veida mēģinājums pasaulē izstrādāt mākslīgo intelektu regulējošu normatīvo aktu.[3] Kopš priekšlikuma publicēšanas tas ir pieredzējis dažādas izmaiņas, un 2023. gada 14. jūnijā Eiropas Parlaments veica būtiskus grozījumus Mākslīgā intelekta aktā (turpmāk tekstā – MI Akts).[4] Tālāk MI Aktu sagaida tā saucamais “trialogs”, jeb likumdošanas pēdējais posms, kur Eiropas Parlaments, Padome un Komisija turpina sarunas par MI akta saturu.

[4] Eiropas Parlamenta pieņemtie grozījumi COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) priekšlikumā Eiropas Parlamenta un Padomes regulai , kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus, pieņemti: 14.06.2023.

Pagaidām tiek paredzēts, ka MI Akts nestāsies spēkā līdz pat 2026. gadam.[5] Turklāt trialoga posmā vēl ir paredzamas izmaiņas tā saturā. Bet jau šobrīd ir zināmas būtiskas atziņas par MI Akta darbību un tvērumu, kas ir sagaidāmas ES, tādēļ rakstā tiks apskatīti līdz šim izvirzītie mērķi MI Akta saturā.

Būtiskākās atziņas no MI Akta. Kā galveno mērķi MI Akta izstrādē ES likumdevējs ir minējis harmonizētu pieeju starp stingrākiem nosacījumiem mākslīgā intelekta sistēmu (turpmāk tekstā – MI sistēma) regulēšanā sabiedrības aizsardzībai, tai pašā laikā nodrošinot to netraucētu attīstību un inovāciju iespējas ES tirgū. MI Akts tiks attiecināts uz ES un arī ārpus ES esošajiem komersantiem un organizācijām, kuru MI sistēmas tiks izmantotas ES teritorijā, vai arī tiks piedāvātas/attieksies uz MI sistēmu lietotājiem. Tādējādi MI Akts nodrošinās, ka ikviena MI sistēma, kas piedāvās savus risinājumus ES teritorija, tiks pakļauta tādiem pašiem nosacījumiem kā ES ražotās un izgudrotas MI sistēmas. MI Aktu varētu iedalīt 7 būtiskākajās atziņās, kas tieši sagaida MI sistēmas:

  1. saskaņoti noteikumi par MI sistēmu laišanu tirgū, nodošanu ekspluatācijā un izmantošanu ES;
  2. noteikti mākslīgā intelekta prakses aizliegumi;
  3. īpašas prasības augsta riska MI sistēmām un pienākumus tādu sistēmu operatoriem;
  4. saskaņoti pārredzamības noteikumi par MI sistēmām, kas paredzētas saskarsmei ar fiziskām personām, emociju uztveršanas sistēmām un biometriskās kategorizācijas sistēmām, kā arī MI sistēmām, ko izmanto, lai radītu vai manipulētu ar attēlu, audio vai video saturu;
  5. regulatīvās smilškastes mākslīgā intelekta inovāciju drošai attīstībai un izvērtēšanai;
  6. tirgus kontroles un uzraudzības noteikumi;
  7. papildu ierobežojumi lielajiem valodu modeļiem kā ChatGPT un citi.

Kas uzskatāms par mākslīgā intelekta sistēmu? Nesenie papildinājumi MI Akta tekstā ir sašaurinājuši MI sistēmas definīciju, attiecinot to vienīgi uz sistēmām, kas izstrādātās, izmantojot mašīnmācīšanās pieejas un uz loģiku un zināšanām balstītas pieejas.[6] Sākotnēji likumdevēja piedāvātā MI sistēmas definīcija bija plašāka un grūti nošķirama no vienkāršām programmatūras sistēmām.[7] Tādējādi ir precizēts un skaidrāk definēts MI sistēmas tvērums.

Būtiski ir norādīt, ka MI Akts nav tieši attiecināms uz MI sistēmu modeļiem, bet gan uz to izstrādes procesu un iesaistītajām personām, kas attīsta un izstrādā MI sistēmas. Šāda pieeja ir pamatota ar straujo MI sistēmu attīstību, kā dēļ ir sarežģīti ar normatīvo regulējumu aptvert gan esošās, gan arī nākotnē potenciāli izgudrotās sistēmas, kas šobrīd vēl nav iedomājamas.

Dažādi nosacījumi dažādiem riska līmeņiem. MI Akts nodala MI sistēmas pēc to izmantošanas riska, iedalot tās zema, vidēja, augsta riska, kā arī aizliegtajās MI sistēmās. Zema riska sistēmas kā surogātpasta filtri un inventarizācijas pārvaldības sistēmas nebūs pakļautas papildus nosacījumiem. Savukārt vidēja riska sistēmas tiks pakļautas pārredzamības un drošības ierobežojumiem.

Aizliegtās MI sistēmas. Par aizliegtām MI Akta izpratnē būtu atzīstamas tādas sistēmas, kas ir pretrunā ar ES pamatvērtībām un rada nepamatoti augstu risku, tādēļ šādu sistēmu izmantošana ES tirgū ir kategoriski aizliegta. Aizliegtas ir, piemēram, tādas MI sistēmās, kas:

  • manipulē ar personas uzvedību vai rīcību, radot fizisku vai psiholoģiju kaitējumu personai vai tai apkārtesošajiem, piemēram, ar MI sistēmu vadīti implanti u.c.;
  • ļaunprātīgi izmanto noteiktu personu grupu neaizsargātību, radot fizisku vai psiholoģisku kaitējumu;
  • izvērtē vai klasificē fizisku personu uzticamību pēc to sociālās piederības vai sensitīvām cilvēku iezīmēm kā dzimums, rase utt., un potenciāli var tikt izmantotas, lai veidotu sejas atpazīšanas datubāzes, piemēram, lai veiktu personu novērošanu;
  • iepriekš paredzētu administratīvo vai kriminālpārkāpumu riskus, piemēram, ar mākslīgo intelektu apmācītas sistēmas novērošanas kamerām, kā arī ar MI sistēmas palīdzību izveidotas kartes ar augstākajiem noziedzības rajoniem;
  • tiek izmantotas sociālās vērtēšanas, lai veidotu uzticamības līmeņus, piemēram, mākslīgā intelekta sistēmas darba intervijās, kredītu izsniegšanai; u.c. sistēmas[8].

Augsta riska sistēmas. MI Akta izpratnē ar augsta riska sistēmām tiek saprastas tādas MI sistēmas, kas rada augstu risku fizisko personu veselībai, drošībai vai citām tiesībām.[9] Lai augsta riska MI sistēmas tomēr varētu tikt piedāvātas ES tirgū, tām ir jānodrošina darbību uzskaite, kā arī cilvēku uzraudzība pār sistēmas darbību, sasniedzot atbilstošu kiberdrošības, precizitātes un stabilitātes līmeni. Datiem, ko izmantotu MI sistēmas apmācībai, validēšanai un testēšanai, būtu jānodrošina droša datu pārvaldība atbilstoši ES Vispārīgajai datu aizsardzības regulai, kā arī pašiem datiem jābūt pilnīgiem, bez diskriminējoša rakstura un bez maldinošas informācijas.[10]

Tāpat pirms augsta riska AI sistēmas laišanas tirgū vai nodošanas ekspluatācijā, pakalpojumu sniedzējam savai MI sistēmai būs jānodrošina atbilstības novērtēšanas procedūra. Atsevišķas augsta riska MI sistēmas būs nepieciešams reģistrēt Eiropas Komisijas uzturētā un sabiedrībai pieejamā datubāzē.

Augsta riska piemērošanas prasības tiks attiecinātas arī uz vispārēja lietojuma MI sistēmām, proti, sistēmām, kas pielietojamas dažādiem mērķiem, un tādējādi var tikt izmantota arī augsta riska mērķim. Ņemot vērā, ka vispārējā lietojuma MI sistēmas guva popularitāti laikā, kad pirmais MI Akta uzmetums jau bija iesniegts balsojumam, nesenie grozījumi MI Aktā ir papildināti ar tādu vispārējo MI sistēmu kā ChatGPT regulēšanu.

Uzlabojumi lielo valodu modeļu regulēšanā. Nesenie grozījumi skāra arī plaši apspriestos lielo valodu modeļus kā ChatGPT, OpenAI, Bard u.c. Šobrīd MI Akts paredz drošības pārbaudes, datu pārvaldības un risku mazināšanas pasākumus pirms modeļa laišanas apgrozībā. Tāpat MI Akts nosaka lielo valodu modeļiem atklāt MI sistēmas radītu saturu, kā arī ievērot, lai modeļa apmācībai izmantotie mācību dati nepārkāptu autortiesības.

Uzlabojumi autortiesību aizsardzībā. Nesenie grozījumi MI Aktā pievēršas arī autortiesību aizsardzībai darbiem, ko izmanto vispārējo MI sistēmu apmācībai. Ar jaunajiem grozījumiem ir paredzēts, ka vispārējām MI sistēmām būs pienākums atklāt, kādi ar autortiesībām aizsargāti darbi ir tikuši izmantoti MI sistēmas apmācīšanai. Šie grozījumi visdrīzāk ir ES likumdevēju mēģinājums reaģēt uz vairākiem jau esošiem strīdiem ārvalstīs, piemēram, lietās Getty Images v. Stability AI[11] un Paul Tremblay and Mona Awad v. OpenAI[12], kur autortiesību īpašnieki ir vērsuši prasības pret MI sistēmu izstrādātājiem, apgalvojot, ka tie prettiesiski izmantojuši tiem piederošos darbus savu MI sistēmu apmācībai. Tomēr jāatzīst, ka ar šiem grozījumiem vien visdrīzāk nebūs pietiekami, lai regulētu ar autortiesību jautājumiem saistīto problemātiku, ko šobrīd un nākotnē radīs MI sistēmas. Līdz ar to autoriem un MI sistēmu radītājiem un izmantotājiem būtu ieteicams rūpīgi sekot līdzi MI Akta, kā arī Latvijas un ES tiesu prakses attīstībai autortiesību jautājumos.

Atbildība. Šobrīd MI Akta projekts sevī ietver arī administratīvos sodus par pārkāpumiem, kas var sasniegt 30 miljonus eiro vai 2 līdz 6% no uzņēmuma gada apgrozījuma. Izvērtējot soda apmēru, tiks ņemti vērā vairāki faktori, tostarp pārkāpuma raksturs, smagums, ilgums un tā radītās sekas, kā arī pārkāpēja lielums un tirgus daļa un vai soda naudu jau ir piemērojusi cita iestāde.[13]

Regulatīvās smilškastes. Lai radītu MI inovācijām vēlamu vidi, ES likumdevējs ir paredzējis mehānismu, kas palīdzētu MI sistēmas izmēģināt tā saucamajās regulatīvajās smilškastēs. Minētajās smilškastēs būs iespējams testēt un apstiprināt MI sistēmas dalībvalsts kompetento iestāžu uzraudzībā. Turklāt nesenie grozījumi paredz arī neuzraudzītu MI sistēmu testēšanu vidē, ievērojot piesardzības pasākumus un īpašus nosacījumus.[14]

Secinājumi. MI Akts ir visaptveroša un drosmīga ES iniciatīva mēģinājumā regulēt jomu, kuras attīstība notiek krietni straujākos tempos, kā ieraduši likumdevēji. Ja ES vēlas kļūt par vadošo spēlētāju mākslīgā intelekta jomā, tai ir jāspēj radīt mākslīgā intelekta sistēmu attīstībai draudzīga vide, kas vienlaikus nodrošinās to lietotāju aizsardzību. Šajā jomā ES gaida asa sacensība ar Ķīnu[15], ASV[16], Lielbritāniju[17] un citām valstīm, kas arī ir uzsākušas sava mākslīgā intelekta regulējuma izstrādi un ieviešanu.

Vērtējot nesen veiktos grozījumus MI Akta saturā, ir redzami būtiski uzlabojumi likumdevēja pieejā. Tas, piemēram, atspoguļojas ES likumdevēja centienos uz karstām pēdām papildināt MI Aktu ar lielo valodu modeļu papildu regulējumu. Arī turpmāk MI akta izstrādes procesā un pēc tā ieviešanas ES likumdevējam būtu jāsaglabā augsta fleksibilitāte, veicot nepieciešamos papildinājumus tā saturā un piemērošanas praksē. Vienlaikus ES likumdevējam būtu jāatrod pareizais līdzsvars starp MI sistēmu izstrādātāju un lietotāju interesēm. Jau šobrīd MI sistēmu izstrādātāju vidū ir radušās bažas, vai MI Akts nav pārāk ierobežojošs un tādējādi pilnībā nenoslēgs ES tirgu MI sistēmām. Tomēr, vai MI Akts dos nepieciešamos rezultātus, kādi ir nostiprināti tā mērķī, būs zināms vienīgi, kad akts būs piemērojams arī dzīvē. Vienlaikus MI sistēmu izstrādātājiem un lietotājiem būtu ieteicams cieši sekot līdzi MI akta attīstībai, lai jau laikus varētu pielāgot savus produktus un MI sistēmu lietošanas praksi nākotnes regulējumam.

[1] Eiropas Komisijas priekšlikums COM(2021) 206 final Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus savienības leģislatīvos aktus, pieņemts: 21.04.2021.

[2] Eiropas Komisijas paziņojums COM(2018) 237 final, Mākslīgais intelekts Eiropai, pieņemts: 25.04.2018.

[3] B.A., EU AI Act: first regulation on artificial intelligence, European Parliament, pieejams: https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation on-artificial-intelligence?&at_campaign=20226 Digital&at_medium=Google_Ads&at_platform=Search&at_creation=RSA&at_goal=TR_G&at_advertiser=Webc mm&at_audience=artificial%20intelligence%20act&at_topic=Artificial_intelligence_Act&at_location=LV&gclid Cj0KCQjw_O2lBhCFARIsAB0E8B uIg2lMCmogPYRYA7KsF4Sb9TTFUGEwpJ2evh2J10jHT7bDl4veCgaAjNAEALw_wcB [aplūkots: 21.07.2023.]

[4] Eiropas Parlamenta pieņemtie grozījumi COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) priekšlikumā Eiropas Parlamenta un Padomes regulai , kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus, pieņemti: 14.06.2023.

[5] Strobel E., Takhar J., Harford K., What’s next for the EU AI Act?, pieejams: https://www.lexology.com/library/detail.aspx?g=98cb5b71-9ba6-4da4-b44c-e997e58d788d [aplūkots: 22.07.2023.]

[6] ES Padomes paziņojums presei, Mākslīgā intelekta akts: Padome aicina veicināt drošu MI, ar ko ievērotas pamattiesības, pieejams: https://www.consilium.europa.eu/lv/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/ [aplūkots: 24.07.2023.]

[7] Eiropas Komisijas priekšlikums COM(2021) 206 final Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus savienības leģislatīvos aktus, pieņemts: 21.04.2021., 3.pants.

[8] Eiropas Parlamenta pieņemtie grozījumi COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) priekšlikumā Eiropas Parlamenta un Padomes regulai , kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus, pieņemti: 14.06.2023., 5.pants

[9] Turpat, II., III. pielikums

[10] Turpat, 6. pants

[11] GETTY IMAGES (US), INC. v. STABILITY AI, INC., United States district court for the district of Delaware case No. 1:23-cv-00135-UNA, filed 02.03.2023.

[12] Paul Tremblay and Mona Awad v OpenAI, United States district court Northen district of California San Francisco division case No. 3:23-cv-03223, filed 28.06.2023.

[13] Eiropas Parlamenta pieņemtie grozījumi COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) priekšlikumā Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus, pieņemti: 14.06.2023., 56 līdz 72. pants

 

Publikācija itesības.lv

Jomas eksperti

Person Item Background
Edvijs Zandars
Asociētais partneris, zvērināts advokāts / Latvija