Šogad stājās spēkā pasaulē pirmais visaptverošais mākslīgā intelekta (MI) regulējums – Eiropas Savienības Mākslīgā intelekta akts, kas ir saistošs arī Latvijai.
Atsevišķos jautājumos dalībvalstīm būs tiesības vai pienākums veikt precizējumus, un akta ieviešana noritēs pakāpeniski, līdz 2027. gada vasarai. Precizējot akta prasības nacionālā līmenī, svarīgi neatkārtot kļūdas, ko pieļāvām ar Vispārīgās datu aizsardzības regulu, nonākot pārlieku lielā birokrātijas slogā. Mākslīgā intelekta akta mērķis ir nodrošināt, ka MI sistēmas tiek izstrādātas un izmantotas godprātīgi, taču ir svarīgi savlaicīgi parūpēties, lai visa atbildība netiek pārlikta uz sistēmu izstrādātāju pleciem, ietekmējot konkurenci un digitalizācijas tempus.
Domājot par Mākslīgā intelekta akta ietekmi uz digitalizāciju kopumā, sistēmu izstrādes kvalitāti un izmaksām, svarīgi vispirms atcerēties, kāpēc šāds akts bija nepieciešams un kādi ir tā mērķi. Nepieciešamība pēc šāda regulējuma radās, jo, līdztekus daudziem pozitīviem ieguvumiem no MI, pastāv iespējas to izmantot arī ļaunprātīgi, piemēram, radot MI rīkus, ko var pielietot manipulācijā vai sociālajā kontrolē. Vienkārši sakot, jaunais akts radīts, lai sekmētu ētisku, drošu, caurspīdīgu un uzticamu MI izmantošanu.
Sistēmu iedalījums četros riska līmeņos
Mākslīgā intelekta akts iedala visas MI sistēmas četros līmeņos: nepieņemams risks, augsts risks, ierobežots risks un minimāls risks. Jaunais regulējums pilnībā aizliedz tādas mākslīgā intelekta sistēmas, kas tiek uzskatītas par nepārprotamu apdraudējumu cilvēku drošībai, iztikas līdzekļiem un tiesībām, sākot ar valdību veiktu sociālo vērtēšanu, kāda, piemēram, tiek īstenota Ķīnā, un beidzot ar rotaļlietām, kurās ar balss palīdzību tiek veicināta bīstama uzvedība. Tās iekļaujas kategorijā “nepieņemams risks”. Uz augsta riska sistēmām, piemēram, kritisko infrastruktūru, MI izmantošanu ķirurģijā, eksāmenu vērtēšanu, programmatūru darbā pieņemšanas procedūrām vai migrācijas, patvēruma un robežkontroles pārvaldībai, attieksies visstingrākās prasības. Tālāk seko ierobežota riska sistēmas, piemēram, sistēmas, kas ierosina produktus, pamatojoties uz lietotāja iepriekšējiem pirkumiem vai meklēšanas vēsturi, virtuālie asistenti, tulkošanas sistēmas u.tml. Visbeidzot jāmin arī zema riska sistēmas, piemēram, filtri e-pastiem surogātpasta un nevēlamā satura atpazīšanai.
Ņemot vērā, ka Mākslīgā intelekta akts par prasību neievērošanu paredz sankcijas, tostarp ievērojamus naudas sodus, tas būtiski ietekmēs IT sistēmu izstrādes un ieviešanas procesu. Izstrādātājiem un ieviesējiem būs ļoti svarīgi izprast šī akta noteikumus par atļautajām un aizliegtajām darbībām dažādās situācijās, tomēr vienlīdz svarīgi, lai arī sistēmu pasūtītāji jeb īpašnieki, tostarp, valsts, izprot akta mērķus un nerada pārlieku sarežģītu birokrātisko slogu.
Nezaudēt priekšrocības digitalizācijas jomā
Analizējot situāciju MI izmantošanas un digitalizācijas jomā ES, varam secināt, ka Latvija ir priekšā vairākām Rietumeiropas valstīm, piemēram, Vācijai, ieviešot un uzturot dažādas kritiskās infrastruktūras sistēmas, padarot pieejamus valsts pakalpojumus u.tml. Svarīgi nesabojāt šo situāciju un neatkārtot kļūdas, ko pieļāvām, ieviešot Vispārīgo datu aizsardzības regulu – pārprotot daudzas regulas prasības, tika apgrūtināti ne tikai dažādi IT nozares procesi, bet arī ierobežots žurnālistu darbs. Ar īpaši lieliem izaicinājumiem saskaras tieši mazie un vidējie uzņēmumi, tāpēc šoreiz ir īpaši svarīgi pievērst uzmanību šai uzņēmumu kategorijai, meklējot risinājumus, lai samazinātu finansiālo un administratīvo slogu.
Sabalansēt inovācijas un juridisko atbildību
Piemēram, “Helmes Latvia”, kas ikdienā izstrādā IT risinājumus un sistēmas, tostarp, kritisko infrastruktūru arī valsts iestādēm, izmanto gan vispārzināmus mākslīgā intelekta rīkus, piemēram, ChatGPT, gan specializētus risinājumus efektīvai koda rakstīšanai, piemēram, GitHub Copilot. Papildus tam, regulāri pētām, pielāgojam un integrējam darbā jaunus rīkus un specifiskus mākslīgā intelekta modeļus. Līdzīgu praksi īsteno arī citi IT sistēmu izstrādātāji, tāpēc jau šobrīd aktīvi analizējam Mākslīgā intelekta akta ietekmi uz mūsu darbu. Uzņēmumiem, kuri izmanto MI, būs jāspēj sabalansēt inovācijas un juridiskā atbilstība.
Jau sistēmu izstrādes procesā būs jāveic sākotnējais riska novērtējums, jāievieš procedūras, kas nodrošina datu izsekojamību, kvalitātes kontroles mehānismus, jāuztur detalizēta tehniskā dokumentācija visā izstrādes ciklā u.tml. Atbildībai par Mākslīgā intelekta akta prasību ievērošanu viennozīmīgi jābūt dalītai starp sistēmas turētāju jeb īpašnieku, kas daļā gadījumā ir arī valsts un pašvaldību iestādes, un izstrādātāju. Ja lielākais slogs un riski gulsies tikai uz izstrādātāju pleciem, tas var radīt situāciju, kad atbildīgi izstrādātāji nebūs gatavi piedalīties dažādu IT sistēmu izstrādē, un, samazinoties konkurencei, var ciest arī kvalitāte. Situāciju apgrūtina arī fakts, ka sodi par akta prasību pārkāpumiem tiek aprēķināti kā procentuāla daļa no uzņēmuma kopējā gada apgrozījuma iepriekšējā finanšu gadā. Tas nozīmē, ka sods par pārkāpumu uzņēmumam var izmaksāt vairāk, nekā visa attiecīgā izstrādes projekta kopējās izmaksas.
Tas ir arī viens no iemesliem, kādēļ iesaistījāmies Mākslīgā intelekta Latvijas asociācijas dibināšanā – lai sekmētu atbildīgu MI izmantošanu, veicinātu starpvalstu sadarbību un pieredzes apmaiņu, kā arī dalītos pieredzē un zināšanās arī ar valsts institūcijām. Asociācija var būt spēcīgs un profesionāls partneris valstij, domājot par Mākslīgā intelekta akta ieviešanas procesu un prasību samērīguma nodrošināšanu, lai MI lietošana būtu atbildīgāka, bet tajā pašā laikā nesamazinātos digitalizācijas tempi.