ŽURNĀLS Skaidrojumi. Viedokļi

2. Maijs 2023 /Nr.18/19 (1284/1285)

Viedo sistēmu operatoru vainojamības modelis
Mg. iur.
Ritvars Purmalis
Latvijas Universitātes Juridiskās fakultātes doktorants 
Dr. iur.
Jānis Kārkliņš
Latvijas Universitātes Juridiskās fakultātes Civiltiesisko zinātņu katedras profesors 

Ievads

Ir vairāki iemesli, kādēļ ir jo īpaši svarīgi normatīvā līmenī regulēt mākslīgā intelekta vadītu sistēmu izmantošanu, nosakot skaidru piemērojamās atbildības sadalījumu gadījumā, ja šādas sistēmas darbības rezultātā ir nodarīts kaitējums. Pirmkārt, ir nepieciešams nodrošināt ikvienas personas tiesību uz privātumu aizsardzību. Proti, mākslīgā intelekta vadītas sistēmas kļūst arvien attīstītākas un integrētākas mūsu ikdienas dzīvē, tām ir piekļuve aizvien lielākam personas datu apjomam, kas tiek izmantots to darbības nodrošināšanai. Turklāt šādām sistēmām pieejamais datu kopums ir kā pamats turpmāko iespējamo lēmumu pieņemšanai, kuriem turklāt var būt tieša vai netieša ietekme uz konkrētas personas dzīvi, piemēram, nosakot attiecīgās personas kredītspēju vai arī priekšlaicīgi nosakot, vai attiecīgā persona būs piemērota ieņemamā amata pienākumu izpildei u.c. Līdz ar to, ja ar atbilstošu "spēles noteikumu" starpniecību netiek regulēta šādu sistēmu izstrādes un pielietošanas kārtība, jau sākotnēji bez ievērības tiek atstāts, ka mākslīgā intelekta vadītai sistēmai pieejamais datu kopums (ar augstāku un zemāku iespējamības pakāpi) var tikt interpretēts (apstrādāts) nepareizi vai arī izmantots ļaunprātīgos nolūkos, tādējādi nodarot iepriekš neparedzamu kaitējumu kādai konkrētai personai. Otrkārt, ir nepieciešams nodrošināt, ka šāda veida sistēmu izstrādē tiek ievērotas konkrētas prasības, lai tās būtu iespējami drošas un to darbība būtu caurredzama. Minētais sekmētu noteiktību jautājumos, kas saistīti ar mākslīgā intelekta vadītu sistēmu izstrādi un to atbilstību sagaidāmiem kvalitātes standartiem, tādējādi veicinot sabiedrības uzticēšanos kopumā. Treškārt, ir jo īpaši svarīgi ieviest noteiktību šādu sistēmu operatoru atbildības konstatēšanas metodoloģijā, lai tā rezultātā, no vienas puses, tiktu līdzsvarotas ar mākslīgā intelekta vadītu sistēmu darbību saistīto personu, lietotāju un citu trešo personu tiesiskās intereses, savukārt no otras – nepamatoti neierobežotu turpmāku tehnoloģisko progresu.

Minētais cita starpā saskan arī ar publiskas aptaujas datiem, no kuriem izriet, ka civiltiesiskās atbildības regulējums un tā atšķirības starp Eiropas Savienības dalībvalstīm ir viens no primārajiem iemesliem, kas ierobežo vai attur uzņēmumus to sniegtajos pakalpojumos ieviest šāda veida sistēmas.1 Raksta mērķis ir sniegt vērtējumu par mākslīgā intelekta vadītu sistēmu (viedo sistēmu) operatoru civiltiesiskās atbildības noteikšanu vainojamības modeļa ietvarā, īpašu uzmanību pievēršot diviem dokumentiem – Eiropas Komisijas 2021. gadā izsludinātajam priekšlikumam regulai ar nosaukumu "Mākslīgā intelekta akts"2 un 2022. gada izskaņā publicētam priekšlikumam direktīvai ar nosaukumu "Mākslīgā intelekta direktīva".3 Ar šiem aktiem cita starpā ir paredzēts noteikt kārtību, kādā mākslīgā intelekta vadītas sistēmas operatoram ir pienākums cietušajai personai izpaust tās rīcībā esošo informāciju par kaitējumu nodarījušās sistēmas darbību, kā arī par to, kādā veidā būtu piemērojama mākslīgā intelekta vadītas sistēmas operatora vainojamības prezumpcija gadījumā, ja noteiktas prasības no minētās sistēmas operatora puses netiek izpildītas.

Lasītājiem par pārsteigumu vēlamies norādīt, ka raksta ievada pirmo rindkopu nav sarakstījuši ne šī raksta autori, ne arī kāds cits cilvēks, bet gan tehnoloģija, kas balstīta mākslīgā intelekta koncepcijā (liela daļa šo tekstu tagad pārlasīs vēlreiz ar lielāku uzmanību). Ievada sākums pirmo reizi Latvijas tiesību literatūras vēsturē ir radīts, izmantojot šādu tehnoloģiju, proti, GPT 34 sistēmas pašģenerēto atbildi uz autoru jautājumu par to, kādēļ no juridiskās noteiktības viedokļa ir svarīgi regulēt mākslīgā intelekta vadītu sistēmu darbību. Vienlaikus pēc sākotnējās atbildes saņemšanas autori GPT 3 sistēmai adresēja pakārtotu jautājumu, lūdzot GPT 3 sistēmu izskaidrot, vai pati GPT 3 sistēma ir spējīga apzināties sniedzamo atbilžu saturu, kas tiek ģenerēts atbilstoši platformas lietotāja sniegtajiem ievaddatiem (t.i., lietotāja uzdotajam jautājumam). Tika saņemta šāda atbilde, kas tiek citēta šeit netulkotā veidā, lai lasītājiem uzskatāmi demonstrētu mākslīgā intelekta izmantotos jēdzienus un no tiem veidoto domas (?) izteikšanās dziļumu: "As a machine learning model, GPT-3 does not have consciousness or self-awareness. It does not have the ability to perceive its environment, have emotions, or experience consciousness.

komentāri
0 KOMENTĀRI
TAVA ATBILDE :
VĀRDS
3000
IENĀKT:
KOMENTĒŠANAS NOTEIKUMI
visi numura raksti
Uldis Ķinis
Skaidrojumi. Viedokļi
Mākslīgā intelekta ietekme juridiskās izglītības procesā: iespēja vai apdraudējums
Šī raksta mērķis ir izanalizēt MI ietekmi uz juristu sagatavošanas procesu, noskaidrot Chat GPT atbildes par to, ko rīks "domā" par savām priekšrocībām un arī iespējamiem trūkumiem, kas varētu ietekmēt juristu apmācības procesu, ...
Inga Sazonova
Skaidrojumi. Viedokļi
Tehnoloģijas un darba devēja veiktā personas datu apstrāde
Raksta mērķis ir sniegt vispārīgu skaidrojumu par darba devēja veikto darbinieku personas datu apstrādi, vēršot uzmanību uz atsevišķiem aspektiem, kuri darba devējam ir jāizvērtē pirms katras darbinieku datu apstrādes veikšanas.
Anna Bogdanova
Skaidrojumi. Viedokļi
Vai darba devējiem vajadzētu aizvietot caurlaides ar biometrijas risinājumiem
Anna Vladimirova-Krjukova
Skaidrojumi. Viedokļi
Kā ieguldīt mākslīgajā intelektā un neapdraudēt citus
Zanda Dāvida
Skaidrojumi. Viedokļi
Mākslīgā intelekta godīgas izmantošanas pierādīšanas pienākums patērētāju tiesībās
AUTORU KATALOGS