30. Aprīlis 2024 /NR. 18/19 (1336/1337)
Skaidrojumi. Viedokļi
Pamattiesību harta un mākslīgais intelekts – vai tiešām cilvēktiesību beigu sākums?
LL.M. (Eiropas un starptautiskajās tiesībās)
Ilona Čeiča
 

Nepieciešamība un vēlme regulēt mākslīga intelekta (turpmāk – MI) jomu, sniedzot vērtējumu caur cilvēktiesību1 prizmu, ir savā veidā unikāls līdzeklis, kā panākt, lai MI savā attīstībā ņem vērā cilvēktiesību augsto standartu, tādējādi samazinot tā darbības potenciālo un pēc tam novēršamo kaitējumu. Šāda pieeja ir visai unikāla, ņemot vērā, ka līdzšinējā pasaules progresā cilvēktiesības biežāk ir reaģējušas uz jau radītu kaitējumu, nevis ir izmantotas kā līdzeklis iespējamas kaitīgas ietekmes novēršanai jau izejas punktā.

Šeit varētu tikt izteikts pretarguments, ka MI sākotnēji ir cilvēka radīts un ka ab initio ir iespējams šādu kaitējumu novērst. Tomēr, tā kā cilvēka intelektam ir raksturīga iekšēja neobjektivitāte lēmumu pieņemšanā, šādas iezīmes var atrast arī MI produktos, kas darbojas ar cilvēka radītu intelektu.2

Literatūrā par MI bieži parādās arī ētikas jautājums. Kā 2019. gadā augsta līmeņa ekspertu darba grupa (AI HLEG) norādīja savā ziņojumā "Ētikas vadlīnijas uzticamam [MI]", "uzticamam [MI] ir trīs iezīmes, kas ir jāievēro visā sistēmas dzīves ciklā: a) tam jābūt likumīgam un jāievēro visi piemērojamie normatīvie akti; b) tam jābūt ētiskam – jānodrošina ētikas principu un vērtību ievērošana; c) tam jābūt noturīgam no tehniskā un sociālā viedokļa, jo [MI] sistēmas var nodarīt netīšu kaitējumu pat tad, ja nodomi ir bijuši labi".3 Eiropas Savienības (turpmāk – ES) Pamattiesību hartā (turpmāk – Harta) ētikas jēdziens nav sastopams un nav arī tur meklējams. Iespējami tuvākās ētikas normu saturam ir atsauces Hartas preambulā uz kopējām vērtībām un tikumisko mantojumu. Kopējās vērtības un tikumiskais mantojums ir tiesas interpretācijas jautājums. Starp ētiku un pamattiesībām nav liekama vienlīdzības zīme. Tomēr varam teikt, ka ES pamattiesības ir ētikas imperatīvi.4

Kā norādīts prezidentvalsts5 secinājumos par Hartu saistībā ar MI un digitālajām pārmaiņām, ir svarīgi, ka MI projektēšanā un izstrādē "tiek garantēta Hartā noteikto pamattiesību ievērošana. Šādā kontekstā ir jārisina tādas problēmas kā nepārredzamība, sarežģītība, aizspriedumi, zināma neprognozējamības pakāpe un daļēji autonoma rīcība, lai nodrošinātu to, ka automatizētās sistēmas ir saderīgas ar pamattiesībām, un lai atvieglotu tiesību normu izpildi".6 Šo uzskaitījumu varētu papildināt ar nenoliedzamu faktu, ka globālās konkurētspējas nolūkos ES cenšas tehnoloģiju progresā neatpalikt no citās pasaules daļās notiekošā MI jomā un pēc 2021. gada datiem apmēram 13 % globālā MI tirgus spēlētāju atrodas ES.7 ES sapratne par to, ka MI joma pilnīgi noteikti ir regulējama, un ciešā apņēmība to paveikt ir visnotaļ uzteicama, tomēr minētie 13 % parāda, ka 87 % pārējo globālā MI tirgus spēlētāju atrodas citos plašās pasaules reģionos, kuros MI normatīvā un ētiskā regulējuma latiņa var būt ievērojami zemāka nekā ES. Spilgts piemērs tam ir Ķīna. Par pamattiesību un ētikas normu vērtību šajā valstī, šķiet, šaubu saprātīgam lasītājam nav.

Tomēr atgriezīsimies pie MI ētikas normām. Iespējams, ka centieni uzrakstīt vienojošu praktisku definīciju, kas ir MI ētika, būtu nolemti neveiksmei. Kā norādīts doktrīnā, atbalsts, kādu šobrīd saņem MI ētika, sasaucas ar to atbalstu, kas cilvēktiesībām bija 20. gadsimta 40. gados.8 Neviens nespēja pilnībā definēt to saturu, tomēr bija skaidrs, ka arī iztikt bez tām nebūs iespējams. Ar MI ētiku ir līdzīgi – mēs saprotam, ka MI joma ir jāregulē no vispārējās ētikas un cilvēktiesību un pamattiesību skatpunkta, tomēr pagaidām nespējam pateikt, kā tieši un kādā apmērā tas darāms. Precīzāk izsakoties, ir skaidrs, ka jau esošie cilvēktiesību un pamattiesību standarti ir uzreiz izmantojami MI sistēmu izstrādē, tomēr, redzot visai nepārliecinošo MI izstrādātāju attieksmi pret piemērojamām ētikas normām, ir izskanējušas bažas, ka panākt vēlamo standartu ieviešanu regulatīvā formā varētu būt vēl sarežģītāk.

Izpratnes trūkums par cilvēktiesību un pamattiesību nozīmību MI jomā labi redzams arī statistikā, jo tikai aptuveni 15 % organizāciju, valdību, pilsoniskās sabiedrības un starptautisko organizāciju MI izstrādē ņem par pamatu cilvēktiesības un pamattiesības. Neraugoties uz to, ka, piemēram, ANO augstais komisārs cilvēktiesībās ir norādījis, ka MI ir jābūt balstītam cilvēktiesībās, lielākā daļa valstu MI stratēģijās pamattiesības nav atspoguļotas pietiekami detalizēti.9

Cilvēktiesībām, neraugoties uz ievērojamu to attīstību no pagājušā gadsimta 40. gadiem, vēl arvien piemīt sarežģītības aura. Sabiedrībā tās tiek uzskatītas par komplicētu tiesību jomu, kas saprotama tikai šauram speciālistu lokam. Mēdz norādīt uz to mehānismu sarežģītību, ar kuriem ievieš cilvēktiesības un pamattiesības. Tomēr 2024. gadā šādas atsauces būtu jāuzskata drīzāk par mītiskām, tieši ņemot vērā cilvēktiesību un pamattiesību attīstību pēdējās desmitgadēs un faktu, ka laikmetīga un sociāli atbildīga korporatīvā pasaule, ja tā tiek balstīta ētikas apsvērumos, nebūtu īsti iedomājama bez cilvēktiesību komponentes. Izpratnes līmenis par šo komponenti gan var ievērojami atšķirties, saglabājoties viedoklim, ka cilvēktiesības aizsargājot "nepareizās vērtības". MI gadījumā tas būtu izpratnes trūkums par to, kā noturēt līdzsvaru starp cilvēktiesībām un pamattiesībām un cilvēces progresu. Tomēr vismaz daļai cilvēktiesību un pamattiesību mūsdienās jau varētu būt norauts "radikālisma plīvurs".

Turklāt, pateicoties cilvēktiesību attīstībai vairāk nekā 70 gadu garumā, mums ir pieejamas ļoti skaidri definētas cilvēktiesību normas starptautiskā un pamattiesību normas reģionālā un nacionālā līmenī. Ētikas normām saprotamu iemeslu dēļ šādu mehānismu nav. Tas nenozīmē, ka tām būtu mazāka nozīme MI regulējumā. Cilvēktiesiskais un ētiskais standarts ir viens otru papildinoši.

Izaicinājumu cilvēktiesībām un pamattiesībām rada straujā pasaules tehnoloģiju attīstība. MI ir tik plaša joma, ka mēs visdrīzāk pat neapzināmies, ka daudzas lietas, kas nu jau ir mūsu ikdiena – sejas atpazīšana mobilajā tālrunī, bankas maksājumi, "gudrā māja", lidojuma rezervācijas automātiska maiņa reisa atcelšanas gadījumā un Amazon un Netflix personificēts piedāvājums – ir MI.10 Šis MI izmantošanas plašums ļauj nopietnāk uzstāt uz nepieciešamību regulēt MI ar tiesisku regulējumu un ētikas normām. Šāds plašs potenciāli skarto personu loks (salīdzinājumam sieviešu tiesību aizstāvju pasaulē, iespējams, ir mazāk) parāda, ka vēlme tiesiski aizsargāt pašiem sevi "pretnostatītu" nevis dažādas sociālās vai rasu grupas, bet sabiedrību kopumā un MI izgudrotājus un biznesa pasauli. Tas zināmā mērā varētu palielināt sabiedrības spiedienu, mudinot tiesiski regulēt MI lietojumu.

Kā pamatoti norādīts prezidentvalsts secinājumos, lai nodrošinātu automatizēto sistēmu saderīgumu ar pamattiesībām, ir jāņem vērā MI "nepārredzamība, sarežģītība, aizspriedumi, zināma neprognozējamības pakāpe un daļēji autonoma rīcība".11 Šeit būtu svarīgi turpināt ar vēl kādu tēzi no šiem pašiem secinājumiem, proti, ka "Eiropas pieejai digitālajai pārveidei un jo īpaši MI vajadzētu būt antropocentriskai".12 Tikai paturot prātā, ka primāri aizsargājamas ir cilvēka intereses, ir cerība panākt arī cilvēktiesībām un pamattiesībām atbilstošu MI regulējumu.

Secinājumos rodama vēl kāda svarīga tēze, ka tāds pats aizsardzības līmenis "būtu jāpiemēro gan digitālajā, gan fiziskajā pasaulē", uzsverot, ka "saskaņā ar Hartas 52. panta 1. punktu visus Hartā atzīto tiesību un brīvību izmantošanas ierobežojumus drīkst uzlikt tikai tad, ja tie ir nepieciešami un patiešām atbilst vispārējas nozīmes mērķiem".13

Atgriežoties pie tēzes par MI sarežģītību un neprognozējamību, "īpaša uzmanība [..] jāpievērš marginalizētu14 personu un grupu, kā arī neaizsargātu personu, piemēram, personu ar invaliditāti, bērnu un vecāka gadagājuma cilvēku, vajadzībām [..] veicinot iedzīvotāju izpratni par MI un palielinot cilvēku pratību MI jomā, tostarp ar pētniecības, apmācības un izglītības palīdzību".15

Kad 37 stundu trialoga16 sarunas bija veiksmīgi noslēgušās, 2023. gada 8. decembrī ES iekšējā tirgus komisārs Tjerī Bretons (Thierry Breton) nāca klajā ar paziņojumu, ka sarunu vedēji ir nonākuši pie pagaidu vienošanās par saskaņotām normām MI jomā.17 Viens no aspektiem, kas tika atrunāts trialoga auglīgajā rezultātā – priekšlikumā Regulai – augsta riska MI sistēmu izmantotājiem pirms MI sistēmas nodošanas ekspluatācijā būtu jāveic ietekmes uz pamattiesībām novērtējums.

ChatGPT bija nepieciešamas mazāk nekā 37 sekundes, lai piedāvātu atbildi uz manu jautājumu, kā tas, proti, ChatGPT, varētu (aiz)skart pamattiesības. Man tika piedāvātas piecas pamattiesības, kuras MI tiešām varētu skart visvairāk.

Vārda brīvība (Hartas 11. pants). ChatGPT, mijiedarbojas ar lietotājiem un, ģenerējot tekstu, var ietvert kaitīgu vai aizskarošu saturu, kurš pārkāpj vārda brīvības principus. Tas rada izaicinājumu, filtrējot naida runu, dezinformāciju vai jebkuru runu, kas kurina vardarbību vai diskrimināciju. Hartas 11. pants nosaka, ka "ikvienai personai ir tiesības uz vārda brīvību. Šīs tiesības ietver uzskatu brīvību un brīvību saņemt un izplatīt informāciju vai idejas bez valsts iestāžu iejaukšanās un neatkarīgi no valstu robežām". Nepatiesa informācija un viltus ziņas, kas pārpludina tīmekli, jo tiek izplatītas grūti kontrolējamā ātrumā, tādējādi ietekmējot, piemēram, vēlēšanu iznākumus pat demokrātiskās valstīs, iespējams, liek juridiski niansētāk raudzīties uz šī panta pēdējās vārdkopas "bez valsts iestāžu iejaukšanās un neatkarīgi no valstu robežām" iespējamo interpretāciju. Vārda un informācijas brīvība ir vienas no personas pamattiesībām. Tomēr straujā tehnoloģiju attīstība liek palūkoties uz šīm tiesībām no tāda skatpunkta, kas līdz šim bija grūti iedomājams un kas liek uzdot jautājumu, vai MI laikmetā mani kā lasītāju, vērotāju, klausītāju nebūtu jābrīdina, ka informācija, ar kuru esmu iepazinusies, ir MI radīta.

Manuprāt, spilgtākais plaši zināmais MI algoritma darbības piemērs ir iejaukšanās ASV prezidenta vēlēšanās 2020. gadā. Arī šogad, tuvojoties nākamajām ASV prezidenta vēlēšanām, FIB direktors ir norādījis, ka "sasniegumi ģeneratīvā [MI] jomā, piemēram, pazemina piekļuves barjeras, atvieglojot gan vairāk, gan mazāk prasmīgu ārvalstu pretinieku iesaistīšanos ļaunprātīgā ietekmēšanā, vienlaikus padarot gan veco, gan jauno spēlētāju ārvalstu ietekmes centienus reālākus un grūtāk atklājamus".18 Tomēr "tiešas, vispārējas un brīvas vēlēšanas ar aizklātu balsošanu ir demokrātijas procesa pamats un mūsu kopīgo vērtību pamatelements. Tās ir jāsaglabā digitālajā laikmetā. Kiberuzbrukumi un dezinformācija, kas vērsti pret vēlēšanu procesiem, kampaņām un kandidātiem, var polarizēt sabiedrisko diskusiju un apdraudēt vēlēšanu aizklātību, vēlēšanu procesa integritāti un taisnīgumu un pilsoņu uzticēšanos vēlētajiem pārstāvjiem. Šajā sakarā jāuzsver, cik svarīgi ir aizsardzības pasākumi un aktīvi pasākumi pret dezinformācijas kampaņām, privāto datu ļaunprātīgu izmantošanu, hibrīddraudiem un kiberuzbrukumiem".19

Jau šobrīd MI tiek apmācīts atpazīt cilvēka emocijas. Lai arī tas ir pozitīvs ieguvums, kas var palīdzēt, piemēram, garīgās veselības jomā, nedrīkst aizmirst, ka cilvēka emociju atpazīšanas algoritms kādā brīdī var radīt, piemēram, vārda brīvības aizskārumu, jo apziņa, ka cilvēki tiek novēroti, var likt tiem mainīt savu uzvedību.

"MI izmantošana ir īpaši jutīga, kad tiešsaistes platformas un meklētājprogrammas apkopo, atlasa saturu un nosaka tā prioritātes, jo var tikt apdraudētas iespējas brīvi piekļūt informācijai un plurālismam informācijas avotu un daudzveidības ziņā. Brīvai sabiedrībai ir vajadzīga piekļuve daudzveidīgai informācijai, runas brīvība un dažādu perspektīvu apmaiņa."20

Pēdējās piecgades sociālo tīklu izmantošanas pieredze, kas ir balstīta sociālo tīklu izstrādātos algoritmos, parāda arī naida noziegumu augošu tendenci.

Privātuma un datu aizsardzība (Hartas 8. pants). ChatGPT vāc un apstrādā lietotāju datus MI apmācības un uzlabošanas nolūkos. Tas rada bažas par personas datu privātumu un aizsardzību, jo īpaši, ja lietotājs, mijiedarbojoties, piemēram, ar tērzēšanas robotu, sniedz sensitīvus datus. Dati, kurus ievāc ledusskapis vai automašīna ar primāro mērķi sniegt labākas kvalitātes pakalpojumu, pienācīgi nepārvaldot šo datu apstrādi un izmantošanu, var nonākt trešo personu rīcībā, arī tādu personu rīcībā, kuru mērķis ir, piemēram, personu izsekot. Vienlaicīgi, palielinoties MI risinājumiem mūsu dzīvē, ar MI palīdzību iegūtajiem datiem būs aizvien lielāka nozīme. Biznesa pasaule kā pretargumentu varētu izmantot to, ka aizliegums piekļūt datiem ir tirgus traucējums vai šķērslis konkurencei un inovācijām.21

Šeit varam pieskarties vēl kādai jutīgai tēmai īpaši pašreizējā ģeopolitiskajā situācijā – patvēruma tiesības (Hartas 18. pants, izraidīšanas gadījumā – Hartas 19. pants). MI izmantošana robežaizsardzībā var būtiski ietekmēt patvēruma meklētāju iespējas saņemt aizsardzību, jo šīs personas "bieži ir īpaši neaizsargātā pozīcijā un ir atkarīg[as] no kompetento publiskā[s pārvaldes] ie­stāžu darbības rezultāta".22 "[..] izmantoto [M]I sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, proti, viņu tiesību brīvi pārvietoties, tiesību uz nediskrimināciju, privātuma un persondatu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai." Tādēļ atbilstoši Regulas priekšlikumam "ir lietderīgi klasificēt kā augsta riska sistēmas tās MI sistēmas, ko kompetentajās publiskā[s pārvaldes] iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts izmantot kā melu detektorus un līdzīgus rīkus vai nolūkā noteikt fiziskas personas emocionālo stāvokli; novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam; pārbaudīt fizisku personu attiecīgo dokumentu autentiskumu; sniegt palīdzību kompetentām publiskā[s pārvaldes] iestādēm patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras iesniegušas pieteikumu noteikta statusa iegūšanai, atbilstību kritērijiem".23

Ir nešaubīgi skaidrs, ka privātums nebūs statisks jēdziens, bet tā saturs tiks pielāgots un attīstīts atbilstoši tehnoloģiju attīstībai un mainīgajiem sociālajiem apstākļiem.24

Diskriminācijas aizliegums (Hartas 21. pants). Ja ChatGPT sniedz neobjektīvas vai diskriminējošas atbildes, tas var pārkāpt Hartas 21. pantā noteikto diskriminācijas aizliegumu. Neobjektivitāte varētu izrietēt no MI modeļa izveidei izmantotajiem apmācības datiem, kas varētu radīt nevienlīdzīgu attieksmi attiecībā uz konkrētām personām vai grupām. Ir statistiski zināms, ka lielākā daļa MI sistēmu izstrādātāju ir vīrieši,25 turklāt baltās rases vīrieši, kuru darba rezultāti, ja neaizmirstam iepriekš minēto faktu, ka cilvēka intelektam ir raksturīga iekšēja neobjektivitāte lēmumu pieņemšanā, un to, ka pamattiesību un cilvēktiesību komponente šobrīd vēl tiek reti piemērota MI sistēmu izstrādē, potenciāli varētu radīt aizskārumu gan dzimuma, gan rases dēļ. MI sistēmu izstrādātājiem papildus tam, ka sistēmas izstrāde būtu jābalsta ietekmes uz pamattiesībām vērtējumā, būtu jāveido pēc iespējas daudzveidīgākas MI izstrādātāju komandas.

Tiesības uz taisnīgu tiesu (Hartas 47. pants). Ja Chat­GPT tiek izmantots juridiskā kontekstā, lai sniegtu informāciju vai palīdzību, pastāv risks, ka tas var sniegt neprecīzu vai maldinošu informāciju, kas var ietekmēt personas tiesības uz taisnīgu tiesu. Lai aizsargātu šīs tiesības, ir būtiski nodrošināt MI sistēmu atbilžu precizitāti, pārredzamību un atbildību.

Tomēr vienlaicīgi "digitālās tehnoloģijas, tostarp MI, var palīdzēt uzlabot piekļuvi juridiskai informācijai, iespējams, samazinot tiesvedības ilgumu un uzlabojot tiesu iestāžu pieejamību kopumā. Tomēr šīm norisēm var būt arī negatīva ietekme, piemēram, izmantojot neobjektīvus algoritmus. Ir jānodrošina efektīvi tiesiskās aizsardzības līdzekļi, lai nodrošinātu tiesības uz taisnīgu tiesu, nevainīguma prezumpciju un tiesības uz aizstāvību. Turklāt joprojām būtiska būs nedigitālā piekļuve tiesību aktiem un tiesu iestādēm".26

Cilvēka cieņa (Hartas 1. pants). Kā to parāda ne tikai Hartas pantu numerācija, bet arī filosofiskās domas un cilvēktiesību attīstības vēsture, cilvēka cieņa ir, ja tā var teikt, viscilvēktiesiskākā tiesība no visām, tāpēc arī neaizskarama. Cilvēka cieņa, iespējams, ir viena no tām pamattiesībām, par kuras potenciālo aizskārumu MI sistēmu darbības rezultātā ir vismazāk runāts, neraugoties uz to, ka tā būtu visvairāk aizsargājama MI regulējumā, jo cilvēka cieņai būtu jābūt vissvarīgākajai mērauklai. Iespējams, ka cilvēces bažas par tās turpmāko kopdzīvi ar MI, kuras nav līdz galam noformulētas, bet ir vairāk sajūtu līmenī, arī MI attīstības apgrūtinātās prognozējamības dēļ, instinktīvi rodas no sajūtas, ka aplami vai nepienācīgi regulēts MI varētu skart pašu jautājuma būtību – kas ir cilvēks? Regulējot MI tā ikdienas izpausmēs, mēs, iespējams, pirmo reizi cenšamies maksimāli pilnīgi nodefinēt, ko nozīmē būt cilvēkam un kāpēc tas ir aizsargājams.

 

● ● ●

Aizsargājot personu tiesības nākotnē, tiesību aizsardzības sistēmas iestādēm, iespējams, aizvien biežāk būs jāsver pamattiesības un to aizskārums un sabiedrības leģitīmās intereses. "Uz MI balstītas lietojumprogrammas sniedz iespējas novērtēt pamattiesību ievērošanu, tostarp līdztiesības jomā. Lēmumi, kuru pamatā ir iepriekš noteiktu noteikumu algoritmiskās sistēmas un precīzi, atbilstīgi un paredzētajam mērķim atbilstoši dati, varētu būt mazāk vērsti uz neobjektīviem rezultātiem nekā cilvēka lēmumi. Vienlaikus MI izmantošana dažos gadījumos var arī saglabāt un pastiprināt diskrimināciju, tostarp strukturālo nevienlīdzību. Šajā sakarā īpašas bažas rada līdztiesība."27

Lai arī MI ir joma, kas nemitīgi attīstās, tomēr publiskajai varai visās tās daudzējādās izpausmēs ir jāspēj pienācīgi kontrolēt MI pielietojums. Tam savukārt ir nepieciešamas zināšanas šajā jomā. MI nevar tikt atstāts komercpasaules ziņā, jo tam var būt ļoti nopietnas sekas, iespējams, pat nelabojamas. Publiskās varas iestādēm ir aktīvi jālīdzdarbojas, jo īpaši nodrošinot cilvēktiesību un pamattiesību komponentes kā cilvēkam vēlamā progresa mērauklas izmantošanu. Tām būs aktīvi jāuzrauga MI sistēmu attīstība un pielietojums. Tā pilnīgi noteikti ir pasaules vēsturē visjaudīgākā tehnoloģiskās attīstības forma, kuras izpausmes būs jāvērtē atkal un atkal. Nenoliedzami interesants un arī izaicinošs aspekts ir tas, ka šobrīd juridiski ir jāregulē kas tāds, kā nākotnes izpausmes pilnībā nav pat nojaušamas. Kā tajā latviešu tautas pasakā: "Aizej tur, nezin kur, atnes to – nezin ko…"

RAKSTA ATSAUCES /

1. Pamattiesības ir cilvēktiesību terminoloģisks apzīmējums īpašā Eiropas Savienības kontekstā. Tradicionāli termins "pamattiesības" tiek lietos konstitucionālā kontekstā, savukārt termins "cilvēktiesības" tiek lietots starptautiskajās tiesībās. Šeit un turpmāk jēdzieni "cilvēktiesības" un "pamattiesības" ir lietoti pamīšus vai kopā pilnam tvērumam.

2. Skat.: https://blogs.lse.ac.uk/humanrights/2020/07/16/beginning-of-artificial-intelligence-end-of-human-rights/

3. Skat.: https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_LV.pdf

4. Skat.: https://www.degruyter.com/document/doi/10.1515/9789048550180-016/html

5. ES Padomes prezidentvalsts pilnvaras ik pēc sešiem mēnešiem pārņem cita ES dalībvalsts. Šajā laikā prezidentvalsts vada visu līmeņu Padomes sanāksmes, palīdzot nodrošināt ES darba nepārtrauktību Padomē (ES prezidentūra). Laikā no 2020. gada 1. jūlija līdz 31. decembrim ES Padomes prezidentvalsts bija Vācija, kas ir izstrādājusi šos secinājumus.

6. Prezidentvalsts secinājumi – Pamattiesību harta saistībā ar mākslīgo intelektu un digitālajām pārmaiņām. Pieejami: https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/lv/pdf

7. Skat.: https://ai-watch.ec.europa.eu/news/science-policy-brief-eu-global-ai-landscape-2021-11-10_en

8. Skat.: https://www.chathamhouse.org/2023/01/ai-governance-and-human-rights

9. Idem.

10. Skat.: https://www.forbes.com/sites/bernardmarr/2019/12/16/the-10-best-examples-of-how-ai-is-already-used-in-our-everyday-life/

11. Skat.: https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/lv/pdf

12. Turpat.

13. Turpat.

14. Pieļauju, ka autori oriģinālajā tekstā šeit ir domājuši sociāli atstumtas personas un to grupas.

15. Turpat, 13. punkts.

16. Parlaments, Padome un Komisija.

17. Priekšlikums Eiropas Parlamenta un Padomes Regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (Mākslīgā intelekta akts) un groza dažus savienības leģislatīvos aktus. Pieejams: https://eur-lex.europa.eu/legal-content/LV/TXT/HTML/?uri=CELEX:52021PC0206

18. "Advances in generative AI [artificial intelligence], for instance, are lowering the barrier to entry, making it easier for both more and less sophisticated foreign adversaries to engage in malign influence while making foreign influence efforts by players both old and new, more realistic and more difficult to detect". Skat.: https://www.voanews.com/a/artificial-intelligence-is-game-changer-for-election-interference-fbi-warns/7508616.html

19. 26. punkts. Skat.: https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/lv/pdf

20. Turpat, 19. punkts.

21. Skat.: https://www.chathamhouse.org/2023/01/ai-governance-and-human-rights

22. Regulas priekšlikuma 39. apsvērums.

23. Ibid.

24. Skat.: https://www.chathamhouse.org/2023/01/ai-governance-and-human-rights

25. Skat.: https://www.turing.ac.uk/sites/default/files/2021-03/where-are-the-women_public-policy_summary-report.pdf

26. 27. punkts. Skat.: https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/lv/pdf

27. Turpat, 21. punkts.

ATSAUCE UZ ŽURNĀLU
Čeiča I. Pamattiesību harta un mākslīgais intelekts – vai tiešām cilvēktiesību beigu sākums?. Jurista Vārds, 30.04.2024., Nr. 18/19 (1336/1337), 56.-59.lpp.
VISI RAKSTI 30. Aprīlis 2024 /NR. 18/19 (1336/1337)
0 KOMENTĀRI
TAVA ATBILDE :
VĀRDS
3000
IENĀKT:
KOMENTĒŠANAS NOTEIKUMI
komentēt
Pievienot rakstu mapē
Pievienot citātu mapei
Pievienot piezīmi rakstam
Drukāt
ienākt ar
JURISTA VĀRDS
Abonentiem! Ieiet šeit
GOOGLE
DRAUGIEM.LV
reģistrēties
autorizēties