• Rezultati Niso Bili Najdeni

1. Uvod

V družbi neizogibno pride do pojava ravnanj, ki ogrožajo vrednote ali interese posamezne družbe, t. i. odklonskih ravnanj.1 V primeru, ko zakonodajalec meni, da omenjena ravnanja ogrožajo temeljne človekove ali družbene vrednote, ta določi z zakonom kot kazniva.2 Družba se na pojav kaznivih dejanj lahko odzove preventivno oziroma represivno, pri čemer oba odziva vodi država, tudi tako, da ta ravnanja preganja.3 Državni organi, pristojni za pregon kaznivih dejanj, pri izvajanju svojih nalog, stremijo k čim večji učinkovitosti, to pa omogoča ravno tehnološki razvoj, kar ponazarjajo naslednji primeri.

Leta 2014 je voznik v opitem stanju v Beogradu povozil osebo, za tem pa se je pred pregonom zatekel na Kitajsko. Srbski organi pregona so pri ravnanju voznika prepoznali znake kaznivega dejanja, zato so izdali mednarodno tiralico. V treh dneh po njeni izdaji so voznika našli kitajski državni organi in ga izročili Srbiji. Osumljenec je bil najden s pomočjo sistema varnega mesta (ang. Safe City), katerega del je tudi tehnologija prepoznave obrazov (ang. facial recognition technology; v nadaljevanju FRT). Srbijo je izkazana učinkovitost sistema prepričala v sklenitev dogovora s kitajskim tehnološkim podjetjem Huawei za vzpostavitev tega v Beogradu.4

Na Floridi so policisti leta 2017 sledili osumljencu v ukradenem vozilu. Policistom je uspelo ustaviti vozilo in osumljenca aretirati. Izkazalo pa se je, da ga ne morejo identificirati z osebnim dokumentom, saj tega ni imel pri sebi. Prstnih odtisov ni bilo mogoče pridobiti, saj so bile blazinice prstov poškodovane. Prav tako ni bilo mogoče opraviti razgovora z osumljencem, saj je omedlel, takoj za tem, ko je pojedel neznano snov. Preiskovalci so uporabili FRT in osumljenca uspešno identificirali.5

Tri osebe so se v Delhiju vozile na enem motornem kolesu brez zaščitne opreme. Policisti so jih opazili in jim nakazali, naj se ustavijo. Osebe so se izdajale za paciente, ki se vračajo iz bolnišnice.

Eden izmed policistov je osebam odredil, naj mu pokažejo svoje osebne dokumente, ko je ena izmed njih naperila pištolo proti policistom. Domnevni pacienti so zbežali z motornim kolesom, med begom pa poškodovali stransko ogledalo policijskega vozila, se zaleteli v policijski motor in grozili policistom, da jih bodo ustrelili. Policisti so osebe na begu izsledili po pregledu posnetkov s 150 nadzornih kamer in jih identificirali s pomočjo FRT, ki je bil v mestu uveden s programom varnega mesta.6

Skupno opisanim primerom je, da so kot pomoč pri identifikaciji osumljencev uporabili FRT. Gre za tehnološko izboljšavo prepoznave oseb, ki je urejena tudi v Zakonu o kazenskem postopku.7 Pri uporabi novosti na področju kriminalistike je treba upoštevati predvsem njihovo zanesljivost, preverjenost, razmerje med stroški in koristjo, ter etični in pravni vidik njihove uporabe. 8 Pri presoji navedenega imata prednost pravna dopustnost in etičnost novih odkritij.9

FRT uporablja umetno inteligenco (ang. artificial intelligence). Univerzalne definicije tega pojma ni. V Terminološkem slovarju avtomatike je umetna inteligenca opredeljena kot

1 Bavcon in dr. (2014) Kazensko pravo. Splošni del. 31.

2 Prav tam 33.

3 Prav tam 35-38.

4 Rajšek (2019) Srbska vlada in Huawei.

5 Valention-DeVries (2020), How the Police.

6 TNN (2020), First case in Delhi.

7 Poznamo kriminalistično in sodno prepoznavo, več o tem v Maver (2004) Kriminalistika – uvod, taktika, tehnika.

341 - 348. Sodna preiskava je urejena v 242. členu Zakona o kazenskem postopku (ZKP), Ur. l. RS, št. 32/12 – uradno prečiščeno besedilo, 47/13, 87/14, 8/16 – odl. US, 64/16 – odl. US, 65/16 – odl. US, 66/17 – ORZKP153,154, 22/19, 55/20 – odl. US, 89/20 – odl. US, 191/20 – odl. US in 200/20.

8 Maver (2004) Kriminalistika – uvod, taktika, tehnika. 59.

9 Prav tam 70.

2

»interdisciplinarna veda, ki proučuje naprave, sposobne posnemati človekovo razmišljanje in vključuje npr. sklepanje, planiranje, učenje, znanje, komuniciranje, percepcijo«.10 Strokovna skupina na visoki ravni za umetno inteligenco, vzpostavljena s strani Evropske komisije, pa umetno inteligenco obravnava kot programsko in strojno opremo, ki s posebno obdelavo podatkov sprejme najboljšo(-e) odločitev(-ve) za dosego zastavljenega cilja. 11 Sistemi so sposobni sledenja pravil, učenja posebnih modelov in prilagajanja glede na učinek, ki so ga imele njihove pretekle odločitve na okolico.12 Umetna inteligenca je posledica velikega računalniškega razvoja preteklih let, z njo pa sta tesno zvezana tudi veliko podatkovje (ang. big data) in strojno učenje (ang.

machine learning).13

S pospešenim razvojem umetne inteligence v zadnjih letih se pojavljajo napovedi strokovnjakov o izjemnih dosežkih te tehnologije, ki naj bi na nekaterih področjih presegla človeške zmožnosti.

Temu sledijo različna opozorila o nevarnostih in potreb po regulaciji.14 Eden od načinov razumevanja te potrebe je model motenj pravnega sistema (ang. Legal Disruption). Avtorji tega modela ugotavljajo, da obstaja potreba po splošnem modelu regulacije.15 Nujnost tega izvira iz pomanjkljivosti posamične regulacije: neoptimalnih razporeditev sredstev, spopadanja s posledicami namesto z vzroki, ex post iskanjem vzorcev regulacijskih odzivov, ozkoglednostjo s poudarjanjem posamičnih težav v posamičnih sektorjih in zanemarjanja sprememb v tehnoloških, pravnih in družbenih procesih.16 Umetna inteligenca je v modelu obravnavana kot motnja, ko jo pravni subjekti prepoznajo kot vzrok za pravnorelevantne probleme v družbi in ko se nanjo z obstoječimi pravnimi normami ni mogoče odzvati.17 Pri tem je treba posebno pozornost nameniti njenim neizumljenim možnostim (ang. uninvented affordances), ne zaznanim možnostim (ang.

unperceived affordances) in neizkoriščenim možnostim (ang. unexploited affordances).18 Pravni sistem lahko spodbuja uporabo tehnologij, ki povzročajo motnje (npr. uporaba FRT pri preiskavi in pregonu kaznivih dejanj)19 ali pa je tehnologija uporabljena neodvisno od prava in se pravo odzove na pravne in družbene posledice njene uporabe.20

Odzive na omenjene motnje je mogoče strniti v tri skupine. Prva je pravni razvoj (ang. legal development), s katerim pride do potrebe po razvoju pravil sui generis, nastanka pravne negotovosti ali do ugotovitve, da je obstoječe pravo v novih razmerah zastarelo.21 Naslednja skupina odzivov je izpodrivanje prava (ang. legal displacement). Tako pride do avtomatizacije prava oziroma pravnih nalog ali pa do zamenjave prava (npr. do vzpostavitve spodbud (ang.

nudges) za spodbujanje določenega vedenja, ki zamenjajo pravne norme).22 Tretja skupina odzivov je uničenje prava (ang. legal destruction). Pri tem gre za odziv na motnje, ki pomenijo neuspeh regulacijskih ukrepov. Blažji odziv je podan takrat, ko tehnologije predstavljajo nerešljiv pravni problem, medtem ko težji lahko predstavlja celo grožnjo vladavini prava, saj nove tehnologije omogočajo izogib ali nasprotovanje pravu.23

10 Karba in dr. (2018) Terminološki slovar avtomatike. pod geslom umetna inteligenca.

11 Independent High-Level Expert Group, A Definition of AI. 6.

12 Prav tam 6.

13 Agencija Evropske unije za temeljne pravice (2020), Getting the Future Right. str. 19-21.

14 LaGrandeur (2020) How safe is our reliance.

15 Liu, Hin-Yan in dr. (2020) Artificial Intelligence Law, Innovation and Technology. 211-214.

16 Prav tam 211-214.

17 Prav tam 223, 232.

18 Prav tam 224-231.

19 T. i. intrinzične motnje; ang. intrinsic disruption.

20 T. i. ekstrinzične motnje; ang. extrinsic disruption; Liu, Hin-Yan in dr. (2020) Artificial Intelligence. Law, Innovation and Technology, 232.

21 Prav tam 233-242.

22 Prav tam 242-246.

23 Prav tam 246-250.

3

Eno zahtevnejših vprašanj, povezanih s potrebo po regulaciji umetne inteligence, je obravnava sistemov umetne inteligence kot črnih skrinjic (ang. black box). Za črno skrinjico v letalu je značilno, da zapisuje podatke glede delovanja zrakoplova. Tako je mogoče opazovati, kaj je vanj vneseno in kakšen je rezultat sistema, ni pa vidno delovanje sistema.24 Enako velja za sisteme umetne inteligence. Zanje je značilno, da so vmesne faze v postopku sprejemanja rešitev skrite pred človeškim nadzorom zaradi tehnološke kompleksnosti.25 Pri tem se sicer kot rešitev tega ponuja transparentnost, vendar je možno, da bo ta vodila v razkritje obsežnih in zapletenih informacij, kar pa ne vodi v to, da bi bili sistemi jasni in pregledni vsem, temveč v razkritje dodatnih, večini splošne javnosti nerazumljivih, informacij. Transparentnost je lahko zgolj vmesni korak do ozaveščenosti o teh sistemih.26

FRT je torej del izziva za pravo, prepoznano tudi kot motnjo v obstoječem pravnem sistemu. Tako se je treba nanj ustrezno odzvati, predvsem pa upoštevati vse prednosti in slabosti, ki jih uvedba take tehnologije ima. Ob upoštevani učinkovitosti kot eni izmed glavnih prednosti se kot protiutež kažejo možnosti kršitev človekovih pravic.27

V nalogi bodo predstavljene osnove delovanja FRT. Sledile bodo ugotovitve o razširjenosti tehnologije v svetu in Sloveniji pri delu organov pregona in o uporabi tehnologije kot posegu v človekove pravice s poudarkom na pravici do zasebnosti. Namen naloge je ugotoviti, ali slovenska ureditev sledi razvoju in zmožnostim FRT ter standardom varstva človekovih pravic, ki Slovenijo zavezuje, s tem pa tudi, ali so dokazi, pridobljeni s FRT, uporabljivi v slovenskem kazenskem postopku.

24 Pasquale (2015) The Black Box Society. 3.

25 Završnik (2020) Criminal justice ERA Forum. 568.

26 Pasquale (2015) The Black Box Society. 8.

27 Završnik (2020) Criminal justice ERA Forum. 575-579.

4