• Rezultati Niso Bili Najdeni

2. Osnove delovanja tehnologije prepoznave obrazov

N/A
N/A
Protected

Academic year: 2022

Share "2. Osnove delovanja tehnologije prepoznave obrazov "

Copied!
41
0
0

Celotno besedilo

(1)

Univerza v Ljubljani Pravna fakulteta

TEHNOLOGIJA ZA PREPOZNAVO OBRAZOV PRI PREISKAVI IN PREGONU KAZNIVIH DEJANJ

(magistrsko diplomsko delo)

Avtor: Uroš Dukič

Mentor: prof. dr. Aleš Završnik, univ. dipl. prav.

Ljubljana, avgust 2021

(2)

Univerza v Ljubljani Pravna fakulteta

TEHNOLOGIJA ZA PREPOZNAVO OBRAZOV PRI PREISKAVI IN PREGONU KAZNIVIH DEJANJ

(magistrsko diplomsko delo)

Avtor: Uroš Dukič

Mentor: prof. dr. Aleš Završnik, univ. dipl. prav.

Ljubljana, avgust 2021

(3)

i

Kazalo:

Povzetek ... ii

Summary: ... iii

1. Uvod ... 1

2. Osnove delovanja tehnologije prepoznave obrazov ... 4

3. Razširjenost tehnologije v svetu in Sloveniji pri delu organov pregona ... 7

4. Uporaba tehnologije kot poseg v človekove pravice ... 10

4.1. Poseg v pravico do zasebnosti ... 10

4.2. Poseg v ostale človekove pravice ... 15

5. Zakonska ureditev v Sloveniji ... 18

6. Možnosti uporabe dokazov, pridobljenih s tehnologijo, v slovenskem kazenskem postopku ... 23

7. Zaključek ... 26

8. Viri in literatura: ... 29

9. Splošni pravni akti: ... 34

10. Odločbe ... 36

10.1. Evropska komisija za človekove pravice: ... 36

10.2. Evropsko sodišče za človekove pravice: ... 36

10.3. Ustavno sodišče Republike Slovenije: ... 36

10.4. Vrhovno sodišče Republike Slovenije: ... 36

10.5. Upravno sodišče Republike Slovenije: ... 36

10.6. The Court of Appeal (London, Združeno kraljestvo): ... 36

(4)

ii

Povzetek

Tehnologija prepoznave obrazov (v nadaljevanju: FRT) je sistem umetne inteligence in v pomoč organom pregona v Sloveniji in svetu. Kot tehnološka novost s pomembnim vplivom na človekove pravice predstavlja izziv za pravo. V nalogi se zastavlja vprašanje, ali slovenska ureditev sledi razvoju in zmožnostim obravnavane tehnologije in najnovejšim standardom in ali so dokazi, pridobljeni z njeno uporabo, uporabljivi v slovenskem kazenskem postopku. Razvoj FRT je v preteklih 60. letih potekal od obdobja odvisnosti od človeka do (skoraj) popolne samostojnosti tehnologije. S tem je prišlo tudi do večje natančnosti in odprave nekaterih težav, kot so različna velikost in naklon obraza na fotografiji ter različna obrazna usmerjenost. Večina držav vsaj razmišlja o njeni uvedbi pri delu organov pregona. Ob tem pa je treba upoštevati, da uporaba FRT vpliva tako na pravico do zasebnosti in varstvo osebnih podatkov kot tudi nekatere druge pravice, kot sta človekovo dostojanstvo in svoboda zbiranja. Za njeno uporabo morajo veljati strogi pogoji in omejeni nameni uporabe. Med temi sta preiskava in pregon kaznivih dejanj. Za preprečitev pretiranih posegov je treba slediti veljavni pravni ureditvi na področju varstva osebnih podatkov pri preiskavi in pregonu kaznivih dejanj. V Sloveniji je policiji dopuščeno avtomatizirano primerjanje fotografij oseb, ne pa uporaba sprotnega FRT. Pri presoji, ali so dokazi, pridobljeni s FRT, uporabljivi v kazenskem postopku, je treba upoštevati vprašanja verodostojnosti takega dokaza, tehnično zanesljivost tehnologije in možnost kršitev človekovih pravic. Določbe ZNPPol, ki urejajo avtomatizirano primerjavo fotografij obrazov, ne upoštevajo strogih zahtev po določnosti vsakega koraka obdelave osebnih podatkov, to pa ne onemogoča uporabe dokazov, pridobljenih s FRT, v slovenskem kazenskem postopku.

Ključne besede: tehnologija prepoznave obrazov, umetna inteligenca, varstvo osebnih podatkov, pravica do zasebnosti, pregon in preiskava kaznivih dejanj.

(5)

iii

Summary:

Facial recognition technology (FRT) is an artificial intelligence system that works as a tool for law enforcement in Slovenia and around the world. As a technological novelty with a significant impact on human rights, it represents a challenge to the law. The aim of this thesis is to answer whether the Slovenian legislation is in line with the FRT development and its capabilities, and whether the evidence obtained by FRT is admissible in the Slovenian criminal procedure.

FRT has in the past 60 years of development advanced from requiring guiding human input of dimension and coordinates of faces, to its (almost) complete independence in automatically processing a picture without added manual input. This resulted in removing human errors and perfecting accuracy in facial recognition including great aptitude of problem solving such as different size, obscure incline or orientation of faces on pictures.

Most governments at least consider applying its technology in collecting evidence in law enforcement. It must be noted, however, that FRT impacts several human rights; such as the right to privacy, personal data protection, human dignity and the freedom of assembly. Therefore, its use must be strictly regulated, including in investigation and prosecution of criminal offences. For example, in Slovenia the police department is permitted to use automated comparisons of facial photographs with live FRT excluded. When considering the admissibility of evidence obtained by FRT in Slovenian criminal procedures, the right to challenge the credibility of such evidence, the (un)reliability of the technology, and the possible human rights violations must be taken into account. However, legal provisions of the Police Tasks and Power Act, that stipulate the automated comparison of facial images, do not comprehensively regulate steps of the program in regards to respect for personal data. Nevertheless, this does not preclude the admissibility of evidence obtained by FRT.

Keywords: facial recognition technology, artificial intelligence, data protection, right to privacy, investigation and prosecution of criminal offences

(6)

1

1. Uvod

V družbi neizogibno pride do pojava ravnanj, ki ogrožajo vrednote ali interese posamezne družbe, t. i. odklonskih ravnanj.1 V primeru, ko zakonodajalec meni, da omenjena ravnanja ogrožajo temeljne človekove ali družbene vrednote, ta določi z zakonom kot kazniva.2 Družba se na pojav kaznivih dejanj lahko odzove preventivno oziroma represivno, pri čemer oba odziva vodi država, tudi tako, da ta ravnanja preganja.3 Državni organi, pristojni za pregon kaznivih dejanj, pri izvajanju svojih nalog, stremijo k čim večji učinkovitosti, to pa omogoča ravno tehnološki razvoj, kar ponazarjajo naslednji primeri.

Leta 2014 je voznik v opitem stanju v Beogradu povozil osebo, za tem pa se je pred pregonom zatekel na Kitajsko. Srbski organi pregona so pri ravnanju voznika prepoznali znake kaznivega dejanja, zato so izdali mednarodno tiralico. V treh dneh po njeni izdaji so voznika našli kitajski državni organi in ga izročili Srbiji. Osumljenec je bil najden s pomočjo sistema varnega mesta (ang. Safe City), katerega del je tudi tehnologija prepoznave obrazov (ang. facial recognition technology; v nadaljevanju FRT). Srbijo je izkazana učinkovitost sistema prepričala v sklenitev dogovora s kitajskim tehnološkim podjetjem Huawei za vzpostavitev tega v Beogradu.4

Na Floridi so policisti leta 2017 sledili osumljencu v ukradenem vozilu. Policistom je uspelo ustaviti vozilo in osumljenca aretirati. Izkazalo pa se je, da ga ne morejo identificirati z osebnim dokumentom, saj tega ni imel pri sebi. Prstnih odtisov ni bilo mogoče pridobiti, saj so bile blazinice prstov poškodovane. Prav tako ni bilo mogoče opraviti razgovora z osumljencem, saj je omedlel, takoj za tem, ko je pojedel neznano snov. Preiskovalci so uporabili FRT in osumljenca uspešno identificirali.5

Tri osebe so se v Delhiju vozile na enem motornem kolesu brez zaščitne opreme. Policisti so jih opazili in jim nakazali, naj se ustavijo. Osebe so se izdajale za paciente, ki se vračajo iz bolnišnice.

Eden izmed policistov je osebam odredil, naj mu pokažejo svoje osebne dokumente, ko je ena izmed njih naperila pištolo proti policistom. Domnevni pacienti so zbežali z motornim kolesom, med begom pa poškodovali stransko ogledalo policijskega vozila, se zaleteli v policijski motor in grozili policistom, da jih bodo ustrelili. Policisti so osebe na begu izsledili po pregledu posnetkov s 150 nadzornih kamer in jih identificirali s pomočjo FRT, ki je bil v mestu uveden s programom varnega mesta.6

Skupno opisanim primerom je, da so kot pomoč pri identifikaciji osumljencev uporabili FRT. Gre za tehnološko izboljšavo prepoznave oseb, ki je urejena tudi v Zakonu o kazenskem postopku.7 Pri uporabi novosti na področju kriminalistike je treba upoštevati predvsem njihovo zanesljivost, preverjenost, razmerje med stroški in koristjo, ter etični in pravni vidik njihove uporabe. 8 Pri presoji navedenega imata prednost pravna dopustnost in etičnost novih odkritij.9

FRT uporablja umetno inteligenco (ang. artificial intelligence). Univerzalne definicije tega pojma ni. V Terminološkem slovarju avtomatike je umetna inteligenca opredeljena kot

1 Bavcon in dr. (2014) Kazensko pravo. Splošni del. 31.

2 Prav tam 33.

3 Prav tam 35-38.

4 Rajšek (2019) Srbska vlada in Huawei.

5 Valention-DeVries (2020), How the Police.

6 TNN (2020), First case in Delhi.

7 Poznamo kriminalistično in sodno prepoznavo, več o tem v Maver (2004) Kriminalistika – uvod, taktika, tehnika.

341 - 348. Sodna preiskava je urejena v 242. členu Zakona o kazenskem postopku (ZKP), Ur. l. RS, št. 32/12 – uradno prečiščeno besedilo, 47/13, 87/14, 8/16 – odl. US, 64/16 – odl. US, 65/16 – odl. US, 66/17 – ORZKP153,154, 22/19, 55/20 – odl. US, 89/20 – odl. US, 191/20 – odl. US in 200/20.

8 Maver (2004) Kriminalistika – uvod, taktika, tehnika. 59.

9 Prav tam 70.

(7)

2

»interdisciplinarna veda, ki proučuje naprave, sposobne posnemati človekovo razmišljanje in vključuje npr. sklepanje, planiranje, učenje, znanje, komuniciranje, percepcijo«.10 Strokovna skupina na visoki ravni za umetno inteligenco, vzpostavljena s strani Evropske komisije, pa umetno inteligenco obravnava kot programsko in strojno opremo, ki s posebno obdelavo podatkov sprejme najboljšo(-e) odločitev(-ve) za dosego zastavljenega cilja. 11 Sistemi so sposobni sledenja pravil, učenja posebnih modelov in prilagajanja glede na učinek, ki so ga imele njihove pretekle odločitve na okolico.12 Umetna inteligenca je posledica velikega računalniškega razvoja preteklih let, z njo pa sta tesno zvezana tudi veliko podatkovje (ang. big data) in strojno učenje (ang.

machine learning).13

S pospešenim razvojem umetne inteligence v zadnjih letih se pojavljajo napovedi strokovnjakov o izjemnih dosežkih te tehnologije, ki naj bi na nekaterih področjih presegla človeške zmožnosti.

Temu sledijo različna opozorila o nevarnostih in potreb po regulaciji.14 Eden od načinov razumevanja te potrebe je model motenj pravnega sistema (ang. Legal Disruption). Avtorji tega modela ugotavljajo, da obstaja potreba po splošnem modelu regulacije.15 Nujnost tega izvira iz pomanjkljivosti posamične regulacije: neoptimalnih razporeditev sredstev, spopadanja s posledicami namesto z vzroki, ex post iskanjem vzorcev regulacijskih odzivov, ozkoglednostjo s poudarjanjem posamičnih težav v posamičnih sektorjih in zanemarjanja sprememb v tehnoloških, pravnih in družbenih procesih.16 Umetna inteligenca je v modelu obravnavana kot motnja, ko jo pravni subjekti prepoznajo kot vzrok za pravnorelevantne probleme v družbi in ko se nanjo z obstoječimi pravnimi normami ni mogoče odzvati.17 Pri tem je treba posebno pozornost nameniti njenim neizumljenim možnostim (ang. uninvented affordances), ne zaznanim možnostim (ang.

unperceived affordances) in neizkoriščenim možnostim (ang. unexploited affordances).18 Pravni sistem lahko spodbuja uporabo tehnologij, ki povzročajo motnje (npr. uporaba FRT pri preiskavi in pregonu kaznivih dejanj)19 ali pa je tehnologija uporabljena neodvisno od prava in se pravo odzove na pravne in družbene posledice njene uporabe.20

Odzive na omenjene motnje je mogoče strniti v tri skupine. Prva je pravni razvoj (ang. legal development), s katerim pride do potrebe po razvoju pravil sui generis, nastanka pravne negotovosti ali do ugotovitve, da je obstoječe pravo v novih razmerah zastarelo.21 Naslednja skupina odzivov je izpodrivanje prava (ang. legal displacement). Tako pride do avtomatizacije prava oziroma pravnih nalog ali pa do zamenjave prava (npr. do vzpostavitve spodbud (ang.

nudges) za spodbujanje določenega vedenja, ki zamenjajo pravne norme).22 Tretja skupina odzivov je uničenje prava (ang. legal destruction). Pri tem gre za odziv na motnje, ki pomenijo neuspeh regulacijskih ukrepov. Blažji odziv je podan takrat, ko tehnologije predstavljajo nerešljiv pravni problem, medtem ko težji lahko predstavlja celo grožnjo vladavini prava, saj nove tehnologije omogočajo izogib ali nasprotovanje pravu.23

10 Karba in dr. (2018) Terminološki slovar avtomatike. pod geslom umetna inteligenca.

11 Independent High-Level Expert Group, A Definition of AI. 6.

12 Prav tam 6.

13 Agencija Evropske unije za temeljne pravice (2020), Getting the Future Right. str. 19-21.

14 LaGrandeur (2020) How safe is our reliance.

15 Liu, Hin-Yan in dr. (2020) Artificial Intelligence Law, Innovation and Technology. 211-214.

16 Prav tam 211-214.

17 Prav tam 223, 232.

18 Prav tam 224-231.

19 T. i. intrinzične motnje; ang. intrinsic disruption.

20 T. i. ekstrinzične motnje; ang. extrinsic disruption; Liu, Hin-Yan in dr. (2020) Artificial Intelligence. Law, Innovation and Technology, 232.

21 Prav tam 233-242.

22 Prav tam 242-246.

23 Prav tam 246-250.

(8)

3

Eno zahtevnejših vprašanj, povezanih s potrebo po regulaciji umetne inteligence, je obravnava sistemov umetne inteligence kot črnih skrinjic (ang. black box). Za črno skrinjico v letalu je značilno, da zapisuje podatke glede delovanja zrakoplova. Tako je mogoče opazovati, kaj je vanj vneseno in kakšen je rezultat sistema, ni pa vidno delovanje sistema.24 Enako velja za sisteme umetne inteligence. Zanje je značilno, da so vmesne faze v postopku sprejemanja rešitev skrite pred človeškim nadzorom zaradi tehnološke kompleksnosti.25 Pri tem se sicer kot rešitev tega ponuja transparentnost, vendar je možno, da bo ta vodila v razkritje obsežnih in zapletenih informacij, kar pa ne vodi v to, da bi bili sistemi jasni in pregledni vsem, temveč v razkritje dodatnih, večini splošne javnosti nerazumljivih, informacij. Transparentnost je lahko zgolj vmesni korak do ozaveščenosti o teh sistemih.26

FRT je torej del izziva za pravo, prepoznano tudi kot motnjo v obstoječem pravnem sistemu. Tako se je treba nanj ustrezno odzvati, predvsem pa upoštevati vse prednosti in slabosti, ki jih uvedba take tehnologije ima. Ob upoštevani učinkovitosti kot eni izmed glavnih prednosti se kot protiutež kažejo možnosti kršitev človekovih pravic.27

V nalogi bodo predstavljene osnove delovanja FRT. Sledile bodo ugotovitve o razširjenosti tehnologije v svetu in Sloveniji pri delu organov pregona in o uporabi tehnologije kot posegu v človekove pravice s poudarkom na pravici do zasebnosti. Namen naloge je ugotoviti, ali slovenska ureditev sledi razvoju in zmožnostim FRT ter standardom varstva človekovih pravic, ki Slovenijo zavezuje, s tem pa tudi, ali so dokazi, pridobljeni s FRT, uporabljivi v slovenskem kazenskem postopku.

24 Pasquale (2015) The Black Box Society. 3.

25 Završnik (2020) Criminal justice ERA Forum. 568.

26 Pasquale (2015) The Black Box Society. 8.

27 Završnik (2020) Criminal justice ERA Forum. 575-579.

(9)

4

2. Osnove delovanja tehnologije prepoznave obrazov

Prepoznava oseb po obrazu je metoda, ki jo ljudje uporabljajo dnevno. Obraz je namreč ena izmed najvidnejših telesnih značilnosti posameznika. Posameznikom je edinstven. Kljub njegovim spremembam čez čas pa so osebe sposobne prepoznati nekatere ključne obrazne značilnosti, ki ostajajo podobne. Razvoj znanosti je temu sledil in začel se je razvoj FRT.

Med prvimi, ki so začeli razvijati računalniško tehnologijo za prepoznavo obrazov, so bili Woody Bledsoe, Helen Chan in Charles Bisson v letih 1964 in 1965.28 Sredstva za raziskavo so pridobili od neimenovane obveščevalne agencije, zaradi česar so objavili malo javno dostopnih del.

Raziskovalcem je bila dana zbirka fotografij in določena fotografija, cilj pa je bil iz zbirke izločiti manjši del fotografij, ki bi ustrezale določeni fotografiji. Razvili so postopek, po katerem je oseba določila koordinate določenih značilnosti obrazov (npr. sredine zenic) iz fotografij, računalnik pa je nato določil seznam 20. razdalj med koordinatami vsakega obraza, ki so bile vnesene v posebno zbirko z imeni posameznikov. Pri prepoznavi je tako računalnik primerjal razdalje vsakega obraza iz zbirke z razdaljami prepoznavnega obraza in ponudil seznam najbolj primerljivih oseb.

Raziskovalci so pri tem opažali različne težave, kot na primer različna osvetlitev in nagnjenost obrazov, pa tudi staranje oseb in različni izrazi na obrazih.29

V preostanku 20. stoletja je prišlo do številnih raziskav na tem področju. Med pomembnejšimi dosežki je mogoče šteti razvoj tehnologije Eigenface.30 Začetnika te tehnologije sta L. Sirovich in M. Kirby, ki sta leta 1987 objavila članek, v katerem sta predstavila metodo, s katero je bil obraz razdeljen na več Eigenpictures.31 V primerjavi s prej opisano metodo računalnik opredeli ključne obrazne značilnosti za primerjavo z drugimi obrazi.

Delo Sirovicha in Kirbyja sta nadaljevala Turk in Pentland,32 ki sta razvila sistem, ki je deloval skoraj brez časovnega zamika (ang. near real-time).33 Bistvene značilnosti je računalnik pridobil z analizo obrazov in tvorjenjem posebnih modelov, ki se imenujejo Eigenface.34 Modeli so predstavljeni v obliki podob, ki spominjajo na obraze duhov.35 Težave, s katerimi sta se avtorja soočila, so bile iskanje obraza med premikanjem osebe, vpliv ozadja na sliko, različna velikost in naklon obraza na fotografiji ter različna obrazna usmerjenost.36

Na prehodu v 21. stoletje je prihajalo do vse hitrejšega razvoja. Pomembna prelomnica je bilo tekmovanje FRT ImageNet, na katerem je leta 2012 zmagala tehnologija AlexNet. Do takrat so se namreč FRT s posameznimi spremembami v slikah obrazov (npr. osvetljenost, maska, obrazni izraz) ukvarjali posamično. AlexNet pa je začel s celovitim reševanjem teh težav z uporabo tehnologije globokega učenja (ang. deep learning).37 Rezultati testiranja tehnologije na tekmovanju so pokazali močno odpornost na omenjene spremembe med fotografijami obrazov.38 Naslednji pomemben mejnik na področju uporabe globokega učenja pri prepoznavi obrazov je bila

28 NEC NZ (2020), A brief history of Facial Recognition.

29 Ballantyne, Boyer, Hines (1996) Woody Bledsoe AI Magazine. 9-11.

30 NEC NZ (2020), A brief history of Facial Recognition.

31 Sirovich, Kirby (1987) Low-dimensional procedure Journal of the Optical Society of America A.

32 NEC NZ (2020), A brief history of Facial Recognition.

33 Turk, Pentland (1991) Eigenfaces for Recognition Journal of Cognitive Neuroscience. 71.

34 Prav tam 72.

35 Glej prikaz modelov eigenface označenih kot Figure 2 v Turk, Pentland (1991) Eigenfaces for Recognition Journal of Cognitive Neuroscience. 75.

36 Prav tam 77, 79-81.

37 Gre za napredno metodo strojnega učenja, ki uporablja več slojev obdelave za odkrivanje vzorcev in struktur v veliki količini podatkov, pri čemer se vsak sloj uči koncepta, na podlagi podatkov, ki so jih uporabljali prejšnji sloji. Višji kot je sloj, bolj abstraktni so naučeni koncepti; Rusk (2016) Deep Learning Nature Methods.

38 Wang, Deng (2021) Deep face recognition Neurocomputing. 215.

(10)

5

tehnologija DeepFace, ki je na testu LFW39 dosegla natančnost, ki jo na testu dosežejo ljudje. Na podlagi omenjenih uspehov se je natančnost tehnologije povišala iz 97,35 % na 99,80 % v treh letih.40

Tehnologija prepoznave obrazov poteka v treh stopnjah. Sprva mora biti obraz zaznan (1), nato je obraz »normaliziran«(2), nato pa sledi implementacija modula tehnologije (3). Zadnja stopnja je sestavljena iz treh delov: obdelave obraza (ang. face processing) (3.1.), pridobivanje obraznih značilk (ang. feature extraction; 3.2.) in nazadnje še ujemanje obrazov (ang. face matching; 3.3.).

Obdelava obraza je namenjena izničenju vpliva različnih okoliščin, v katerih je posneta oseba, (npr. različna osvetlitev slik, obrazni izrazi in oviran pogled na celoten obraz). Metode, uporabljene v zadnji stopnji (3), so lahko usmerjene v ustvarjanje različnih različic slike iz osnovne slike, ki poustvarijo različne položaje obraza, ali pa usmerjene v ustvarjanje ene »osnovne« slike iz različnih slik, ki vključujejo različne položaje obraza.

Ujemanje obrazov lahko razlikujemo glede na namen, ki ga izpolnjuje. Če gre za obrazno verifikacijo (ang. face verification), je namen programa primerjati dve sliki in ugotoviti, ali gre za isto osebo na obeh slikah. Drugačen cilj pa zasleduje obrazna identifikacija (ang. face identification), katerega namen je ugotoviti, kdo je oseba na sliki, pri čemer to sliko primerja s slikami v zbirki slik znanih oseb.41

FRT z globokim učenjem (ang. deep face recognition) temelji na učenju programa, da sam razvije primerno pot, ki jo bo uporabil vsakič, ko bo soočen z nalogo prepoznave obrazov. Za dobro delovanje je že v fazi učenja pomembno, da ima program dostop do kar se da velike zbirke slik znanih oseb. Težava, s katero se raziskovalci v akademski skupnosti soočajo v tej fazi, pa je, da javne zbirke niso tako obsežne kot zasebne zbirke tehnoloških podjetij, kot sta npr. Facebook in Google. Javno dostopne zbirke slik s podatki namreč trenutno obsegajo med 1000 in 100.000 slik, medtem ko sta imela Facebook in Google pri razvoju svojih sistemov prepoznave obrazov dostop do zbirke, ki je vsebovala med 1.000.000 in 10.000.000 oseb.42 Za premostitev te razlike si raziskovalci poskušajo pomagati z različnimi metodami, (npr. ustvarjanjem več slik iz ene same,43 ustvarjanjem 3D modelov iz ene slike ipd.)44

Poleg težav z dostopnostjo velikega števila fotografij oseb je opazna težava tudi t. i. pristranosti podatkov. V obstoječih zbirkah za učenje je namreč pogosteje mogoče zaslediti bele moške srednjih let, kar z upoštevanjem dejstva, da je pri učenju pomembna prav vsaka slika v zbirki podatkov, pomeni, da je sistem učinkovitejši, ko gre za osebe z navedenimi značilnostmi.

Pomembno je, da je slikovna zbirka uravnotežena z vidika različnosti oseb na fotografijah.45 Kljub razvoju FRT z globokim učenjem ima tehnologija še vedno nekatere pomanjkljivosti, ki onemogočajo njeno ustrezno uporabo v vsakdanjem življenju. Težave, s katerimi se raziskovalci še naprej soočajo, so različni položaji obrazov na fotografijah, različna starost osebe na fotografijah, uporaba ličil in mask oseb na fotografijah. Prav tako razvijajo različne rešitve, ki omogočajo učinkovito prepoznavo obrazov tudi s fotografij nizke resolucije. Pri delu organov pregona so še posebej relevantne rešitve, ki omogočajo prepoznavo obrazov na podlagi skic, pri čemer se za to najpogosteje uporabljata dve metodi. Prva je uporaba fotografij in skic pri učenju,

39 LFW benchmark, več o tem v University of Massachusetts, Labeled Faces in the Wild.

40 Wang, Deng (2021) Deep face recognition Neurocomputing. 215-216.

41 Prav tam 218.

42 Prav tam 220. Podrobneje o zbirkah fotografij v Wang, Deng (2021) Deep face recognition Neurocomputing.

228.

43 Ang. one to many augmentation.

44 Prav tam 226-227.

45 Prav tam 230. O rešitvah več v Wang, Deng (2021) Deep face recognition Neurocomputing. 238.

(11)

6

druga pa je uporaba različnih metod, s katerimi se fotografije pretvorijo v skice in obratno, ter tako obdelane fotografije in skice uporabi pri učenju. Posebej relevantne so tudi rešitve, ki so nastale zaradi težav preiskovalcev, ko imajo zelo omejeno število fotografij osebe,46 in tiste, ki se ukvarjajo s prepoznavo obrazov z videoposnetkov.47

Sistemi prepoznave obrazov se soočajo tudi z napadi. Med najbolj prepoznavnimi sta obrazno slepljenje (ang. face spoofing) in namensko izzivanje napačne klasifikacije z namenom škodovanja (ang. adversarial perturbation). Pri prvem gre za prevaro sistema s kazanjem natisnjene fotografije osebe, nošenjem maske ipd. Tako prevaro lahko zazna že človek, ko vidi, da je bila pokazana lažna podoba senzorju. Pri drugi metodi gre za način, ki ga človek praviloma ne prepozna kot prevaro.

Gre za vnašanje prikritih značilnosti na prepoznaven objekt, tako da ga sistem ne prepozna pravilno.48

Hiter razvoj na tem področju prinaša tudi številne možnosti prepoznave podatkov o posamezniku, ki niso nujno vezani na njegovo identiteto. Tako je mogoče iz obraznih slik ugotoviti spol, starost, raso in celo genetske značilnosti posameznika.49 Zaradi tega se razvijajo različne rešitve za boljše varovanje zasebnosti pri uporabi FRT.50

Iz opisanega izhaja, da razvoj FRT poteka že 60 let. Z leti se je razvil v popolnoma samostojno tehnologijo, ki potrebuje čim večje količine podatkov za izboljšanje njenega delovanja. To je predvsem posledica uvedbe globokega učenja v njen razvoj. Kljub učinkovitosti, ki v določenih okoliščinah presega človeške zmožnosti,51 pa še vedno ni odporen na različne oblike napadov. Ti služijo kot opozorilo, da so okoliščine vsakdanjega življenja različne od laboratorijskih, iz katerih izhajajo opisani rezultati. Pri razvoju takih sistemov, ki so namenjeni vsakdanji rabi, so tako potrebne ogromne količine podatkov, ki kar se da odražajo razmere, v katerih bo sistem uporabljen, za dosego njegove čim boljše učinkovitosti.

46 T. i. low-shot face recognition.

47 Wang, Deng (2021) Deep face recognition Neurocomputing. 234-237.

48Prav tam 238. Med primeri takega je mogoče navesti preizkus, v katerem je sistem namesto banane prepoznal opekač kruha (BBC (2018) Psychedelic toasters fool image recognition tech)., preizkus, v katerem so uspešno razvili nalepko za izognitev sistemu zaznave obraza, ki si jo lahko vsakdo natisne ((Thys in dr. (2019) Foolign automated surveillance cameras 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)), in preizkus, v katerem so nadgradili prejšnji preizkus in ga prilagodili za uporabo na majicah (Xu in dr. (2019) Evading Real-Time Person Detectors by Adversarial T-shirt Research Gate).

49 Gurovich in dr. (2019) Identifying facial phenotypes of genetic disorders usinh deep learning Nature Medicine. 60-63.

50 Prav tam 238.

51 Prav tam 239.

(12)

7

3. Razširjenost tehnologije v svetu in Sloveniji pri delu organov pregona

V današnjem globaliziranem svetu se nova znanstvena spoznanja hitro širijo. Primer tega je umetna inteligenca, ki ni zgolj znanstvena tema in tehnologija, temveč zaradi možnosti, da bo spremenila vsakdanje življenje ljudi, tudi politična tema.52 FRT je del javne razprave o umetni inteligenci. Vse več držav namreč razmišlja o uporabi omenjene tehnologije, predvsem v okviru dela organov pregona. Med najbolj odmevnimi primeri take uporabe so tisti, ki zadevajo veliko število ljudi, na primer med uporabo na protestih ali na javnih krajih, ki so zelo obiskani. Ob tem se izpostavlja vprašanje dopustnosti take uporabe glede na učinek, ki ga ta ima na pravice in svoboščine posameznikov. Za preučevanje FRT je tako pomembno poznati razširjenost te tehnologije v svetu, kar omogoča predstavo o dejanskih posledicah, ki jih ta lahko ima za posameznika.

V marcu 2020 je bila izvedena raziskava s strani družbe Surfshark o uporabi FRT po svetu.53 Ugotovljeno je bilo, da je od 194 preiskovanih držav, FRT uporabljalo 109 držav. Pri tem gre za 32 držav Evrope, polovico držav Severne in Srednje Amerike, 92 % držav Južne Amerike, 76 % držav Bližnjega vzhoda in Srednje Azije. Za preostanek držav Azije je značilno, da gre za države, ki so velike izvoznice tehnologije. Tako predvidevajo, da bo Kitajska do leta 2023 dosegla približno 45 % tržnega deleža na svetovnem trgu FRT. V Afriki je v nasprotju z večino preostalih celin FRT manj prisoten. Uporablja ga približno petina držav, ob tem pa še približno 13 % afriških držav razmišlja o uporabi te tehnologije. Med državami, ki jo uporabljajo, prevladuje tehnologija, uvožena iz Kitajske. V Maroku je bila septembra 2019 izdana začasna prepoved uporabe FRT, pri čemer gre za edini primer iz raziskave, pri katerem bi šlo za vnaprej izdano prepoved uporabe.54 Združene države Amerike so ena izmed držav, v katerih je FRT v uporabi. Posebnost te države pa je, da je uporaba in ureditev odvisna od vsake posamezne zvezne države. Med odmevnimi raziskavami, ki so opozorile na številne težave FRT in uporabe tega v ZDA, je raziskava, ki so jo leta 2016 izvedli raziskovalci iz Centre on Privacy and Technology iz univerze Georgetown Law.55 Organi pregona v ZDA uporabljajo FRT za opravljanje različnih nalog. Najpogosteje gre za ustavitev posameznika in njegovo identifikacijo, aretacijo in z njo povezano identifikacijo, preiskavo kaznivih dejanj in z njo povezano identifikacijo ter za implementacijo tehnologije v videonadzorne sisteme. 56 Iz raziskave izhaja ocena, da približno četrtina organov pregona v ZDA ima možnost uporabe FRT (samostojno ali z možnostjo dostopa do sistema drugega organa). Pri tem so najstarejši taki sistemi v uporabi že od leta 2001.57 Eden najstarejših je FACES, ki je v uporabi pri Florida & Pinellas County Sheriff's Office. Gre za sistem z možnostjo primerjave fotografij z 22 milijoni fotografij vozniških dovoljenj in osebnih izkaznic, izdanih na Floridi, z več kot 11 milijonov fotografij, posnetih s strani policije (ang. mug shots) in 24,9 milijona fotografij iz zbirke FBI. Za uporabo sistema ni treba predhodno ugotoviti, da obstaja sum, da je oseba storila kaznivo dejanje. Sistem je uporabljen 8.000-krat mesečno.58 Najbolj obsežno zbirko fotografij za primerjavo pa ima sistem, ki je v uporabi pri FBI. Ta vsebuje 411 milijonov fotografij, od katerih je 24,9 milijona fotografij posnetih s strani FBI (ang. mug shots), 140 milijonov fotografij iz vizumskega sistema in 185 milijonov fotografij z osebnih dokumentov. FBI ni zavezan k

52 Primer tega je veliko število aktivnosti v zvezi z umetno inteligenco na ravni Organizacije združenih narodov;

ITU (2020) Ai for Good.

53 Surfshark (2020), The Facial Recognition World Map.

54 Prav tam.

55 Center on Privacy & Technology at Georgetown Law (2016), The Perpetual Line-Up.

56 Prav tam 11-12. Gre za sprotno tehnologijo prepoznave obrazov (ang. real-time facial recognition), imenovano tudi tehnologija prepoznave obrazov v živo (ang. live facial recognition technology) (dalje sprotna FRT), ki deluje med izvajanjem videonadzora, sproti zaznava obraze, ki jih kamere posnamejo, in nato te primerja z obrazi iz vnaprej določene zbirke fotografij, t. i. watchlist (Agencija Evropske unije za temeljne pravice (2020) Getting the Future Right. 3.).

57 Prav tam 25.

58 Prav tam 127.

(13)

8

predhodni ugotovitvi razlogov za sum (ang. reasonable suspicion) za uporabo sistema, ta pa je bil uporabljen vsaj 36.000-krat do objave raziskave.59

V Evropski uniji je eno izmed raziskav o tem opravil Nicolas Kayser – Bril iz nemške nevladne organizacije AlgorithmWatch, ki se posveča obravnavi avtomatiziranih odločitev v različnih sektorjih. Ugotovil je, da je do junija 2020 FRT uporabljalo vsaj 11 policijskih organov v Evropski uniji. Nemški organi tehnologijo uporabljajo od leta 2008 na zvezni in lokalni ravni. Pri tem sta bila izvedena tudi dva pilotna projekta sprotnega FRT.60

Med najbolj razvitimi državami na področju uporabe FRT je Združeno kraljestvo (v nadaljevanju ZK). Njegovo glavno mesto London je namreč med mesti z največ videonadzornimi kamerami glede na število prebivalcev na svetu.61 Iz podatkov metropolitanske policije, pristojne za širše območje Londona, izhaja, da uporablja tako sprotnega FRT kot tudi FRT na podlagi že pridobljenih posnetkov za nazaj. Pri sprotnem FRT se hranijo fotografije oseb, ki so predstavljale zadetek, še največ 31 dni po njihovi pridobitvi, do konca preiskave ali do konca kazenskega postopka. Uporaba poteka tako, da policija vnaprej sporoči, da se bo tehnologija uporabljala, po uporabi objavi rezultate, prav tako pa postavi znake na nadzorovano območje in osebam na območju odgovarja na morebitna vprašanja o delovanju sistema.62 Med odmevnejšimi primeri uporabe sprotnega FRT v ZK je uporaba sprotnega FRT na finalu UEFA Lige prvakov leta 2017 v Cardiffu, na katerem so ugotovili, da je bilo 92 % vseh zadetkov sistema napačnih.63 Iz ZK izvira tudi eden prvih primerov sodne presoje sprotnega FRT.64

V Franciji je bil med prvimi odmevnimi primeri uporabe FRT poskus uporabe tehnologije v sistemu Alicem. Gre za sistem za avtorizacijo dostopa do spletnih storitev javne uprave francoskim državljanom.65 Obširen sistem videonadzora je sicer prisoten v Nici od leta 2010, kjer so leta 2018 želeli izvesti poskus delovanja sprotnega FRT pred eno izmed srednjih šol. Ta poskus so želeli izvesti tudi pred srednjo šolo v Marseillu, sodelovali pa bi dijaki, ki so privolili v to. Odločitev o poskusu so sprejele regionalne oblasti.66 Sledil je upravni spor, ki ga je sprožila francoska nevladna organizacija La Quadrature du Net in po katerem je upravno sodišče v Marseillu razsodilo v prid organizaciji. Ugotovljeno je bilo, da privolitev dijakov ni bila skladna s Splošno uredbo o varstvu osebnih podatkov,67 prav tako pa bi odločitev o poskusu morale sprejeti šole same.68 Znan je še primer, ko je Nica sklenila javno-zasebno partnerstvo s podjetjem Confidentia. Podjetje je omogočilo brezplačno testiranje učinkovitosti njihovega sprotnega FRT sistema na enem izmed vhodov na prireditveni prostor za osebe, ki so v poskus privolile.69

FRT, predvsem sprotni FRT, se po svetu širi tudi kot del koncepta varnih mest (ang. Safe City).70 Gre za del širše ideje pametnih mest (ang. Smart City).71 Koncept varnih mest sicer izvira iz

59 Prav tam 120.

60 Kayser – Bril (2020) At least 11 police forces.

61 Bischoff (2021), Surveillance camera statistics.

62 Metropolitan Police, Live Facial Recognition.

63 BBC (2018) 2,000 wrongly matched.

64 R(Bridges) v CC South Wales & ors, Court of Appeal, case no. C1/2019/2670, 11. 8. 2020.

65Louis (2019), France embraces facial recognition tech.

66 Kayali (2019), How facial recognition.

67 Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES, OJ L 119, 4.5.2016, str. 1–88; v nadaljevanju GDPR.

68 Pascu (2020) French high court.

69 Kayali (2019), How facial recognition.

70 Primer tega so pametni sistemi za nadzor, iskanje, detekcijo in identifikacijo, omenjeni v konceptu Safe City, oblikovanem za Slovaško (Lacinák, Ristvej (2017) Smart City, Safety and Security Procedia Engineering. 524- 525.).

71 Prav tam 523.

(14)

9

programa Safer City,72 ki ga je razvila organizacija UN Habitat leta 1996, na zahtevo županov afriških mest.73 Sistem varnih mest zasleduje varnost s številnimi pametnimi napravami, senzorji in družbenimi omrežji, ki ustvarjajo veliko podatkovje, z njihovo analizo pa se omogoča optimalna uporaba časa in orodij za ukvarjanje z grožnjami.74 Pri tem je pomembno, da se doseže tako kibernetska varnost kot tudi zagotovitev spoštovanja pravice do zasebnosti.75

Koncept pametnega mesta je prisoten tudi v Sloveniji,76 medtem ko v slovenskih mestih ni prisotnega sistema, ki bi ustrezal zgornji opredelitvi varnih mest. Znano pa je, da slovenska policija že od leta 201477 uporablja sistem FaceTrace, razvit za izvajanje kriminalističnih nalog.78 Policija to uporablja za primerjavo fotografij s fotografijami iz evidence fotografiranih oseb. Policist fotografije iz evidence tako kot primerjano fotografijo predhodno vnese v sistem. Rezultat tega je razvrščen seznam oseb iz evidence po podobnosti, pri čemer policist sprejme končno odločitev o identifikaciji.79Vprašanje identificiranja z navedenim sistemom je bilo poudarjeno tudi pri uporabi tega za identifikacijo protestnikov.80

Mogoče je skleniti, da se FRT skupaj z umetno inteligenco širi po celem svetu. Pri tem ima pomembno vlogo ideja pametnih mest in z njimi tudi varna mesta. Pomembno je, da je pri tem zagotovljena tako kibernetska varnost kot zaščita pravice do zasebnosti. S tem se soočajo tako v ZDA kot tudi v EU. Posebej razširjena je uporaba v ZK, kjer je tudi eno izmed najbolj videonadzorovanih mest na svetu. V Sloveniji policija prav tako uporablja FRT pri kriminalističnih nalogah. Iz javno dostopnih podatkov pa ne izhaja, da bi uporabljala sprotni FRT.

72 UN Habitat, Smart City Programme.

73 Lacinák, Ristvej (2017) Smart City, Safety and Security Procedia Engineering. 524.

74 Allam (2019) The Emergence Smart Cities. 98.

75 Fujs, Markelj (2018) Zasebnost Varstvoslovje. 7,9.

76 Za Ljubljano glej Mestna občina Ljubljana, Ljubljana Pametno mesto.

77 Kayser – Bril (2020) At least 11 police forces.

78 CENT-SI, Biometric Systems.

79Prelesnik (2021) Policijski sistem Face Trace.

80 Po protestih v Mariboru v aprilu 2021 je prišlo do kaznovanja udeležencev, pri čemer so se pojavljale navedbe, da bi bila lahko identifikacija opravljena z navedenim sistemom, zaradi tega pa še sprožen inšpekcijski postopek Informacijske pooblaščenke (Felc (2021) Policija ima pri avtomatski prepoznavi obraza določene omejitve.).

(15)

10

4. Uporaba tehnologije kot poseg v človekove pravice

Človekove pravice so »s pravnimi pravili urejena upravičenja posameznika v razmerju do državne oblasti«.81 Njihov temeljni namen je omejevanje politične oblasti v korist posameznikovi samostojnosti in emancipaciji.82 FRT je lahko obravnavan kot pomoč pri izvajanju oblasti, preiskavi in pregonu kaznivih dejanj, mogoče pa ga je obravnavati tudi kot del novega nadzora. Je namreč usmerjen na telo (obrazno podobo), je vsakodneven, saj posamezniki že zdaj množično delijo fotografije in se FRT že uporablja za dostop do določenih storitev,83 je tudi univerzalen,84 prav tako pa premaguje meje fizičnega nadzora.85 Z vidika obravnave FRT kot oblike nadzora se tako zastavljajo predvsem vprašanja posegov v pravico do zasebnosti posameznikov in v pravico do varstva osebnih podatkov. Ob tem so lahko med prizadetimi pravicami posameznikov tudi domneva nedolžnosti, svoboda zbiranja, enakosti pred zakonom in ostale, ki bodo obravnavane v posebnem podpoglavju.

4.1. Poseg v pravico do zasebnosti

Posamezniki zasebnost obravnavajo različno glede na njihova pričakovanja v različnih družbenih kontekstih. Tako tudi splošno sprejeta definicija zasebnosti ne obstaja.86 Z razvojem človeške družbe se je vloga zasebnosti spremenila. Zasebna sfera se je premaknila iz sfere življenjske nujnosti na polje svobode, tako pa je bila zasebnost obravnavana kot vrednota in prvi pogoj posameznikove svobode in emancipacije. Z zasebnostjo je posameznik dobil zaščito pred družbo, da se lahko razvije v svobodno in avtonomno človeško bitje.87

Nadzor je del družbenega delovanja, ki nudi zaščito in udobje in tudi možnost upravljanja družbe.

V sodobni družbi temelji na množičnem zbiranju podatkov in njihovem obdelovanju z metodami statističnih tehnik, med katere sodijo tudi sistemi umetne inteligence.88 Z razvojem te tehnologije in vse pomembnejšo vlogo nadzora je za zagotovitev posameznikove možnosti biti svoboden in se tako razvijati, vse pomembnejše razvijati tudi varstvo pravice do zasebnosti.

Slednja je v mednarodni skupnosti varovana z uveljavljenimi pravnimi akti za varstvo človekovih pravic.89 Visoki komisar Združenih narodov za človekove pravice zasebnost opredeljuje kot

»domnevo, da imajo posamezniki območje samostojnega razvoja, odnosov in svobode, »sfero zasebnosti« z ali brez odnosov z drugimi, prosto državnih posegov in pretiranih nezaželenih posegov s strani ostalih nepovabljenih posameznikov«.90 Pri njeni obravnavi v digitalni dobi je poudarjeno varstvo podatkov o osebi ali njenem življenju, ki ga varuje informacijska zasebnost, · saj so od osebnih podatkov vse bolj odvisne države in poslovni subjekti. Obrazna geometrija sodi med posebej občutljivo kategorijo osebnih podatkov, biometrične podatke. 91 Država ima obveznost zaščititi posameznike pred posegi v njihovo pravico do zasebnosti in se vzdržati ravnanj, ki bi kršila to pravico. Vzpostaviti mora standarde za obdelavo osebnih podatkov, ki veljajo za javne in zasebne subjekte, prav tako pa ustanoviti neodvisna nadzorna telesa. Treba je spoštovati načelo transparentnosti glede obdelave osebnih podatkov, zakonodaje na tem področju

81 Kaučič, Zagorc. V: Grad, Kaučič, Zagorc (2016) Ustavno pravo. 698.

82 Prav tam 699.

83 Glej primer sistema Alicem v Franciji (Louis (2019), France embraces facial recognition tech).

84 Glej podatke o številu fotografij v zbirkah sistemov FRT v ZDA v 3. poglavju.

85 Pridobitev fotografije osebe je mogoča na daljavo, iz videoposnetkov nadzornih kamer, ipd. Završnik. V:

Kovačič in dr. (2010) Kriminaliteta in tehnologija. 38-46.

86 Kovačič (2006) Nadzor in zasebnost. 12.

87 Prav tam 18-19.

88 Prav tam 22, 30.

89 12. člen Splošne deklaracije človekovih pravic (Sklep o objavi besedila Splošne deklaracije človekovih pravic, Ur. l. RS, št. 24/2018), pravno zavezujoče pa v 17. členu Mednarodnega pakta o državljanskih in političnih pravicah (MPDPP), Ur. l. RS, št. 35/92 – MP, št. 9/92.

90 The United Nations Commissioner for Human Rights (2018), The right to privacy in the digital age. 3.

91 Prav tam 5.

(16)

11

in sprejetih politik.92 Ob tem je treba osebam, ki jim je bila kršena pravica do zasebnosti, zagotoviti pravico do učinkovitega pravnega sredstva.93

Zasebnost je varovana tudi v 8. čl. Evropske konvencije o človekovih pravicah, tudi kot varstvo zasebnega življenja. 94 Iz sodne prakse Evropskega sodišča za človekove pravice95 izhaja, da je zasebno življenje širok koncept, ki ne premore izčrpne opredelitve, vključuje pa pravico do osebnega razvoja in pravico, da vsak posameznik vzpostavi in razvija odnose z drugimi.96 Država ima pri varstvu te pravice tako pozitivne97 kot negativne obveznosti. Temeljna negativna obveznost je vzdržati se posegov v pravico do zasebnosti, ki so neskladni z 2. odst. 8. čl. EKČP.

Gre za zahteve po določenosti posega v zakonu, nujnosti v demokratični družbi in zasledovanja legitimnih ciljev. ESČP pri presoji merila določenosti upošteva tudi jasnost in predvidljivost, pri presoji nujnosti v demokratični družbi pa tehta med interesi države in pravicami vlagatelja.98 Osebna podoba je v sodni praksi ESČP varovana kot ena izmed vrednot zasebnega življenja. Je eden glavnih atributov osebnosti, ki osebo ločuje od drugih ter predpostavlja pravico do nadzora nad njeno uporabo. Oseba ima pravico nasprotovati snemanju, hrambi ali reprodukciji podobe s strani drugih.99 Pomembni vprašanji pri tem pa sta, kakšno je varstvo posameznika pri njegovem fotografiranju s strani javnih organov in kakšno varstvo lahko upravičeno pričakuje glede hrambe fotografij njegove podobe.

Na prvo vprašanje je bilo odgovorjeno že s strani Evropske komisije za človekove pravice, ki je v zadevi Friedl proti Avstriji100 sprejela stališče, da fotografiranje protestnikov, med katerimi je bil pritožnik, s strani policije ni predstavljalo posega v njegovo pravico do zasebnega življenja.

Policija namreč fotografije ni posnela s posegom v njegov notranji krog,101 fotografije so prikazovale javni dogodek na javnem kraju, namen je bil beleženje značaja protesta in sanitarnih pogojev ter sledenje vedenju protestnikov glede morebitnih prekrškovnih postopkov.102 Osebe na fotografijah so ostale anonimne, njihova imena niso bila zabeležena, fotografije pa niso bile vnesene v sistem obdelave podatkov, tako da tudi protestniki niso bili identificirani z obdelavo teh podatkov.103 Komisija je sprejela primerljivo stališče v zadevi Kinnunen proti Finski, ko je zapisala, da fotografiranje osebe ob njeni aretaciji ni poseg v pravico do zasebnega življenja.104 ESČP je zgornji stališči potrdilo v zadevi Peck proti Združenemu kraljestvu,105 v kateri je opozorilo, da je objava posnetkov oseb s strani javnih organov brez utemeljenega razloga poseg v pravico do zasebnega življenja.106

Drugo vprašanje, ki se nanaša na hrambo fotografij s strani policije oziroma organov pregona, ESČP razvija predvsem v novejši sodni praksi. V zadevi S. in Marper proti Združenemu

92 Prav tam 7-12.

93 Prav tam 14-15.

94 Zakon o ratifikaciji Konvencije o varstvu človekovih pravic in temeljnih svoboščin, spremenjene s protokoli št.

3, 5 in 8 ter dopolnjene s protokolom št. 2, ter njenih protokolov št. 1, 4, 6, 7, 9, 10 in 11 (EKČP), Ur. l. RS., št.

7/94, 22/03 - MKVCP13, 12/09 - MPKVCPA, 7/05 - MPKVCP, 8/10 - MPKVCPB, 1/15 - MPKVCP16, 5/17 - MPKVCP15.

95 V nadaljevanju ESČP.

96 Evropsko sodišče za človekove pravice, Guide on Article 8. 21.

97 Prav tam 8-9.

98 Prav tam 8, 10-12.

99 Reklos and Davourlis v. Greece, no. 1234/05, 15. 1. 2009. par. 40.

100 Friedl v. Austria, no. 15225/89, 19. 5. 1994.

101 Ang. inner circle; npr. da bi vstopila v njegov dom in posnela fotografije.

102 Friedl v. Austria, no. 15225/89, 19. 5. 1994, par. 49.

103 Prav tam par. 50.

104 Kinnunen v. Finland, no. 24950/94, 15. 5. 1996, par. 2 (ii).

105 Peck v. the United Kingdom,(Eur. Ct. H. R., 28. 1. 2003, Reports 2003-I), par. 61.

106 Prav tam par. 62-63 in 85-87.

(17)

12

kraljestvu107 je sodišče obravnavalo dopustnost hrambe DNK profilov in celičnih vzorcev ter prstnih odtisov. Slednje je opredelilo kot osebne podatke, ker vsebujejo določene identifikacijske značilnosti in jih pri tem primerjalo z glasovnimi posnetki in fotografijami posameznika, ob njihovi obdelavi pa gre za poseg v pravico do zasebnega življenja.108 Sodišče je ugotovilo, da sta legitimna cilja za hrambo omenjenih podatkov lahko prevencija in odkrivanje kaznivih dejanj in njihovih storilcev,109 hramba pa ni bila nujna v demokratični družbi. Pravna norma za hrambo je bila zelo splošna, zgolj v izjemnih primerih je lahko oproščena oseba zahtevala izbris podatkov, hranili so se podatki storilcev skoraj vseh vrst kaznivih dejanj, hramba časovno ni bila omejena, prav tako ni bilo možnosti neodvisnega nadzora nad hrambo. Oproščeni posamezniki so bili obravnavani enako kot obsojeni, ob tem pa so bili podatki odvzeti mladoletniku, za katerega velja posebno varstvo.110

ESČP je sodno prakso glede hrambe fotografij razvijalo naprej v zadevi Gaughran proti Združenemu kraljestvu.111 Hramba fotografije v zbirki, ki ni omogočala uporabe v FRT ali z drugo podobno tehnologijo, obstajala pa je možnost naložitve fotografije v zbirko, ki to možnost ima, predstavlja poseg v pravico do zasebnosti.112 Pri ugotovitvi, ali gre pri taki hrambi za legitimen cilj, je sodišče sledilo praksi iz S. in Marper proti Združenemu kraljestvu. V delu presoje nujnosti posega je fotografije sodišče glede njihove narave primerjalo s prstnimi odtisi, saj naj ne bi razkrivale odnosov med osebami, medtem ko to izhaja iz DNK profilov.113 To je pomembno pri presoji posmrtne hrambe podatkov o osebi, saj bi lahko taka hramba vplivala tudi na pravice drugih, z osebo povezanih oseb.114 Iz sodbe izhaja, da je pomembno, da država pri ureditvi hrambe fotografij upošteva potrebo po hrambi fotografij, resnost dejanj in jamstva, ki so omogočena posamezniku, kar velja še bolj, ko je hramba časovno neomejena.115 Jamstva naj omogočajo posamezniku vložitev zahteve po izbrisu podatkov, če hramba ni več nujna glede na naravo dejanja, starost osebe, pretekel čas in trenutno osebnost osebe.116 Bistveno je, da država ne hrani fotografij in ostalih relevantnih osebnih podatkov brez upoštevanja okoliščin primerov, čeprav je kazen za kaznivo ravnanje že prestana, brez upoštevanja resnosti dejanja, potrebe po hrambi za nedoločen čas in brez resne možnosti nadzora.117

ESČP je hrambo fotografij kot poseg v zasebnost presojalo z merila nujnosti v demokratični družbi, tudi v zadevi P.N. proti Nemčiji.118 Nemški organi pregona so pritožniku odvzeli prstne odtise, odtise dlani, naredili so njegov opis, fotografije njegovega telesa, obraza in tetovaž, vse to pa hranili pet let. Sodišče je ugotovilo, da je bila zakonska podlaga dovolj določna.119 Nacionalno sodišče in policija pa sta morala pri tem upoštevati naravo in resnost prejšnjih dejanj, za katera je bil obsojen, postopke preiskave, predvsem glede na možnost njihove ponovitve.120 Hramba je bila torej vnaprej časovno omejena,121 prav tako pa sta nadzor nad njo izvajala policija in sodišče.122 Pri tem ESČP ni ugotovilo kršitve pravice do zasebnega življenja.

107 S. and Marper v. the United Kingdom (Eur. Ct. H. R., 4. 12. 2008, Reports 2008-V).

108 Prav tam par. 81, 84-86.

109 Prav tam par. 100.

110 Prav tam par. 119-124.

111 Gaughran v. the United Kingdom, no. 45245/15, 13. 2. 2020.

112 Prav tam par. 69-70.

113 Prav tam par. 80-81.

114 Prav tam par. 81. Osebo je mogoče identificirati tudi s primerjavo njenega DNK profila z DNK profilom njenega sorodnika. Sodišče v tem delu tudi opozori na možnost napredovanja FRT v tej smeri.

115 Prav tam par. 88.

116 Prav tam par. 94.

117 Prav tam par. 96-98.

118 P.N. v. Germany, no. 74440/17, 11. 6. 2020.

119 Prav tam par. 66.

120 Prav tam par. 76-80.

121 Prav tam par. 85-87.

122 Prav tam par. 88.

(18)

13

Države pogodbenice ESČP pa so tudi podpisnice Konvencija 108,123 ki ureja standarde varstva osebnih podatkov, nekatere izmed njih pa so tudi podpisnice posodobljene različice, Konvencija 108 +.124 V okviru tega mehanizma so bila izdana tudi Priporočila za FRT,125 iz katerega izhaja, da gre za varstvo biometričnih podatkov.126 Vključitev FRT v obstoječe sisteme nadzora je lahko poseg v človekove pravice, saj posameznik o tem ni nujno obveščen. Pomembno je, da so urejena tako ustrezna pravna podlaga kot ustrezna pravna jamstva. Glede sprotnega FRT je priporočena razprava v demokratični družbi z možnostjo ustavitve uporabe te tehnologije do zaključka razprave. Uporaba FRT za določitev posebej občutljivih podatkov (npr. barve kože, verskih ali drugih prepričanj, zavzetosti delavcev) mora biti prepovedana, razen če so uveljavljena posebna jamstva, ki izključujejo diskriminacijo. Posebej je tudi urejena uporaba s strani organov pregona in pravice oseb, na katere se nanašajo obdelovani osebni podatki.127

Pravica do zasebnosti128 in varstvo osebnih podatkov129 sta varovana tudi na ravni EU. Agencija Evropske unije za temeljne pravice130 je prav tako izdala poročilo, v katerem so bili predstavljeni pogledi na učinek FRT na človekove pravice v kontekstu organov pregona.131 Poročilo se osredotoča na sprotni FRT in poudarja, da poseg v pravico do zasebnega življenja predstavlja tako začetna biometrična obdelava fotografij kot tudi primerjava in sestava watchlist-a. Uporaba omenjene tehnologije mora biti podvržena strogemu testu nujnosti in sorazmernosti, temeljiti mora na jasni pravni podlagi z legitimnim ciljem in upoštevati okoliščine konkretnega primera. Cilj mora biti določen in transparenten ter jasno definiran v pravnih aktih EU ali državi članici. Zbrani in hranjeni naj bodo le tisti podatki, ki so potrebni za to, ti naj bodo točni, varni in zagotovi naj se odgovornost oseb, ki jih obdelujejo.132

Na razumevanje vpliva FRT, na pravico do zasebnosti je pomembno vplivala tudi sodba najvišjega sodišča v pravnem sistemu Anglije in Walesa v zadevi R(Bridges) v CC South Wales & ors.133 Sodišče je odločalo o uporabi sprotnega FRT134 s strani South Wales Police135 na različnih javnih krajih. Poudarjeno je bilo, da velik delež oseb, ki so bile predmet prepoznave, ni vedel za uporabo sistema,136 čeprav uporaba ni bila tajna. Sodišče je sicer ugotovilo, da je SWC ravnal skrbno pri obveščanju javnosti.137 SWC je navajal, da je sprotni FRT treba obravnavati analogno z uporabo videonadzora ali fotografiranja na javnem mestu, kar je sodišče zavrnilo. Sprotni FRT je namreč nova tehnologija, ki zajema podobe in obdelavo digitalnih informacij o velikem številu oseb, pri čemer večina oseb sploh ni »zanimiva za policijo«. Gre za avtomatizirano obdelavo podatkov.138

123 Zakon o ratifikaciji konvencije o varstvu posameznikov glede na avtomatsko obdelavo osebnih podatkov, Ur.

l. RS – Mednarodne pogodbe, št. 3/94, 86/04.

124 Protokol o spremembi Konvencije o varstvu posameznikov glede avtomatske obdelave osebnih podatkov, neratificiran v Republiki Sloveniji.

125 Consultative Committee, Convention 108 (2021), Guidelines on Facial Recognition.

126 Gre za varstvo tistih obdelav podob posameznika, ko posebna tehnološka sredstva omogočajo identifikacijo ali avtentifikacijo posameznika (Consultative Committee, Convention 108 (2021), Guidelines on Facial Recognition.

3.).

127 Prav tam 3-6, 8, 15-16.

128 7. čl. Listina Evropske unije o temeljnih pravicah (LEUTP), UL C 83/389, 30. 3. 2010.

129 8. čl. LEUTP.

130 Ang. European Union Agency for Fundamental Rights, v nadaljevanju FRA.

131 Agencija Evropske unije za temeljne pravice (2019), Facial Recognition Technology.

132 Prav tam 23-26.

133 R(Bridges) v CC South Wales & ors, Court of Appeal, case no. C1/2019/2670, 11. 8. 2020.

134 V zadevi imenovan kot automated facial recognition oziroma kot AFR.

135 V nadaljevanju SWC.

136136 R(Bridges) v CC South Wales & ors, Court of Appeal, case no. C1/2019/2670, 11. 8. 2020.par. 20; glej tudi Consultative Committee, Convention 108 (2021), Guidelines on Facial Recognition. 3..

137 Prav tam par. 70.

138 Prav tam par. 84-89.

(19)

14

Sodišče je ugotovilo, da je v konkretnem primeru prišlo do kršitve zahteve po določenosti posega v pravico do zasebnega življenja z zakonom.139 Iz pravnih predpisov je izhajalo, da ni bilo dovolj določeno, kdo je lahko postavljen na watchlist, kje je lahko sprotna FRT sploh uporabljena in obveznost samodejnega in takojšnjega izbrisa podatkov o osebah, ki niso bile prepoznane.

Relevantni akti so namreč zahtevali zgolj ustrezen namen organov pregona.140

Opisana sodba ne vpliva neposredno na razumevanje FRT v Sloveniji, saj gre za sodbo tujega sodišča, čeprav gre za eno odmevnejših sodb, ki vpliva na razumevanje v širšem, evropskem, prostoru. Slovenijo zavezujejo vsi navedeni mednarodnopravni akti z izjemo Konvencije 108+, saj ta s strani Slovenije še ni bila ratificirana.141 Ti skupaj z Ustavo Republike Slovenijo142 določajo standard varstva človekovih pravic v Sloveniji.143 Med njimi sta tudi z URS zagotovljeni in v tem poglavju obravnavani pravica do zasebnosti144 in pravica do varstva osebnih podatkov.145 Iz te ureditve izhajajo zahteve po obdelavi, skladno z namenom, določenosti zbiranja, obdelovanja, namena uporabe, nadzora in varstva tajnosti podatkov z zakonom in pravici do seznanitve z osebnimi podatki, ki se nanašajo nanj, ter do sodnega varstva ob njihovi zlorabi.

Razlaga teh pravic v slovenskem pravnem sistemu glede na uporabo umetne inteligence pri delu policije izhaja iz delne odločbe Ustavnega sodišča Republike Slovenije,146 s katero je bila presojana ustavnost zakonske podlage za uvedbo uporabe tehničnega sredstva za optično prepoznavo registrskih tablic.147 Varuh človekovih pravic, ki je vložil zahtevo za presojo ustavnosti, je zatrjeval, da naj bi takšna uvedba omenjene tehnologije omogočala množični nadzor,148 da obstaja možnost lažno pozitivnih zadetkov, ki bi lahko predstavljali neupravičen poseg v pravice takih posameznikov, in neupravičeno hrambo vseh podatkov149 sedem dni po uporabi tehnologije. USRS je zadevo presojalo z vidika informacijske zasebnosti, ki vsebuje pravico posameznika, da odloča, koliko sebe bo razkril in komu, kar je predpostavka za svoboden razvoj njegovih intelektualnih in duhovnih potencialov. To tudi utrjuje svobodno nastajanje in pretok misli in idej ter pluralno demokratično družbo. USRS je menilo, da pri omenjenem ne gre za neomejeno varstvo, saj mora ob določenih pogojih posameznik dopustiti zbiranje in obdelavo njegovih osebnih podatkov. Dodalo je, da je prav vsaka obdelava podatkov, pod katero sodi tudi zbiranje, in uporaba teh, poseg v pravico do varstva osebnih podatkov iz 38. čl. URS. Dopustna obdelava skladno z obrazložitvijo odločbe zajema zgolj nujno potrebne in primerne podatke, ki zasleduje ustavno dopusten cilj in ki je skladna s splošnim načelom sorazmernosti.150 USRS je poudarilo zahtevo po zakonitosti obdelave podatkov, kar pomeni, da obstajajo jasne in pomensko določljive določbe, ki ne omogočajo samovoljnega ravnanja izvršilne veje oblasti in ki vsebujejo nedvoumno in dovolj določno opredelitev pravnega položaja subjektov, na katere se podatki nanašajo.151 USRS je ugotovilo, da je podatek o registrski tablici osebni podatek, saj je namenjen identifikaciji posameznika.152 Iz zakonske podlage je izhajal namen uporabe tehnologije, pogoj, da ne gre za množični nadzor in obrazno prepoznavo pri uporabi tehnologije, vrste obdelovanih

139 2. odst. 8. čl. EKČP.

140 Prav tam par. 91-93.

141 Na dan 19. 7. 2021.

142 Ustava Republike Slovenije (URS), Ur. l. RS, št. 33/91I, 42/97 - UZS68, 66/00 - UZ80, 24/03 - UZ3a, 47, 68, 69/04 - UZ50, 69/04 - UZ43, 69/04 - UZ14, 68/06 - UZ121,140,143, 47/13 - UZ90,97,99, 47/13 - UZ148, 75/16 - UZ70a.

143 4. odst. 15. čl. URS.

144 35. čl. URS.

145 38. čl. URS.

146 V nadaljevanju USRS.

147 Delna odločba USRS, št. U-I-152/17-30 z dne 4. 7. 2019.

148 T. j. nadzor tudi tistih posameznikov, ki sploh niso relevantni.

149 Tudi podatkov o tablicah, ki ne bi predstavljale zadetka.

150 Delna odločba USRS, št. U-I-152/17-30 z dne 4. 7. 2019, tč. 19-22 obrazložitve.

151 Prav tam, tč. 23-24 obrazložitve.

152 Prav tam, tč. 25 obrazložitve.

(20)

15

osebnih podatkov, samodejno beleženje registrskih tablic in rok hrambe. Ni pa bilo določbe, ki bi omogočala samodejno primerjavo zbranih podatkov z drugimi evidencami. USRS je ugotovilo, da je šlo za kršitev pravice do varstva osebnih podatkov, saj je za vsak korak obdelave potrebna ustrezna zakonska podlaga.153

Na podlagi opisanega je mogoče skleniti, da uporaba FRT lahko predstavlja dopusten poseg v pravico do zasebnosti in z njo povezano pravico do varstva osebnih podatkov. Pomembno je, da je tak poseg skladen z zahtevami, ki so urejene, tako v mednarodnih kot tudi v regionalnih in nacionalnih pravnih aktih, ki urejajo človekove pravice. Skupne zahteve na področju obravnavanih pravic so zahteve po zakonitosti, vezanosti na legitimen cilj in sorazmernosti. Ob tem pa so pomembne še natančnejše zahteve, ki se pojavljajo predvsem v okviru varstva človekovih pravic na evropski ravni, in sicer zahteva po ustreznem nadzoru, pravici do seznanitve s podatki in pravnega sredstva posameznika, časovni omejenosti hrambe ipd. Predstavljena primera sodne prakse nacionalnih sodišč kažeta, da je med bolj izpostavljenimi, zahteva po zakonitosti posega, kar je mogoče pripisati dejstvu, da je FRT nova tehnologija in da se šele z njeno uporabo razvijajo tudi standardi varstva človekovih pravic, v katere omenjena tehnologija posega.

4.2. Poseg v ostale človekove pravice

Pravica do zasebnosti omogoča posamezniku zaščito pred družbo in mu s tem omogoča tudi svoboden razvoj.154 Del tega predstavlja tudi popolno uresničevanje nekaterih drugih človekovih pravic, ki predstavljajo različne vidike njegovega sodelovanja pri v demokratičnih postopkih sodobne družbe. Uporaba FRT lahko predstavlja poseg v zasebnost in onemogoča, ali močno otežuje tudi uresničevanje drugih človekovih pravic, lahko pa izpolnjuje vse zahteve za upravičen poseg v zasebnost, pa vendarle posega v druge človekove pravice. Pri uvajanju in uporabi te tehnologije je treba poleg pravice do zasebnosti, ki je med najbolj izpostavljenimi pravicami, upoštevati tudi druge pravice, v katere lahko posega.

Pravica do dostojanstva je ena izmed pravic, ki je lahko tesno povezana s pravico do zasebnosti.

To nakazuje že ESČP, ki je v svoji sodni praksi izoblikovalo stališče, da je ena izmed varovanih vrednot z 8. čl. EKČP tudi dostojanstvo.155 Gre za pravico, ki je varovana tako z mednarodnimi pravnimi akti,156 kot tudi z regionalnimi157 in nacionalnimi.158 Na možnost posega v to pravico z uporabo FRT opozarja predvsem FRA.159 Tako že pri analizi možnih posegov v človekove pravice z uporabo umetne inteligence opozarja, da mora biti uporaba antropocentrična.160 Osebe morajo biti seznanjene z uporabo umetne inteligence.161 V zvezi z uporabo sprotne FRT FRA še izpostavlja neprijeten občutek ljudi, ko se gibajo na območjih, ki so nadzorovana z uporabo omenjenega sistema. To lahko vodi v spremembo njihovega naravnega obnašanja. Še bolj pa ljudje to občutijo, ko se tem območjem ne morejo izogniti. Do posega v pravico do dostojanstva pa lahko pride tudi v položajih, ko policisti ustavijo osebe na podlagi zadetka v sistemu sprotne FRT, saj se tako poveča tveganje za neprimerno obravnavo obravnavanih oseb s strani policistov v bolj stresnih okoliščinah.162

153 Prav tam tč. 28-34 obrazložitve.

154 Kovačič (2006) Nadzor in zasebnost. 18-19.

155 Evropsko sodišče za človekove pravice (2020), Guide on Article 8, 23.

156 1. in 5. čl. Splošne deklaracije človekovih pravic, 7. in 10. čl. MPDPP.

157 Posredno v okviru 8. čl. EKČP, glej zgoraj; čl. 1 LEUTP.

158 21. čl. in 34. čl. URS.

159 Agencija Evropske unije za temeljne pravice (2019), Facial Recognition Technology.

160 O objektivizaciji človeškega telesa pri uporabi FRT tudi v Nakar, Greenbaum (2017) Now You See Me Boston University Journal of Science and Technology Law. 119.

161 Agencija Evropske unije za temeljne pravice (2020) Getting the Future Right. 60.

162 Agencija Evropske unije za temeljne pravice (2019), Facial Recognition Technology. 20-21.

Reference

POVEZANI DOKUMENTI

Ob načrtovanju sestrske službe je treba upoštevati splošne spremembe, ki so na- stale na tem področju, in s tem v zvezi tudi sistem izobraževanja sestrskega teama in delitve dela.

–400 nm) večja kot 700 nm) do preobrata in tako je v ja kot odbojnost. Še vseeno pa sta tako odbojnost kot tudi ju. Iz grafa je razvidno tudi, da em delu vidnega spektra

Pomembna ugotovitev je tudi, da je HER2 status neodvisen napovedni dejavnik preživetja ne glede na druge lastnosti bolnic oziroma tumorja, da pa je ob tem HER-2 status

Pripomniti je tudi treba, da se strukturiranega znanja in uporabe informacijske tehnologije v zvezi z organizacijskim učenjem ne poudarja dovolj, kot na primer pri

The fear of government dataveillance and the risk of governmental data misuse do not seem feasible in the case of #OstaniZdrav because its database infor- mation value is modest

Ce pa je tako, potem človekovo dostojanstvo ni utemeljeno samo na svobodi, ampak tudi na odgovornosti, ne samo na pravicah, ampak tudi na dolžnostih.. Ni dostojanstva, če ni svobode,

člena ZASP, ki ureja pravico do spoštovanja avtorskega dela kot moralne avtorske pravice, saj tudi ta predvideva, da avtorsko delo še obstoji.. Razmerje med avtorskimi

Pomembna vloga medicinske se- stre v zdravstveni negi je tudi ustrezna priprava ženske na različne posege in njihove posledice, ob čemer mora upoštevati tako telesna kot tudi dušev-