• Rezultati Niso Bili Najdeni

Želja po vse večji učinkovitosti družbenih procesov vodi do razvoja in uvajanja novih tehnologij.

To velja tudi za preiskovanje in pregon kaznivih dejanj, pri čemer je ena takih tehnologij FRT.

Njene najnovejše različice temeljijo na modelih globokega učenja,293 ki so značilni po zelo učinkovitem in samostojnemu učenju ter razvijanju modelov lastnega delovanja na podlagi podatkov, ki so vneseni vanje.294 Njihovo delovanje pa ni popolnoma razvidno njihovim avtorjem.

Modele globokega učenja je tako mogoče označiti tudi kot črne skrinjice.295

FRT pa ni vselej temeljila na modelih globokega učenja. Podatke, ki jih je nato sistem preverjal, je namreč iz posameznih podob prepoznaval in v sistem vnašal človek.296 Sledilo je obdobje razvoja, v katerem je prišlo do vse večje avtomatizacije sistema, hkrati pa se je čas med nastankom posnetka in prepoznavo osebe krajšal.297 Z uporabo globokega učenja pri razvoju FRT pa se je natančnost FRT popolnoma približala in prehitela človeške zmožnosti.298 Taki sistemi sprva zaznajo obraz in ga nato »normalizirajo«, kasneje pa obraz še obdelajo, pridobijo njegove značilke in jih primerjajo z značilkami obrazov za primerjavo.299

Tako učinkoviti sistemi so v uporabi pri delu organov pregona po celem svetu.300 V ZDA organi pregona uporabljajo FRT že vsaj 20 let.301 Eno največjih zbirk fotografij za primerjavo ima FBI, ki lahko dostopa do 411 milijonov fotografij.302 V EU je FRT do junija 2020 uporabljalo vsaj 11 policijskih organov takratnih držav članic EU.303 Med najbolj razširjenimi je uporaba v nekdanji članici EU, ZK. V Londonu policija uporablja FRT za prepoznavo že pridobljenih posnetkov za nazaj kot tudi sprotnega FRT.304 Znani pa so tudi podatki o natančnosti sprotne FRT ob preizkusu njegove uporabe na finalu UEFA Lige prvakov leta 2017 v Cardiffu.305 Podobni preizkusi sprotne FRT so bili opravljeni tudi v Franciji.306 V Sloveniji ni podatkov o uporabi sprotne FRT, policija pa pri delu uporablja sistem FaceTrace že od leta 2014.307 Gre za sistem, v katerega je treba uvoziti fotografije za primerjavo, nato pa ta prikaže seznam oseb, razvrščenih po podobnosti z osebo iz prepoznavne fotografije.308

Z vse večjo razširjenostjo uporabe FRT pa se pojavljajo tudi opozorila o vplivu take uporabe na človekove pravice. Med najbolj izpostavljenimi pri tem je pravica do zasebnosti. FRT kot obliko umetne inteligence, ki za svoje delovanje potrebuje osebne podatke, je mogoče razumeti tudi kot obliko nadzora, 309 in s tem za poseg v zasebno področje kot posameznikove svobode in

293 Wang, Deng (2021) Deep face recognition Neurocomputing.215-216. Dobre rezultate kažejo tudi zadnja testiranja tehnologije pri osebah, ki so nosile zaščitne maske (The Maryland Test Facility (2021) 2020 Biometric Rally Results).

294 Rusk (2016) Deep Learning Nature Methods.

295 Rai (2020) Explainable AI Journal of the Academy of Marketing Science. 137-138.

296 Ballantyne, Boyer, Hines (1996) Woody Bledsoe AI Magazine. 9-11.

297 Turk, Pentland (1991) Eigenfaces for Recognition Journal of Cognitive Neuroscience. 71.

298 Wang, Deng (2021) Deep face recognition Neurocomputing. 238.

299 Prav tam 218.

300 Surfshark (2020), The Facial Recognition World Map.

301 Center on Privacy & Technology at Georgetown Law (2016), The Perpetual Line-Up. 25.

302 Prav tam 120.

303 Kayser – Bril (2020), At least 11 police forces,

304 Metropolitan Police, Live Facial Recognition.

305 BBC (2018) 2,000 wrongly matched..

306 Kayali (2019), How facial recognition.

307 Kayser – Bril (2020), At least 11 police forces.

308 Prelesnik (2021) Policijski sistem Face Trace.

309 Kovačič (2006) Nadzor in zasebnost. 22,30. Več o novem nadzorovanju v Završnik. V: Kovačič in dr. (2010) Kriminaliteta in tehnologija. 38-46.

27

emancipacije.310 Razvoj varstva pravice do zasebnosti tako poteka skupaj z razvojem oblik omenjenega nadzora.

Pravica do zasebnosti je varovana tako z mednarodnimi kot tudi regionalnimi mehanizmi varstva človekovih pravic. Osebna podoba kot predmet primerjave s FRT je v vseh aktih obravnavana kot posebej ranljiva kategorija podatkov.311 Država ima pri varstvu tako poudarjene pozitivne in negativne obveznosti.312

Osnovna negativna obveznost države je vzdržati se posegov v pravico do zasebnosti, izjema pa so posegi, pri katerih so izpolnjeni pogoji zakonitosti, nujnosti in zasledovanje legitimnega cilja.313 Iz razvoja razlage 8. čl. EKČP izhaja, da fotografiranje osebe na javnem mestu s strani organov pregona ni poseg v pravico do zasebnega življenja,314 medtem ko gre za neupravičen poseg, ko pride do objave fotografij315 ali njihove hrambe v sistemu, ki omogoča identifikacijo oseb na fotografijah.316 V primeru hrambe fotografij s strani organov pregona je treba pri izbiri, katere fotografije se hranijo in pri določitvi obdobja hrambe, upoštevati resnost dejanja, za katerega je bila fotografirana oseba obdolžena, presoditi je treba potrebo po hrambi in uveljavljena mora biti možnost nadzora nad hrambo.317 Zakonska podlaga za hrambo mora biti dovolj določna in hramba vnaprej časovno omejena.318 Te zahteve so na evropski ravni upoštevane tudi v okviru Konvencije 108 in njene prenovljene različice, Konvencije 108+, na podlagi katerih so bila izdana Priporočila za FRT.319 Na ravni EU je primerljiv dokument poročilo FRA, ki opozarja na posebej invazivno naravo uporabe sprotne FRT, zaradi česar morajo biti zahteve glede varstva človekovih pravic za to vrsto FRT še strožje.320 V Sloveniji je USRS sledilo zahtevam glede varstva osebnih podatkov in pravice do zasebnosti v zadevi, v kateri je bila presojana uvedba sistema optične prepoznave registrskih tablic pri delu policije.321 Pri tem je opozorilo predvsem, da mora imeti vsak korak obdelave ustrezno zakonsko podlago.322

Uporaba FRT pa lahko posega tudi v druge človekove pravice. V zvezi s pravico do dostojanstva so tako prisotna opozorila, naj bo umetna inteligenca antropocentrična in da morajo biti osebe, katerih podatki so predmet obdelave, o tem obveščene.323 Uporaba sprotnih FRT sistemov je v svetu vse bolj zvezana z videonadzorom javnih krajev. Tako lahko pride tudi do chilling effecta, ko bi bili ljudje zaradi te intenzivnejše oblike nadzora odvrnjeni od zbiranja, združevanja ali

310 Kovačič (2006) Nadzor in zasebnost. 18-19.

311 Na mednarodni ravni to ugotavlja Visoki komisar OZN za človekove pravice (The United Nations Commissioner for Human Rights (2018), The right to privacy in the digital age. 5), na evropski pa je izpostavljeno, da gre za biometrične podatke kot posebno kategorijo varovanih osebnih podatkov (Consultative Committee of The Convention for the Protection of Individuals with Regard to Automatic Processing of Personal Data, Convention 108 (2021), Guidelines on Facial Recognition. 3).

312 The United Nations Commissioner for Human Rights (2018), The right to privacy in the digital age. 7-12. Na ravni EKČP glej tudi Evropsko sodišče za človekove pravice (2020), Guide on Article 8. 8-12.

313 Evropsko sodišče za človekove pravice (2020), Guide on Article 8. 8, 10-12.

314 Friedl v. Austria, no. 15225/89, 19. 5. 1994, par. 49 in 50

315 Peck v. the United Kingdom,(Eur. Ct. H. R., 28. 1. 2003, Reports 2003-I), par. 61-63 in 85-87.

316 Gaughran v. the United Kingdom, no. 45245/15, 13. 2. 2020, par. 69-70.

317 Prav tam par. 96-98.

318 P.N. v. Germany, no. 74440/17, 11. 6. 2020, par. 76-80 in 85-88.

319 Consultative Committee of The Convention for the Protection of Individuals with Regard to Automatic Processing of Personal Data, Convention 108 (2021), Guidelines on Facial Recognition.

320 Agencija Evropske unije za temeljne pravice (2019), Facial Recognition Technology. 23-26.

321 Delna odločba USRS, št. U-I-152/17-30 z dne 4. 7. 2019.

322 Prav tam, tč. 28-34 obrazložitve.

323 Agencija Evropske unije za temeljne pravice (2020) Getting the Future Right. Artificial Intelligence and Fundamental Rights. 60.

28

izražanja svojega mnenja.324 Pomembno je tudi, da so sistemi enako učinkoviti ne glede na raso, etnično poreklo, spol ali ostale osebne okoliščine prepoznavne osebe, za to pa je treba zagotoviti ustrezno zbirko fotografij, ki je uporabljena pri razvoju FRT.325 V primeru kršitev omenjenih pravic pa mora imeti posameznik možnost, da svoje pravice zavaruje z učinkovitim pravnim sredstvom pri obdelovalcu326 oziroma s sodnim varstvom.327

V Sloveniji je policiji omogočeno, da fotografije pridobi sama ali s strani drugih oseb in zbirk osebnih podatkov.328 Obstaja tudi pravna norma, ki dovoljuje avtomatizirano primerjavo fotografij.329 Mogoče pa je ugotoviti, da obstoječe pravne norme jasno ne omejujejo obsega fotografij, ki jih policija lahko uvozi v svoj sistem kot fotografije za primerjavo. Prav tako ni mogoče najti norme, ki bi urejala predhodno obdelavo fotografij.330 Iz določb o omejitvi avtomatiziranega sprejemanja odločitev je mogoče ugotoviti, da mora pri uporabi FRT vedno sodelovati policist in sam sprejeti končno odločitev.331 Jasne in izrecne pravne podlage za uporabo sprotne FRT v slovenskem pravnem redu ni. Policija mora sicer slediti vsem obveznostim, ki jih določajo relevantni akti s področja varstva osebnih podatkov. 332 Posamezniki pa imajo na podlagi teh aktov urejene pravice,333 ki omogočajo njihovo informiranost in učinkovitost pravnih sredstev.

Policijo pri spoštovanju določb o varstvu osebnih podatkov nadzira Informacijski pooblaščenec.334 V slovenskem kazenskem postopku bi bili lahko izsledki uporabe FRT, ki bi bili pridobljeni s spoštovanjem opisanih zakonskih določil, uporabljivi. V vsakem primeru posebej pa bo moral imeti obdolženec pravico izpodbijati verodostojnost takega dokaza.335 Glede na to, da sodobni sistemi FRT temeljijo na tehnologiji globokega učenja, bo popolno uresničitev te pravice zelo težko uresničiti. Pri omenjeni tehnologiji gre namreč za črno skrinjico, čeprav se z razvojem explainable AI tudi na tem področju ponuja rešitev.336 Za zdaj je mogoče največjo stopnjo sledljivosti doseči z ustreznim protokoliranjem postopka uporabe FRT. Del prerekanja verodostojnosti bo lahko tudi dokazovanje nezanesljivosti tehnologije, za kar pa trenutno za tehnologijo, ki je v uporabi v slovenski policiji, ni podatkov.337 Spoštovanje najstrožjih trenutno dostopnih zahtev v pravno zavezujočih in nezavezujočih aktih lahko slovenskim organom pregona zagotovi vselej uporabljive izsledke FRT. Tega pa ne bo mogoče doseči brez ustrezne nadgradnje obstoječih zakonskih določb, ki bodo upoštevale vse značilnosti obravnavane tehnologije in hkrati zahtevale najstrožje standarde za razvijalce in izdelovalce FRT.

324 Agencija Evropske unije za temeljne pravice (2019) Facial Recognition Technology. 30. O tem tudi v Ringrose (2019), Law Enforcement's Pairing Virginia Law Review Online. 61-63. in Nakar, Greenbaum (2017) Now You See Me Boston University Journal of Science and Technology Law. 114-116.

325 Wang, Deng (2021) Deep face recognition Neurocomputing. 238.

326 Consultative Committee of The Convention for the Protection of Individuals with Regard to Automatic Processing of Personal Data, Convention 108 (2021) Guidelines on Facial Recognition. 15-16.

327 8. čl. Splošne deklaracije človekovih pravic, 1. odst. 14. čl. MPDPP, 1. odst. 6. čl. EKČP, člen 47 LEUTP, 23.

čl URS.

328 2. odst. 112. čl. ZNPPol

329 1. odst. 112. čl. ZNPPol

330 Wang, Deng (2021) Deep face recognition Neurocomputing. 218.

331 11. čl. ZVOPOKD in 122. čl. ZNPPol.

332 V. poglavje ZVOPOKD.

333 II. poglavje ZVOPOKD.

334 40. čl. ZVOPOKD v zvezi s 16. tč. 1. odst. 4. čl. ZVOPOKD.

335 Primerljivo o pravici do zaslišanju izvedenca in izpodbijanja verodostojnosti ugotovitev izvedenca v 7. in 8. tč.

sodbe VSRS, opr. št. I Ips 39161/2012 z dne 1. 6. 2017.

336 Rai (2020) Explainable AI Journal of the Academy of Marketing Science. 137-138.

337 20. tč. obrazložitve odločbe USRS, opr. št. Up-3367/07 z dne 2. 7. 2009.

29