• Rezultati Niso Bili Najdeni

Roboti sami kazensko odgovarjajo za svoja dejanja

Že leta se trudimo, da bi bili roboti čim bolj samostojni in čim bolj inteligentni, saj bi tako pomagali narediti naša življenja bolj enostavna in avtomatizirana. Ta trud pa po drugi strani prinese s sabo tudi težje razumevanje dejanj robotov. Že sedaj zelo avtonomni in napredni roboti z UI delujejo tako zapleteno, da tudi razvijalci robotov včasih težko razumejo, zakaj so prišli do določenih odločitev. Med drugim se je tudi zaradi navedenega pojavila ideja, da bi bilo smiselno vzpostaviti sistem, po katerem bi bili roboti sami kazensko odgovorni za svoja dejanja.

Eden izmed razlogov, zakaj nekateri strokovnjaki menijo, da bi bilo potrebno vzpostaviti posebna pravila, po katerih bi roboti za svoja dejanja kazensko odgovarjali sami je, da včasih obstajajo posebne okoliščine, v katerih bi roboti morali biti zavezani k višjim ali vsaj enakim moralnim standardom kot ljudje. Na primer, če vidimo nekoga, ki se utaplja, ne bomo avtomatično kazensko odgovorni za njegovo smrt, če ga ne bomo poskušali rešiti.73 Če bi pa robot opazil nekoga, ki se utaplja in preračunal možne rešitve ter prišel do odločitve, da utapljajočega ne bo rešil, ker obstaja možnost, da bi pri tem sam padel v vodo ter se poškodoval ali uničil, bi večina ljudi verjetno menila, da bi robot moral v vsakem primeru, tudi na škodo samega sebe, poskusiti rešiti utapljajočega. Tako bi menili zato, ker morda obstaja zelo majhna možnost, da bi se robot pri tem dejansko uničil ali pa zato, ker bi se robot sicer fizično uničil, ampak bi njegovi »možgani« (program, temelječ na UI) preživeli na oblaku ali pa zato, ker robot ni enakovreden človeškemu življenju. Če bi imeli posebna pravila, ki bi veljala za robote, bi v njih lahko opredelili minimum moralnih standardov, s katerimi bi bili roboti zavezani. Pomembno je, da se pravila vzpostavijo na ravni države, saj bi bila v nasprotnem primeru ureditev tega vprašanja prepuščena posameznim proizvajalcem robotov. Razlog za vzpostavitev posebnih pravil za ureditev kazenske odgovornosti robotov za svoja dejanja je tudi ta, da se bodo roboti v prihodnosti morda soočali z novimi moralnimi izzivi in vprašanji, s katerimi se ljudje do sedaj še nismo.74

Za vzpostavitev sistema kazenske odgovornosti robotov za svoja dejanja so po mnenju nekaterih strokovnjakov potrebne tri predpostavke: a) robot mora vsebovati algoritme, ki lahko sprejemajo

73 Kot je objavljeno tudi v Nasvetih za večjo varnost v in ob vodi na spletni strani Policije: »Če opazite, da se nekdo utaplja, ne skačite brezglavo za njim v vodo. Če niste dober plavalec, bo vaš pogum lahko zaman, reševalci pa bodo morali namesto ene osebe lahko reševati celo dve.«, dostopno na:

https://www.policija.si/svetujemo-ozavescamo/javni-red-in-mir/varnost-v-in-ob-vodi.

74Povzeto po Y. Hu, Robot Criminals, University of Michigan Journal of Law Reform, Volume 52, 2019, str. 500 - 503, dostopno na:

https://repository.law.umich.edu/cgi/viewcontent.cgi?article=1806&context=mjlr.

20 moralne odločitve, b) mora biti sposoben ljudem sporočiti svoje moralne odločitve na razumljiv način in c) dovoljeno mu mora biti ravnanje v svojem okolju, brez neposrednega človeškega nadzora.

Pri prvem pogoju se kot moralne odločitve mišljene tiste odločitve, pri katerih se moramo odločiti med različnimi dejanji, ki bi jih običajni člani družbe šteli za pravilne ali napačne. Neizbežno je, da se bodo roboti v prihodnosti vedno bolj pogosto soočali s takšnimi dilemami. Ta pogoj za vzpostavitev sistema kazenske odgovornosti robotov za svoja dejanja pomaga razlikovati bolj napredne robote od preprostih orodij. Drugi pogoj je, da mora biti robot sposoben sporočati svoje moralne odločitve na razumljiv način.

To pomeni, da mora biti sposoben prikazati vse možne odločitve, ki bi jih lahko sprejel v določeni situaciji, skupaj s težo, ki jo je pripisal posameznim možnim ravnanjem in odločitev, ki jo je na koncu sprejel. Ta pogoj zagotavlja, da so ljudje seznanjeni s potekom sprejemanja moralnih odločitev robotov in njihova ravnanja lahko vrednotijo. Tretji pogoj zahteva, da roboti niso zgolj v svetovalni vlogi, temveč delujejo sami, brez neposrednega nadzora ljudi. V nasprotnem primeru, če bi ljudje ravnali sami na podlagi nasveta robota, bi bili še vedno sami odgovorni za svoja dejanja, kljub temu, da bi jih storili na podlagi odločitve robota.75

Na trenutni stopnji razvoja robotov in programov, ki z njimi upravljajo sva predvsem prvi dve točki problematični. Razvoj algoritmov in UI še ni tako daleč, da bi lahko sprejemali moralne odločitve in ne vemo kdaj bo do tega prišlo. Z razliko od tega, pa je v skladu s prvim odstavkom tega poglavja težava pri drugem pogoju, torej pri sposobnosti robota, da ljudem sporoči razloge za svoje (moralne) odločitve.

Če so algoritmi že sedaj tako zapleteni, da včasih postopka »razmišljanja« in delovanja robota ne moremo razumeti brez obsežne naknadne analize, bo ta pogoj tudi v prihodnosti predstavljal izziv, s katerim se že soočajo znanstveniki, ki skušajo oblikovati t.i. razložljivo UI (ang. Explainable AI oz.

XAI).

Nekateri strokovnjaki, še posebej Hallevy76 pa menijo, da že v tej točki razvoja robotov in UI ni nobenih zadržkov, da roboti ne bi bili kazensko odgovorni za svoja dejanja, morda le z nekaj prilagoditvami. Za kazensko odgovornost po Hallevyju sta potrebna zunanji element kaznivega dejanja in notranji element t.i. actus reus in mens rea. Zunanji element dejanja robota ni težko dokazati, na primer, če gre za storitev, je zunanji element razviden že, če robot premakne eno izmed svojih okončin, ki nato poškoduje človeka.

Še lažje pa je dokazati zunanji element, če gre za opustitev dolžnega ravnanja. Bolj zapleteno je dokazati notranji element kaznivega dejanja, pri katerem so glavne predispozicije znanje in krivdno ravnanje.

Znanje je za ta namen opredeljeno kot senzorični sprejem podatkov in razumevanje teh podatkov.

75Prav tam, str. 496 – 499.

76 Povzeto po G. Hallevy, The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control, The University of Akron, Akron Intellectual Property Journal, marec 2016, str. 186-193 , dostopno na:

https://ideaexchange.uakron.edu/cgi/viewcontent.cgi?article=1037&context=akronintellectualproperty.

21 Večina robotov in sistemov UI je dobro opremljena z receptorji za senzorične podatke in jih je zmožna tudi obdelovati. Bolj napredni algoritmi poskušajo celo posnemati delovanje človeškega kognitivnega procesa in so pri tem dokaj uspešni. Krivdno ravnanje je pa jedro notranjega elementa kaznivega dejanja in pomeni željo, da se določeno kaznivo dejanje zgodi. Posledica te želje je zunanje delovanje storilca.

Tudi robot bi lahko bil tako programiran, da bi imel nek namen ali cilj, ki bi se odražal v njegovem zunanjem delovanju. Pri tem pa Hallevy opozarja, da kazenska odgovornost robota ali UI ne nadomesti kazenske odgovornosti programerja ali uporabnika robota ali UI. Kazenska odgovornost ni deljena, temveč je združena, robot in UI sta lahko odgovorna poleg fizične osebe, kot sostorilca.

Nasprotniki ideje, da bi bili roboti kazensko odgovorni za svoja dejanja se večinoma opirajo na mnenje, da roboti niso zmožni ravnati moralno protipravno. Kot recimo tudi žival, ki napade človeka zaradi lakote, ne more biti kazensko odgovorna, tako robot ne more biti kazensko odgovoren za svoja dejanja.

Odgovor na te pomisleke je, da fizične osebe niso edini subjekt v pravu, ki kazensko odgovarja za svoja dejanja. Tudi pravne osebe niso zmožne tvoriti samostojne volje, vendar so vseeno lahko kazensko odgovorne. Prav tako se napreden robot od divje živali razlikuje v tem, da ima vzpostavljen določen moralni kompas, ki mu ga je ustvaril programer.77

77Povzeto po Y. Hu, Robot Criminals, University of Michigan Journal of Law Reform, Volume 52, 2019, str. 516 – 523, dostopno na:

https://repository.law.umich.edu/cgi/viewcontent.cgi?article=1806&context=mjlrstr.

22 5 Primer avtonomnih vozil

Avtonomna vozila so ena izmed vrst robotov, ki se hitro razvija in ki ima potencial, da bo v bližnji prihodnosti korenito spremenila navade ljudi. Avtonomna vozila bodo pomagala pri varnosti v prometu, zmanjšanju števila avtomobilskih nesreč, povečala bodo produktivnost z zmanjšanjem zastojev na cesti in starejšim ljudem, ki niso več prepričani v svoje vozniške sposobnosti in drugim omogočila mobilnost.

S testiranjem uporabe avtonomnih vozil na cestah se je pa pokazala tudi potreba po spremembi cestno prometnih predpisov in kazenske zakonodaje, ki trenutno predvideva, da oseba za volanom tudi obvladuje vozilo, kar pa ni nujno pri avtonomnih vozilih. 78

Avtonomijo vozil razvrščamo v šest stopenj.79 Pri tem ničta stopnja pomeni vožnjo popolnoma brez avtonomnosti vozila in peta stopnja pomeni popolnoma avtonomno vozilo. Vsaka naslednja faza pomeni večjo stopnjo avtonomnosti vozila, manj nadzora in možnosti upravljanja voznika ter prepuščanje nadzora nad vozilom algoritmom. Večina avtomatiziranih vozil, ki so trenutno na trgu, se gibljejo od tretje do četrte stopnje, v katerih so opredeljeni elementi za pomoč voznikom in ne še kot avtonomni elementi. Vozila, ki sodijo v četrto in peto stopnjo sploh še niso na voljo na trgu.80 Se pa popolnoma avtonomna vozila že testirajo ponekod v Evropi, na primer na münchenskem letališču ter predvidoma do konca leta na cestah v Združenem kraljestvu Velike Britanije in Severne Irske.81 Na cestah v Združenih državah Amerike in v Aziji testiranja potekajo dalj časa, zaradi česar je prišlo tudi že do nekaj avtomobilskih nesreč in prvih sodnih postopkov.

Maja 2016 je v Združenih državah Amerike umrl voznik avtomobila Tesla, ker avtopilot v avtonomnem načinu vožnje ni zaznal tovornjaka ter je njegovo belo ponjavo zamenjal za nebo. V tem primeru je bil proizvajalec avtomobila oproščen kazenske odgovornosti, ker je bilo ugotovljeno, da ni prišlo do napake v avtopilotu in ker je vozilo voznika med vožnjo večkrat opozorilo, da mora ohraniti roke na volanu, le-ta pa obvestil ni upošteval.82

78 Povzeto po F. Douma, S. A. Palodichuk, Criminal Liability Issues Created by Autonomous Vehicles, Santa Clara Law Review, 13. 2. 2012, dostopno na :

https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=2727&context=lawreview&httpsredir=1&refere r=#:~:text=Accidents%20that%20result%20in%20property,civil%20liability%20against%20the%20manufacture r., str. 1158.

79 Povzeto po Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, posodobljeno 30. 4. 2021, dostopno na: https://www.sae.org/standards/content/j3016_202104/.

80 Povzeto po What Are the Levels of Automated Driving?, 5. 11. 2020, dostopno na:

https://www.aptiv.com/en/insights/article/what-are-the-levels-of-automated-driving.

81 Povzeto po R. Bellan, Germany gives greenlight to driverless vehicles on public roads, 25. 5. 2021, dostopno na: https://techcrunch.com/2021/05/24/germany-gives-greenlight-to-driverless-vehicles-on-public-roads/ ter po C. Criddle, »Self-driving« cars to be allowed on UK roads this year, 28. 4. 2021, dostopno na:

https://www.bbc.com/news/technology-56906145.

82 Povzeto po M. Uzair, Who Is Liable When a Driverless Car Crashes?, World Electric Vehicle Journal 2021, 12, 62, dostopno na: https://doi.org/10.3390/ wevj12020062, str. 1- 2.

23 Marca 2018 se je v Arizoni, v Združenih državah Amerike zgodila prva nesreča s smrtnim izidom, v kateri je bilo udeleženo avtonomno vozilo. Podjetje Uber je za namen testiranja za uporabo n cestah razvilo tehnologijo za avtonomno vožnjo ter uporabilo vozilo znamke Volvo. Vozilo je povozilo peško, ki je kasneje umrla v bolnišnici. Tudi v tem primeru je bilo podjetje, ki je proizvedlo avtonomni sistem, Uber oproščeno kazenske odgovornosti. Ugotovljeno je bilo, da je tehnologija avtonomne vožnje delovala pravilno ter da je glavni razlog za nesrečo človeška napak, saj človeški voznik avtomobila med vožnjo ni spremljal ceste, temveč je gledal oddajo na telefonu. Voznik je bil obtožen povzročitve smrti iz malomarnosti in Uberju je bilo onemogočeno nadaljnje testiranje avtonomnih vozil v Arizoni.83

Zaradi hitrega razvoja avtonomnih vozil, pričakovanja njihove širše uporabe v bližnji prihodnosti in tudi zaradi nekaj prometnih nesreč, ki so se že zgodile in v katerih so bila udeležena avtonomna vozila, se nekatere države že pripravljajo na prihodnost s prilagajanjem zakonodaje. Velik korak je leta 2017 storila Nemčija s sprejemom zakona o uporabi avtonomnih vozil84, ki določa, da voznik lahko odvrne pozornost iz prometa, vendar mora ob opozorilu nemudoma prevzeti nadzor nad vozilom, če je potrebno.

Prav tako morajo avtonomna vozila biti opremljena s črno skrinjico, ki v primeru prometne nesreče pomaga pri razjasnitvi okoliščin ter je iz nje razvidno, kdo je imel v času nesreče nadzor nad vozilom, kar vpliva na določitev odgovornosti.85 Tudi Združeno kraljestvo Velike Britanije in Severne Irske je pristopilo k vprašanju ureditve avtonomnih vozil z Zakonom o avtonomnih in električnih vozilih86, ki je bil sprejet leta 2018. Bistvo dela zakona, ki se nanaša na avtonomna vozila je, da se sistem zavarovanja iz voznikov vozil razširi tudi na sama vozila, ko vozijo avtonomno. Pred zakonom so bili pri vožnji vozil zavarovani le vozniki, da so lahko tretjim osebam zagotovili plačilo odškodnine v primeru prometne nesreče, zakon je pa prinesel obvezno avtomobilsko zavarovanje tudi samih avtonomnih vozil.87