Autonomní technologie VERONIKA PŘÍBAŇ ŽOLNERČÍKOVÁ NSK SEMINÁŘ, PODZIM 2022 Umělá inteligence TERMINOLOGIE ZÁKLADNÍ FUNKCE PŘÍKLADY Znaky AI Vnímání okolí Rozlišování mezi objekty, událostmi, situacemi Vyhodnocení vztahů mezi nimi Vytvoření vnitřních modelů Rozhodování Schopnost předvídat důsledky rozhodnutí Autonomní jednotka (agent)  Autonomní chování – AI dokáže sbírat informace skrze své senzory a pomocí datové výměny, činit nezávislá rozhodnutí na základě těchto informací, a to bez dalších lidských zásahů  Autonomní jednotka (agent) – software s cíleným programováním (goal – oriented) schopná jednat v rámci svého prostředí: virtuální, fyzické  Příklady: Autonomobily, drony, satelity, burzy, chytrá domácnost  Zdroje informací: senzory, kamery, lasery, datová výměna Autonomní / Samořídící auto Obecná klasifikace autonomní jednotky  Různá úroveň:  Propojenosti (výměna dat, vstup uživatele)  Pohybu (virtuální x fyzický, prostředky pohybu)  Inteligence (typ programování, strojové učení)  Různorodost sběru dat  Sensory  Datová výměna  Různé výrobky různé kvality Úrovně automatizace / autonomie Obecná klasifikace autonomní jednotky  Selhání jedné jednotky na stejné úrovni nebude stejné jako druhé jednotky – rozdíly v programování, použitém vybavení apod. – na úrovni tolik nezáleží  Úroveň autonomie je užitečný koncept pro klasifikaci, ale ne pro distribuci právní odpovědnosti  UAVs, letadla, lodě – Podobná úroveň autonomie, jiné potřeby  Potenciálně je možné porovnávat úrovně autonomie napříč jednotkami na základě jejich funkcí Přehled právní úpravy (existující i připravované) EVROPSKÁ UNIE RADA EVROPY ČESKÁ REPUBLIKA Evropská Unie 10. 5. 2017 – Single Digital Market – development of AI 21. 7. 2017 – Report with Recommendations to the Commission on Civil Law Rules on Robotics – law, ethics (Zpráva o občanskoprávních pravidlech pro robotiku) 10. 4. 2018 – Declaration of Cooperation on Artificial Intelligence 25. 4. 2018 – Artificial Intelligence for Europe – common european approach 7. 12. 2018 – Coordinated plan for artificial intelligence – part Ethics by design and the regulatory framework 8. 4. 2019 – Draft of the Ethics Guidelines for Trustworthy AI (Etická pravidla pro důvěryhodnou umělou inteligenci) AI H-LEG (High-Level Expert Group) 2021 AI ACT (Akt o umělé inteligenci) 2022 AI Liability Directive Rada Evropy Konkrétní otázky ochrany lidských práv, demokracie a etiky Governing the Game Changer – Conclusions from the conference – 27 února 2019 The European Commission for the Efficiency of Justice (ECFEJ) – orgán dozorující justici Artificial Intelligence at the Service of the Judiciary – Září 2018 European ethical charter on the use of artificial intelligence in judicial systems and their environment – Prosinec 2018 (Etická pravidla pro umělou inteligenci v soudnictví) 2022 Zero draft – AI a lidská práva Česká republika Česká republika je jedním ze signatářů deklarace Declaration on Cooperation on Artificial Intelligence Prosinec 2018 – Výzkum potenciálu rozvoje umělé inteligence v České republice -3. část věnovaná právním a etickým aspektům Národní strategie umělé inteligence navazující na Koordinovaný plán EU Odborné platformy – akademie, průmysl, státní sektor 2022 – České předsednictví EU, vyjednávání EU Aktu (momentálně 2. verze) Výzvy AI pro regulaci PROČ JE ODPOVĚDNOST ZMIŇOVANÁ V SOUVISLOSTI S AI JAKÁ JSOU ŘEŠENÍ Problémy s regulací AI  Funkcionality, jednání, chybovost odvisí od původního programování, možnost pozdějšího zásahu je omezená, chybí lidský dozor.  Určitá míra nepředvídatelnosti způsobená odlišným způsobem programování.  Odpovědnost za škodu způsobenou software je i nyní problematická oblast.  Vady software - nefunguje vůbec / částečně / jeho části fungují zvlášť, ale ne dohromady / neslouží sjednanému účelu  Jedná se o vadu? Je software výrobek? Důsledkem výkladových problémů absentuje relevantní judikatura.  U software se vždy počítá s určitou mírou chybovosti – rozdíl oproti standardizovaným fyzickým výrobkům. Regulace autonomních aut  Je vysoce rizikovou AI aplikací (potenciál újmy na zdraví a na životě), zároveň se jedná o veřejnoprávně regulovaný sektor již v současnosti  V EU provozovat nelze, a to nejen kvůli otázce odpovědnosti – právo jaké takové nemá problém, právo řeší problém zaručení bezpečnosti pro spotřebitele – nemáme soustavu orgánů, které by provedli homologaci, nemáme připravenou infrastrukturu  Zákon umožňující provoz aut. vozidel je „maličkost“ (viz Německo)  Již nyní máme softwarové komponenty  Existují obecné technické normy vztahující se na software  Standard UNECE no. 79 – automatické řízení – změna – autonomní! Principy odpovědnosti  Odpovědnost jedné strany za škodu či újmu způsobenou druhému subjektu. Může zakládat právo na kompenzaci, finanční nebo jinou, prvního subjektu druhému. Odpovědnost za škodu I.  Klíčový právní problém provozu umělé inteligence  Akce jsou prováděny autonomně přímo strojem / systémem  Člověk / software – předpoklady, tolerance chybovosti  Schopnost strojového učení – nepředvídatelnost, obtížná zpětná vysvětlitelnost  Civilní x trestní x správní (zejména odpovědnost ISP)  Pracovní dokument Evropské komise Odpovědnost za vznikající digitální technologie, doprovázející dokument Umělá inteligence pro Evropu (25. 4. 2018) mimosmluvní právní odpovědnost za následky jednání umělé inteligence s důrazem na odpovědnost za škodu způsobenou vadou výrobku  Návrh AI Liability Directive Odpovědnost za škodu II.  Striktní x za zavinění (úmysl x nedbalost)  Smluvní x mimosmluvní  Podmínky  Jednání + příčinná souvislost + následek (+ zavinění)  Totožné pro princip odpovědnosti napříč právními odvětvími  Deliktní odpovědnost  Jednání škůdce je porušením povinnosti + došlo k porušení práv poškozeného  Vzniká sekundární povinnost k náhradě škody  Národní specifika Evropské principy odpovědnosti PETL  Nejsou harmonizované v rámci EU  The European Group on Tort Law - skupina akademiků  „Principles of European Tort Law (PETL)“, podobně existují Principy evropského závazkového práva: http://civil.udg.edu/php/biblioteca/items/283/PETL.pdf  Přičitatelnost konkrétní osobě(PETL):  Osoba, která způsobila škodu  Osoba, jejíž nestandardně nebezpečná aktivita způsobila škodu  Osoba odpovídající za osobu/subjekt, který způsobil škodu v rámci výkonu své funkce Odpovědnost za škodu podle občanského zákoníku  § 2939 a násl. ObčZ – odpovědnost za škodu způsobenou vadou výrobku  § 2927 a násl. ObčZ – odpovědnost za škodu způsobenou z provozu dopravního prostředku ( autonomní vozidla?)  § 2924 ObčZ – škoda způsobená provozní činností  § 2950 ObčZ – škoda způsobená informací nebo radou  Úprava odpovědnosti za škodu způsobenou vadou výrobku  Iniciativa EU – zhodnocení stávající směrnice – polovina roku 2019  Úvahy: digitální obsah, důkazní břemeno… Další problém – příčinná souvislost  1) Deliktní jednání  2) Škoda  3) Příčinná souvislost  4) Zavinění  U objektivní odpovědnosti:  Není zavinění, stále je však nutné prokázat příčinnou souvislost (kauzální nexus) – musí být naplněno, aby mohlo dojít k přičitatelnosti odpovědnosti  Kauzální nexus: Vztah mezi příčinnou a následkem  Jednání nebo opomenutí (dále jen jednání) je příčinnou škody poškozeného, jestliže by při neexistenci takového jednání škoda nevznikla (PETL, ust. 3:101) Příčinná souvislost u AI  Snížená schopnost ovládat autonomní stroj – neřídí se vůlí uživatele, rozhodovací proces SW není zcela předvídatelný, a to ani programátorem, vzhledem k tomu, že se stroj může průběžně učit (v zájmu výrobce, aby se tak nedělo bez jeho kontroly!)  Neodstranitelná míra nejistoty u SW: Dlouhodobý provoz složitých systémů přichází se zásadní nejistotou, především v kontextu komplexního prostředí. Liability for Emerging Digital Technologies  Pracovní dokument Evropské komise - Liability for emerging digital technologies (Odpovědnost za vznikající digitální technologie )  Příloha k dokumentu Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions Artificial intelligence for Europe, 25 dubna 2018  Vysoké standardy ohledně bezpečnosti a odpovědnosti za vadu výrobku  Evaluace směrnice o odpovědnosti za vadu výrobku („PLD“)  Mimosmluvní právní odpovědnost za následky jednání umělé inteligence s důrazem na odpovědnost za škodu způsobenou vadou výrobku Návrh AI Aktu (AIA) 2022, v. 2  Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts  Horizontální legislativní nástroj založený na posouzení rizik + obsahující kodexy chování pro systémy, které nejsou vysoce rizikové  Návrh stanovuje povinnosti, které se vztahují na poskytovatele a uživatele vysoce rizikových systémů AI  Soustředí se na vysoce rizikové systémy, nikoliv na obecné uvádění AI na trh, ikdyž to sám Akt uvádí  Dále jsou součástí pravidla pro systémy biometrické kategorizace Jak právně zakotvit AI NEZODPOVĚZENÉ OTÁZKY METODOLOGIE Právo & technologie  Jakým způsobem je potřeba přistupovat k regulaci informačních a komunikačních technologií?  Podstatný je obsah a smysl úpravy, použití analogie  Multidisciplinární rozsah regulovaných fenoménů  Je potřeba přemýšlet nejenom v kontextu práva, ale i mimo něj – nezbytnost pochopení technologických aspektů  I v rámci práva přesahují jednotlivé fenomény ustálená dělení právních odvětví  Rychlý vývoj nových technologií  Vývoj je dynamický a těžko předvídatelný  Nemožnost precizně přizpůsobit právní stav tak, aby zahrnul aktuální stav vývoje i ten budoucí – v důsledku se digitální technologie vždy musí přizpůsobit platnému stavu Umělá inteligence jako výzva pro právo Potřebujeme novou regulaci pro umělou inteligenci? Kde můžeme použít analogii a kde ne? Liší se nějak od jiných nových technologií a pokud ano, čím? Lze regulovat umělou inteligenci jako celek nebo je nutné zvolit sektorový přístup? Jakými prostředky regulovat umělou inteligenci? Otázky? The Oatmeal Děkuji za pozornost! zolnercv@mail.muni.cz