MV926K: Umělá inteligence v právní praxi Regulace AI Tereza Novotná, tereza.novotna@law.muni.cz Ústav práva a technologií, Právnická fakulta, Masarykova Univerzita 2 Osnova 1. Regulatorní metody 2. Přehled regulace AI ve světě 3. AI Act 3 Regulatorní metody ̶ Pojem definičních autorit (ty ovládají technologii, skrz kterou je regulované chování subjektů prováděno) ̶ Performativní pravidla – určují cíl, k jehož dosažení definiční autorita vydává vlastní interní pravidla ̶ Chytrá pravidla – povinnost poskytovat informace o fungování technologie nebo systému 4 Regulatorní metody ̶ Soft law vs. Hard law? ̶ USA, UK: soft law (metodiky, doporučení, policy, certifikace) ̶ EU: hard law (nařízení, směrnice, povinnosti, sankce) 5 Přehled regulace AI ve světě ̶ USA: Blueprint of AI Bill of Rights (dobrovolné, princip minimalizace rizik) ̶ Čína: Algorithm Provisions (proti zneužití algoritmických návrhových systémů a manipulaci) a Draft Deep Synthesis Provisions (proti deep fake), nově Administrative Measures for Generative Artificial Intelligence Services (regulace contentu z generative AI) ̶ Kanada: Artificial Intelligence and Data Act (povinnosti k minimalizaci rizik a biasů) 6 AI Act ̶ Ve stavu schvalování, finalizace do konce roku (?) ̶ Široká aplikovatelnost na všechny systémy obsahující AI, které jsou uváděny na EU trh ̶ Hard law, nařízení – tj. přímo aplikovatelné (jako GDPR) ̶ Výjimky: systémy národní obrany, open source a výzkum a vývoj ̶ Regulatorní sandboxy ̶ Risk-based přístup – stanovení úrovně společenského rizika 7 AI Act ̶ Nepřijatelné riziko: • kognitivní manipulace s chováním lidí nebo specifických zranitelných skupin (např. hlasem aktivované hračky, které podporují nebezpečné chování dětí) • přidělování sociálního kreditu (klasifikace lidí na základě chování, socioekonomického statusu, osobních charakteristik) • biometrické identifikační systémy v reálném čase a na dálku (např. rozpoznávání obličeje) 8 AI Act ̶ Vysoce rizikové systémy ̶ Systémy AI, které se používají ve výrobcích, na něž se vztahují právní předpisy EU o bezpečnosti výrobků. Patří sem hračky, letecký a kosmický průmysl, automobily, zdravotnické prostředky a výtahy. ̶ Systémy AI spadající do osmi specifických oblastí, které budou muset být registrovány v databázi EU: biometrická identifikace a kategorizace fyzických osob, správa a provoz kritické infrastruktury, vzdělávání a odborná příprava, zaměstnanost, řízení pracovní síly a přístup k samostatné výdělečné činnosti, přístup k základním soukromým a veřejným službám a dávkám a jejich využívání, vymáhání práva, řízení migrace, azylu a ochrany hranic, pomoc s právním výkladem a vymáháním práva ̶ Vývojáři sami určují kategorii rizika svého systému umělé inteligence. Mohou tak učinit buď přijetím připravovaných standardů, nebo odůvodněním rovnocennosti jiných technických řešení. Za nesprávnou klasifikaci systému UI a/nebo nedodržení příslušných ustanovení hrozí pokuta ve výši nejméně 20 milionů eur nebo 4 % celosvětového obratu, podle toho, která částka je vyšší (čísla se mohou v průběhu trialogu změnit). ̶ Transparence, monitorování, reportování incidentů (chytrá pravidla) 9 AI Act ̶ Omezeně rizikové systémy ̶ Minimální požadavky transparentnosti ̶ Generativní AI ̶ zveřejnit, že obsah byl vygenerován umělou inteligencí ̶ navrhnout model tak, aby zabránil vytváření nezákonného obsahu ̶ zveřejňovat shrnutí dat chráněných autorským právem, která byla použita k tréninku umělé inteligence 10 Děkuji za pozornost. Kontaktní mail: tereza.novotna@mail.muni.cz