Regulace disruptivních technologií - AI, kvantové technologie - Radim Polčák
Za technologickou disrupci označujeme situaci, kdy v důsledku technologického vývoje dojde k zásadní změně života člověka nebo společnosti rychlostí, která neumožňuje přirozenou (poklidnou) adaptaci. Úkolem práva je v takové situaci buďto zabránit negativním důsledkům disrupce nebo (a poněkud diskutabilně) zpomalit penetraci společnosti disruptivní technologií.
Na semináři budeme diskutovat právní reakci na disruptivní efekty související s využitím technologií založených na strojovém učení. Fungování autonomních systémů lze dobře demonstrovat na nepříliš úspěšném pokusu společnosti Microsoft vytvořit autonomního robota pro sociální síť Twitter . Úkolem robota označeného jako Tay bylo vyhodnocovat obsah komunikovaný v rámci této sociální sítě a podle toho vytvářet, pokud možno, co nejpopulárnější příspěvky. Robot nebyl předem naprogramován k tomu, aby se věnoval určitým tématům nebo používal určitou slovní zásobu. Jeho úkolem bylo vymýšlet si zcela autonomně vlastní tweety a jeho cílem bylo stát se populárním mezi ostatními uživateli.
Krátce poté, co se robot rozběhl, začal šířit nenávistné příspěvky. Částečně to bylo kvůli převážně nenávistnému charakteru populárních příspěvků na síti Twitter a zčásti se jednalo o zlomyslnost ostatních uživatelů, kteří robota škodolibě ponoukali k projevům rasismu, sexismu, homofobie apod.
Pokud by šlo o standardně fungující software, bylo by řešení jednoduché, tj. robota odstavit a přeprogramovat, respektive mu kódem zakázat šíření nenávisti (tj. např. mu odebrat určitá slova z jeho slovníku). Tay ale nebyl člověkem naprogramován k tomu, aby komunikoval, ale k tomu, aby se učil komunikovat a sám se za tím účelem průběžně programoval. Výsledný kód (software), na jehož základě posílal (nebo možná posílala) Tay své tweety, si Tay průběžně vytvářel sám. Člověk nebyl chopen číst ani upravovat jeho neustále se měnící provozní kód, ale v lidských silách bylo pouze provádět úpravy kódu, který robot používal ke svému učení. Po dvou neúspěšných pokusech o přeprogramování nakonec Microsoft (který je největší softwarovou firmou světa) každopádně konstatoval, že s nenávistným vystupováním Tay nic nenadělá, robota vypnul a s omluvou se jal mazat tisíce katastrofálně nenávistných tweetů.
Vedle autonomie a s ní související vysvětlitelnosti je problémem reálného nasazení strojového učení také fenomén označovaný jako 'algorithmic bias,' tedy cosi jako algoritmická předsudečnost. K ilustraci tohoto problému využijeme příklad prediktivního systému COMPAS používaného jako podpory při rozhodování o podmínečném propuštění z výkonu trestu. Systém dosahoval kvůli algoritmické předsudečnosti řádově rozdílné úspěšnosti u predikcí recidivy bělochů a ostatních etnických skupin odsouzených.
Absence vysvětlitelnosti a velká míra komplexnosti autonomních systémů ztěžují dokazování. To se projevuje velkou mírou právní nejistoty v případech odpovědnosti za materiální nebo nemateriální újmu. Zjednodušeně řečeno jde o to prokázat, kdo újmu způsobil a v čem dotyčný subjekt pochybil. Tato nejistota se vedle nedůvěry veřejnosti k autonomním technologiím může projevit i sníženou mírou ochoty průmyslu investovat do náročných projektů. Vedle bezpečnosti a důvěryhodnosti je tedy jedním ze základních motivů aktuálních legislativních iniciativ na úrovni EU také vytvoření čitelného regulatorního prostředí pro podnikatele působící na jednotném trhu.