Před třemi lety přinesla americká nezisková organizace ProPublica alarmující zprávu. Systém s prvky umělé inteligence Compas, který v té době využívaly stovky soudů po celých Spojených státech k posouzení pravděpodobnosti, s jakou budou obžalovaní páchat další trestnou činnost, diskriminuje Afroameričany. Ačkoliv výrobce systému − michiganská společnost Northpointe − podjatost Compasu popřel, případ rozpoutal diskusi o vhodnosti využití takových "poradních" systémů v justici a o tom, zda by i jejich použití neměly ošetřit etické standardy.
Nejen v reakci na tento případ se po celém světě v posledních letech rozběhly iniciativy, jejichž cílem je zabývat se otázkami etiky a práva při použití umělé inteligence a zajistit, aby roboti respektovali základní lidská práva. Na evropské úrovni představila text shrnující etické zásady pro využití umělé inteligence v soudních systémech loni v prosinci Evropská komise pro efektivitu justice při Radě Evropy, zkráceně nazývaná CEPEJ. Její charta mimo jiné apeluje, aby etika a principy jako respektování lidských práv a zásady nezávislosti soudů byly součástí vývoje veškerých systémů založených na využití umělé inteligence již od samého začátku jejich vývoje.
Charta zahrnuje pět základních principů. Patří k nim respekt k základním právům obsaženým zejména v Evropské úmluvě o ochraně lidských práv, princip nediskriminace, princip kvality a bezpečnosti, v rámci kterého komise mimo jiné žádá, aby všechny systémy nasazované v soudnictví stavěly na datech a softwaru pocházejících ze známých a certifikovaných zdrojů. Čtvrtým principem, který charta předepisuje, je pak zásada transparentnosti, nestrannosti a férovosti. Jeho součástí je i doporučení, aby v zájmu transparentnosti využívali programátoři při tvorbě justičních systémů otevřené zdrojové kódy. Jasným a i laikům srozumitelným jazykem musí také popsat, jakým způsobem jejich systém rozhoduje.
Poslední princip nese název "pod kontrolou uživatelů". "Podle této zásady musí být jasné, kdy byla umělá inteligence použita a uživatel s tím musí souhlasit," popisuje prezident komise Georg Stawa. Jde především o to, aby lidé, o jejichž životech bude umělá inteligence rozhodovat, o tom měli dostatek informací a mohli se sami rozhodnout, jestli "vsadí na robota", anebo budou raději žádat, aby jejich případ posoudil živý soudce. Tento princip využití umělé inteligence akcentuje právo nebýt předmětem automatického rozhodování, které lidem zaručuje i obecné nařízení o ochraně osobních údajů. Závěrem komise také doporučuje, aby každému zavedení umělé inteligence v justiční praxi předcházela odborná debata.
- Doporučení Rady OECD pro umělou inteligenci, přijaté členskými zeměmi Organizace pro hospodářskou spolupráci a rozvoj letos v květnu
- Etická vodítka pro důvěryhodnou umělou inteligenci, vydaná Evropskou komisí letos v květnu
- Analýza právně-etických aspektů rozvoje umělé inteligence a jejích aplikací v České republice, zveřejněná tuzemským úřadem vlády v prosinci 2018
- Eticky řízený design – Institut pro elektrotechnické a elektronické inženýrství
Útlá charta je určena legislativcům, soudcům i vývojářům. Podle sekretáře komise Stéphana Leyenbergera má pomoci zvýšit efektivitu a kvalitu systémů s prvky umělé inteligence v justici. "Soudci si musí být vědomi toho, co dělají, když používají umělou inteligenci. Firmy, které vyvíjí umělou inteligenci pro justici, musí mít na paměti, že je to pouze nástroj, nikoliv cíl," upozorňuje na hlavní poselství charty Leyenberger.
Jen první krok
Navzdory tomu, že charta obsahuje jen obecný soupis nejzákladnějších pravidel, experti její přijetí většinou vítají. "Domnívám se, že je to dobrý začátek. Obsažených pět principů v zásadě odpovídá těm nejdůležitějším, které se v současnosti diskutují," míní specialista na právo informačních technologií z advokátní kanceláře Kinstellar Zdeněk Kučera.
Za pozornost stojí také to, že kromě přehledu etických principů charta obsahuje i studii využití umělé inteligence v soudnictví napříč Evropskou unií. "Na rozdíl od jiných podobných dokumentů klade charta veliký důraz na poznatky z reálné praxe, nejen z představ o tom, jak by mělo využívání umělé inteligence vypadat," říká Josef Donát, který je vedoucím týmu pro informační a komunikační technologie advokátní kanceláře Rowan Legal.
Méně optimistický je ohledně přínosů charty vedoucí Ústavu práva a technologií Masarykovy univerzity Radim Polčák. "Vydání obecného souboru etických pravidel nikdy nevyřešilo žádný reálný aplikační problém," připomíná a dodává, že bude velmi záležet na tom, jak se nastolených pravidel chopí praxe: "Pokud se charta v konečném důsledku projeví tím, že budeme moci odlišit například různé dodavatele autonomních technologií, je to určitě krok správným směrem."
Charta není zákon
Nevýhodou charty ovšem je její výhradně doporučující charakter. Ač by měla vejít ve známost ve všech 47 zemích Rady Evropy, není pro ně právně závazná. "Jedinou hypotetickou situaci, kdy by mohlo dojít ke zprostředkované závaznosti charty, by mohl být případ do očí bijícího zásahu do práv v důsledku využití autonomního systému," říká Polčák. Jednat by se podle něj mohlo třeba o případy diskriminace. Ani v takovém situaci by se ale charta nepoužila přímo. "Posloužila by pouze k podepření argumentace směřující například k prevenční povinnosti," dodává.
Jak by tedy měly státy a jejich justice s chartou pracovat? Jednou z možností je "zkopírovat" principy v ní uvedené do smluv s dodavateli systémů. I v obecné rovině by pak měli zákonodárci apelovat na to, aby se zásady dostaly do interních compliance programů vývojářů a provozovatelů chytrých systémů. "Stát může v tomhle ohledu dobře zafungovat třeba tak, že bude podporovat nebo i pozitivně diskriminovat například ty průmyslové podniky, které tato etická pravidla reálně promítnou do svých vnitřních procesů," poukazuje na jednu z možných cest Radim Polčák.
Pozornost by státy měly věnovat nejen chartě samotné, ale i studii, která ji doprovází. "Tvůrcům politik a zákonodárcům lze doporučit, aby se seznámili zejména s částí týkající se zkušeností z jiných států," říká Donát. Tím je podle něj možné při implementaci systémů s umělou inteligencí předejít opakování stále stejných chyb.
A jak si teď stojí právní regulace umělé inteligence v jednotlivých zemích Evropy? Žádná z nich zatím nepřijala v této oblasti ucelenou právní úpravu. Avšak o vytvoření zákona, který by pevně stanovil právní a etické standardy pro roboty, se vážně uvažuje na Maltě. A otázka přijetí speciálního zákona pro využití umělé inteligence se už diskutuje také v Česku. Na nutnost přijetí nové právní úpravy poukázala například koncem loňského roku vládní Analýza právně-etických aspektů rozvoje umělé inteligence a jejích aplikací v České republice.
Zatímco vlády o regulaci umělé inteligence zatím jen debatují, firmy si samy sepisují vlastní morální standardy pro práci s roboty. Svůj set etických pravidel tak už přijali lídři světového digitálního trhu, jako je Google nebo Microsoft. Jednotné mezinárodní standardy se pak snaží nastolit Institut pro elektrotechnické a elektronické inženýrství. I on v nich podobně jako Evropská komise pro efektivitu justice zdůrazňuje důležitost dodržování lidských práv a transparentnost při vývoji chytrých programů.
Článek byl publikován v magazínu Právní rádce.
Přidejte si Hospodářské noviny mezi své oblíbené tituly na Google zprávách.
Tento článek máteje zdarma. Když si předplatíte HN, budete moci číst všechny naše články nejen na vašem aktuálním připojení. Vaše předplatné brzy skončí. Předplaťte si HN a můžete i nadále číst všechny naše články. Nyní první 2 měsíce jen za 40 Kč.
- Veškerý obsah HN.cz
- Možnost kdykoliv zrušit
- Odemykejte obsah pro přátele
- Ukládejte si články na později
- Všechny články v audioverzi + playlist