Marcel Kraus, autor: TA ČR

Východisko: Autonomní řízení vozů může přispět k výraznému snížení nehodovosti a ke kvalitě životního prostředí (což přináší monetizační beneft a udržitelnější životní prostor) i k nižšímu početu zranění či úmrtí při dopravních nehodách (což se promítá do bezpečnosti provozu a kvality lidského života). Autonomní vozidla nicméně mohou být v případech nevyhnutelné nehody postavena před morální rozhodování o zdraví, životech a majetku lidí, či o životním prostředí.

Základní výzkumné otázky: Některé výzkumné otázky spojené s etikou autonomního řízení nemusejí být samy o sobě etické. Např. při kolizích je důležité umět minimalizovat utilizační prncip využívající algorytmus vážení hodnoty lidských životů vůči sobě navzájem (Trolley Problem) a maximalizovat virtuální princip navýsost lidský – etický a morální (Robot Ethics). Usmrtí-li autonomně řízené vozidlo člověka, je to program, co rozhodne o zabití. Resp. druhotně - programátor. Při hledání etické dimenze v autonomně řízených vozech je nutné vedle základní otázky „koho mají autonomně řízená auta zranit, zabít či ujmout na majetku“ (Trolley Problem – Utilitarian Ethics) pokládat i otázku „jak mohou morálně a eticky jednající auta zvýšit bezpečí pasažérů a chodců a příp. uchránit škody na životním prostředí a majetku“ (Virtual Morality Problem – Robot Ethics).

Důvěra společnosti: Úspěch autonomního řízení vozů – se všemi jeho benefity a riziky – závisí na jeho přijetí společností. Jak reflektovat veřejné mínění v rozvoji autonomního řízení v době, kdy jsou rozhodovací procesy o životech lidí předávány umělé inteligenci? V případě autonomního řízení je inteligentní rozhodování lidské odevzdáváno do rukou inteligenímu rozhodování umělému. Nevznikne-li důvěra lidí v programátory a v morální algorytmy strojů samotných, které autonomně rozhodují (dokonce i) o životech lidí, může to rozvoj autonomního řízení vozů velmi výrazně zbrzdit. Bez důvěry společnost nemůže fungovat. A stejně tak autonomní řízení vozů. 

Několik otázek: Převezmou-li auta od lidí rozhodování o řízení, měly by převzít i způsob jejich myšlení? Připusťme, že morální algorytmus autonomně řízeného vozidla bere při rozhodování o žovotech lidí při hrozící kolizi v úvahu věk. Bude brána v úvahu i jiná identita člověka jako etnicita, společenský status, pohlaví? Jaký je vztah morálního a etického algorytmu vůči morálním a etickým hodnotám těch, jež programují a technologie vytvářejí? Neměli bychom zaměřit výzkum morálního algorytmu i na – poněkud futuristickou vizi - virtualizaci např. loajality, diskrétnosti, respektu k svébytnosti, dobročinnosti, ohleduplnosti, spravedlnosti atp.? 

Principy odpovědného výzkumu: V souvislosti s autonomně řízenými vozidly je důležité, aby výzkum, vývoj a inovace a s nimi spojené inženýrské a programátorské činnosti byly podnikány za využití principů odpovědného výzkumu a inovací (Responsible Research and Innovation – RRI): Ethics, Public Engagement, Gender Equality, Science Education, Governance, Open Access).

Pro implementaci těchto principů může sloužit program ÉTA na podporu společenskovědní a humanitní dimenze ve výzkumu, jehož první veřejná soutěž je plánována na polovinu srpna 2017.

Marcel Kraus
analytik TA ČR
(CV Marcela Krause)

Tento článek máteje zdarma. Když si předplatíte HN, budete moci číst všechny naše články nejen na vašem aktuálním připojení. Vaše předplatné brzy skončí. Předplaťte si HN a můžete i nadále číst všechny naše články. Nyní první 2 měsíce jen za 40 Kč.

  • Veškerý obsah HN.cz
  • Možnost kdykoliv zrušit
  • Odemykejte obsah pro přátele
  • Ukládejte si články na později
  • Všechny články v audioverzi + playlist