Přebal knihy o umělé inteligenci Přebal knihy o umělé inteligenci 

Církev a umělá inteligence: nikoli skeptikové, ale ani těšitelé

S rozvojem a šířením tzv. umělé inteligence se množí problémy etického rázu. Co se totiž stane, až nebudou rozhodovat lidé, ale stroje?

Tuto otázku si mimo jiné klade profesor Gregoriánské univerzity, o. Paolo Benanti, původem strojní inženýr, který se po studiích filosofie a teologie zaměřil na etiku, bioetiku a etiku technologií. Podle tohoto italského františkána nové technologie nejenom vše urychlují, nýbrž jsou svým masivním pronikáním do naší reality schopny zcela změnit vztah mezi člověkem a strojem. Benanti nicméně nezavrhuje „učené stroje“, které umístil rovněž do titulu své poslední knihy (Le Macchine sapienti. Intelligenze artificiali e decisioni umane; Marietti Editore), avšak varuje před manipulací softwaru, která může dovést k nové sociální nespravedlnosti. 

Nejprve bychom se měli velice jasně podívat na změny, kterých jsme svědky. Nová vlna technologické inovace zcela mění vztah mezi člověkem a strojem a také některé oblasti našeho života, včetně práce, citových vztahů, hledání partnera či estetických kánonů. Přitom je třeba se vyhnout dvěma krajním postojům – pokud bychom chtěli parafrázovat Umberta Eca, nebýt ani „skeptiky“, ani „těšitely“, tedy domnívat se, že se tu nic nemění. Měli bychom spíše zachovat obezřetnost a ptát se sami sebe, zda chceme rozvoj takto nasměrovat. Ožehavým jádrem celého problému je skutečnost, že systémy umělé inteligence nás mohou přivést k mínění, že jsou schopny nahradit některé lidské činnosti.“

V čem tedy spočívá etická naléhavost v nakládání s umělou inteligencí?

„Především je třeba takříkajíc otevírat černé skříňky umělé inteligence. Tyto stroje fungují na základě algoritmů. Jejich software vymysleli lidé, ale jako v předchozích případech se nejedná o jednoduchý logický řetězec, nýbrž o softwary určené k výcviku. Vzniká zde proto velký problém, jak tento výcvik uskutečnit. Existuje již celá řada studií o tom, že tyto softwary mohou importovat zaujatost lidí, kteří je vytvořili, anebo vyvinout nové předsudky na základě aplikovaných dat. Je tudíž zřejmé, že software umělé inteligence, který podstupuje milion rozhodnutí, může vyprodukovat sociální újmu velice širokého dosahu. Mohou tak vznikat méně spravedlivé a paradoxně méně transparentní společnosti, protože nebudou mít přístup k faktorům této nespravedlnosti. Konkrétně se to projeví třeba při poskytování půjček, vázaných na riziko důvěryhodnosti žadatele, které vypočítá algoritmus (algorithmic risk assessment), anebo ve zdravotnictví, kde algoritmus určí zahájení léčby, či v oblasti národní bezpečnosti, anebo dokonce v personalistice, kde software rozhoduje o vhodných kandidátech na nové pracovní místo“.

Právě kvůli zamezení těchto situací Paolo Benanti vyzývá, aby řízení umělé inteligence zohlednilo všestranný lidský rozvoj, jak jej předkládá papežské magisterium a sociální učení církve.

„V tuto chvíli existují dva velké rozvojové modely těchto systémů – americký, ve kterém vládne trh, a tudíž větší produktivita a zisk. Na druhé straně existuje čínský vzorec, který tíhne ke státní kontrole. Podle mého názoru by se správa umělé inteligence měla vrátit k západnímu, evropskému modelu, jehož výrazem je veřejné prostranství, kolem kterého se shromažďuje polis. Konfrontují se zde různé kompetence, které se snaží posoudit aktuální dění a řídit je ku prospěchu toho, co vnímají jako obecné blaho. Nakládání s umělou inteligencí znamená vytvořit takové kontexty, ve kterých by se rozvoj stal skutečným pokrokem, jak zdůrazňují papežské dokumenty, a které přihlížejí k integrální ekologii, tedy společenské provázanosti lidských vztahů. Z antropologického hlediska tu můžeme zaznamenat dvojí tendenci – na jedné straně se stroje polidšťují, na druhé straně hrozí, že se z člověka stane stroj a že tak zredukujeme hluboké lidské prožitky, jako zamilovanost a lásku, na pouhý algoritmus, výpočet, či lépe řečeno, na jejich strojově vypočitatelnou část.“

Vysvětluje profesor Papežské univerzity Gregoriana, o. Paolo Benanti.

(jag)

3. ledna 2019, 16:00