Svatý stolec vydal dokument o vztahu umělé a lidské inteligence
Salvatore Cernuzio - Vatikán
Papežova varování o umělé inteligenci z posledních let tvoří osnovu dokumentu Antiqua et Nova, nóty o vztahu umělé a lidské inteligence, která je výsledkem vzájemné reflexe mezi Dikasteriem pro nauku víry a Dikasteriem pro kulturu a vzdělávání. Dokument je určen těm, kdo jsou povoláni k výchově a předávání víry, ale také těm, kdo sdílejí potřebu vědeckého a technologického rozvoje „ve službě člověka a obecného dobra“ [5]. Ve 117 odstavcích Antiqua et Nova upozorňuje na výzvy a příležitosti rozvoje umělé inteligence (AI) v oblasti vzdělávání, ekonomiky, práce, zdraví, vztahů a války. V posledně jmenované sféře by například potenciál umělé inteligence mohl zvýšit válečné zdroje „daleko mimo dosah lidské kontroly“ a urychlit „destabilizující závody ve zbrojení s ničivými důsledky pro lidská práva“ [99].
Nebezpečí a pokrok
Podrobněji dokument uvádí nebezpečí umělé inteligence, ale také pokrok, který podporuje jako „součást spolupráce“ člověka s Bohem [2]. Nezakrývá však obavy, které provázejí všechny inovace, jejichž účinky jsou zatím nepředvídatelné.
Rozlišování mezi umělou inteligencí a lidskou inteligencí
Několik odstavců Nóty je věnováno rozlišení mezi umělou inteligencí a lidskou inteligencí. „Zavádějící“, jak se lze dočíst, je užívání samotného slova „inteligence“ v souvislosti s umělou inteligencí: nejde o „umělou formu inteligence“, ale o „jeden z jejích produktů“ [35]. A jako každý produkt lidské vynalézavosti může být i umělá inteligence zaměřena na „pozitivní nebo negativní cíle“. Umělá inteligence skutečně může přinést „důležité inovace“ [48], ale také hrozí, že zhorší stavy diskriminace, chudoby, digitální propasti, sociální nerovnosti [52]. Znepokojení „etického rázu“ vyvolává skutečnost, že „většina moci nad hlavními aplikacemi umělé inteligence je soustředěna v rukou několika mocných společností“ [53], takže tato technologie je nakonec manipulována za účelem „osobního nebo firemního prospěchu“ [53].
Válka
V souvislosti s válkou se zdůrazňuje, že autonomní a smrtící zbraňové systémy schopné „identifikovat a zasáhnout cíle bez přímého zásahu člověka“ [100] jsou „vážným důvodem k etickým obavám“. Papež dokonce vyzval k zákazu jejich používání, protože představují reálnou hrozbu pro „přežití lidstva nebo celých regionů“ [101]. Tyto technologie „dávají válce nekontrolovatelnou ničivou sílu, která postihuje mnoho nevinných civilistů, přičemž nešetří ani děti“, odsuzuje Antiqua et Nova.
Lidské vztahy
Pokud jde o mezilidské vztahy, dokument konstatuje, že umělá inteligence může vést ke „škodlivé izolaci“ [58], že „antropomorfizace umělé inteligence“ představuje problém pro růst dětí [60] a že představování umělé inteligence jako osoby je „vážným etickým porušením“, pokud se toho využívá k podvodným účelům. Stejně jako je „neetické a vyžaduje pečlivou ostražitost“ používání umělé inteligence k podvodnému jednání v kontextech, jako je vzdělávání, vztahy, sexualita [62].
Ekonomika a práce
Stejná ostražitost se vyžaduje i v ekonomicko-finanční oblasti. Zejména v oblasti práce se upozorňuje, že zatímco na jedné straně má umělá inteligence „potenciál“ zvyšovat kvalifikaci a produktivitu, na druhé straně může „snižovat kvalifikaci pracovníků, podrobovat je automatizovanému dohledu a odsunout je k nepružným a jednotvárným funkcím“ [67].
Zdraví
Dostatek prostoru je věnován problematice zdravotní péče. S odvoláním na obrovský potenciál různých aplikací v oblasti zdravotnictví se varuje, že pokud by umělá inteligence nahradila vztah mezi lékařem a pacientem, hrozilo by „zhoršení“ osamělosti, která často provází nemoc. Je třeba se také vyvarovat dalšího posilování „medicíny pro bohaté“, v níž lidé s finančními prostředky využívají pokročilé nástroje, zatímco ostatní nemají přístup ani k základním službám.
Vzdělávání
Na rizika se upozorňuje také v oblasti vzdělávání. Pokud je umělá inteligence využívána obezřetně, může zlepšit přístup ke vzdělávání a nabídnout studentům „okamžitou zpětnou vazbu“ [80]. Problémem je, že mnohé programy „pouze poskytují odpovědi, místo aby studenty nutily, aby je sami hledali nebo aby sami psali texty“; to vede k tomu, že se nerozvíjí kritické myšlení [82]. Nemluvě o tom, kolik „zkreslených nebo vymyšlených informací“ a „fake news“ mohou některé programy generovat [84].
Fake news a Deepfake
Pokud jde o falešné zprávy, dokument varuje před vážným rizikem, že umělá inteligence může „generovat zmanipulovaný obsah a falešné informace“ [85], které se pak šíří s cílem „oklamat nebo poškodit“ [87]. Apeluje se na to, aby se vždy „dbalo na kontrolu pravdivosti“ toho, co se šíří, a aby se v každém případě zabránilo „sdílení slov a obrazů, které ponižují člověka“, s vyloučením „toho, co podněcuje nenávist a nesnášenlivost“ nebo znevažuje „intimitu lidské sexuality“ [89].
Soukromí a kontrola
Pokud jde o soukromí a kontrolu, Nóta poukazuje na to, že některé typy údajů mohou jít tak daleko, že se dotknou „dokonce i svědomí člověka“ [90], přičemž hrozí, že se vše stane „jakousi podívanou, kterou lze špehovat“ [92]. „Digitální dohled může být využit k vykonávání kontroly nad životy věřících a projevy jejich víry“ [90].
Společný domov
Co se týče tématu stvoření, za „slibné“ jsou považovány aplikace umělé inteligence ke zlepšení vztahu ke společnému domovu. Současné modely umělé inteligence přitom vyžadují „obrovské množství energie a vody, významně přispívají k emisím oxidu uhličitého a jsou náročné na zdroje“.
Vztah k Bohu
Závěrem Nóta varuje před rizikem, že se lidé stanou „otroky svého vlastního díla“. Z toho plyne závěrečné doporučení: „Umělá inteligence by měla být používána pouze jako doplňkový nástroj k lidské inteligenci a neměla by nahrazovat její bohatství“ [112].