Hledejte

Cookie Policy
The portal Vatican News uses technical or similar cookies to make navigation easier and guarantee the use of the services. Furthermore, technical and analysis cookies from third parties may be used. If you want to know more click here. By closing this banner you consent to the use of cookies.
I AGREE
Allegretto grazioso
Programy Podcast

Profesor Benanti o nótě Antiqua et Nova: Pomáhá klást správné otázky

Rozhovor s odborníkem na technologickou etiku, který se zabývá dopadem umělé inteligence na informace: Nóta dvou dikasterií vyzývá k odpovědnosti, prohlašuje františkán Paolo Benanti.

Andrea Tornielli

„Je to dokument, který nám říká: možná je čas klást si otázky, než začneme dávat odpovědi“. Těmito slovy Fra' Paolo Benanti, profesor na Gregoriánské univerzitě, odborník na bioetiku a etiku technologií, předseda Komise pro studium dopadu umělé inteligence na žurnalistiku a ediční činnost italské vlády, označuje Nótu „Antiqua et Nova“ dikasterií pro nauku víry a kulturu o vztahu umělé inteligence a lidské inteligence. Takto ji komentuje s vatikánskými médii.

V čem podle vás spočívá novost tohoto dokumentu?

Je to uvědomění si tohoto jevu ze strany věřícího myšlení, které má také za cíl doprovázet církev v životě společnosti. Čím více si klademe otázky o tomto stroji schopném nahradit část lidského rozhodování, tím více si nevyhnutelně klademe otázky o samotné identitě lidské bytosti a jedinečnosti, která ji charakterizuje, tedy o tom, co nás činí tvory ve vztahu ke Stvořiteli. Skutečná novost tohoto textu spočívá v tom, že nás uvádí do správné perspektivy, abychom si kladli otázky o naší identitě a naší schopnosti přispívat k péči o svět, který nám Stvořitel svěřil, a k jeho kultivaci.

Umělá inteligence se tak stává příležitostí klást si otázky o tom, co vlastně jsme?

To je skvělá zpráva: pomyslete na to, že ještě před deseti až patnácti lety se tento druh otázek o člověku zdál zastíněný. Objevovala se politická rozhodnutí, která fakticky ztotožňovala některé druhy lidoopů s člověkem nebo která embryu či osobám žijícím v terminální fázi života upírala lidskou identitu. To, co se zdálo být otázkou, kterou je třeba odložit do minulosti, se najednou díky lidské práci mohutně vrací do veřejné debaty a celosvětového zájmu. Tato otázka má dvojí význam: na jedné straně je antropologická, jak je v dokumentu dobře zdůrazněno, na druhé straně má nepochybně sociální důsledky, a proto si již nyní můžeme představit, že bude rozvíjena v rámci sociální nauky církve.

Jaký je rozdíl mezi tzv. umělou inteligencí a lidskou inteligencí?

Právě lidská přirozenost - kterou je obtížné pojmout do předem stanovené definice či perimetru - nás vede k tomu, že když mluvíme o člověku, mluvíme o něčem, co je v mnoha svých dimenzích snáze popsatelné. Zamyslíme-li se nad tím, jak o inteligenci hovořili Řekové, musíme uznat, že se jednalo o slova „v množném čísle“: Odysseus je definován jako „lstivý“, „inteligentní“, přičemž slovo metis označuje formu inteligence schopnou nalézat řešení praktických problémů. Když se naopak hovoří o inteligenci schopné pochopit smysl celku, používají Řekové slovo nous. Zde se tedy již v matricích západního myšlení setkáváme s plurální lidskou inteligencí, schopnou vydat se několika směry. Umělá inteligence nenahrazuje všechny tyto formy inteligence: je velmi dobrá ve vyhrávání her, v hledání řešení, je schopna velkého metis. Ale nous, to, co hledá smysl celku a je schopno orientovat náš život směrem k horizontu, budoucnosti nebo dokonce transcendenci, to je pouze lidské.

Čeho se máme bát v případě aplikací umělé inteligence?

Pokud si mohu dovolit žertovat, řekl bych, že první, čeho se máme bát, je přirozená hloupost. Protože stroj není schopen se sám dosadit do role náhradníka: vždy jsme to my, kdo by v důsledku výpočtů nebo pokusů o optimalizaci určitých procesů mohl stroj využít tím, že by se rozhodl místo člověka. A tak výkonný stroj, schopný ve zlomcích vteřiny volit mezi nekonečným množstvím možností, není vždy schopen suplovat to, čemu se lidsky říká rozhodnutí, tedy něco, co souvisí s moudrostí. Zde je celá ambivalence umělé inteligence, která je schopna dělat věci s velkou rychlostí a efektivitou, zatímco člověk je na druhé straně povolán k tomu, aby se ptal po smyslu. Možná bychom se mohli nebo měli obávat všech těch rozhodnutí, která nepřistupují k rozhodování. Pomysleme například na lékařskou sféru: diagnóza nikdy není pouhou volbou mezi terapiemi, ale převzetím lidské existence jinou lidskou existencí, která jí implicitně dává příslib vyléčení. Musíme se obávat všech situací, v nichž bychom zakusili oslabení lidskosti, abychom umožnili zvýšení „strojovosti“. A místo toho podporovat všechny aplikace, které tuto lidskou odpovědnost udržují při životě.

Dokument klade velký důraz na lidskou odpovědnost a zodpovědnost. Proč?

Existují dva hlavní směry, které dávají vzniknout krásné odpovědi v tomto dokumentu. Je zde jeden pramen, který vychází z perspektivy víry a klade si otázku, v čem spočívá lidská specifičnost z hlediska svědomí. Koncilní konstituce Gaudium et spes k nám promlouvá o onom intimním místě v nás, kde v určitých chvílích slyšíme hlas, který nám říká: dělej to a vyhni se tomu. Je to svatyně, kde člověk slyší Boží hlas. Zde je matrice odpovědnosti. Ale v rámci tohoto věřícího vědomí je také celé vědomí o účinku odstranění odpovědnosti z lidského rozhodování. Velcí spisovatelé, jako například Hannah Arendtová, hovořili o tom, že ve velkých masakrech minulého století došlo k pokusu odejmout odpovědnost z lidského rozhodování, aby se stalo součástí soukolí, které vede k maximálnímu odlidštění osobnosti a společnosti. Tyto dvě lidské schopnosti, víra a rozum, podávající si ruce, nám mohou pomoci nahlédnout, jak inovovat umělou inteligenci, aby se skutečně stala zdrojem lidského rozvoje.

Bohužel stále vidíme roli autonomních zbraní. Co můžeme říci o použití umělé inteligence ve válce?

Vzpomeňte si na nás před 60 000 lety, kdy jsme v jeskyni poprvé vzali do ruky kyj. Byl to nástroj, jak získat více kokosových ořechů, a zbraň, jak rozpůlit více lebek než ostatní lidé. Pokaždé, když se setkáme s technologií, čelíme pokušení proměnit nástroj ve zbraň. Jsme však také zasazeni do příběhu spásy - vzpomeňte si na proroka Izajáše -, v němž se zbraně mohou stát nástroji ke kultivaci, k nasycení a k darování života. V tomto našem příběhu hříchu a obrácení mají ti, kdo vedou válku, velmi silné pokušení používat nástroje s tak mocnou technologií. Dovolte mi připomenout, že umělá inteligence není první formou autonomní technologie používané ve válce. Vzpomeňte si na protipěchotní miny: jsou autonomní! Systém umělé inteligence lze definovat jako něco, co dokáže od člověka převzít cíl a následně přizpůsobit prostředky k jeho dosažení. Avšak nikde jinde než ve válce nevidíme, že všechny prostředky nejsou stejné: od velké atomové tragédie jsme si uvědomili, že existují prostředky, kterým je třeba se za každou cenu vyhnout. Stroj se na rozdíl od člověka nikdy neunaví v úsilí o dosažení svého cíle, a tak se může stát, že pokud se budeme spoléhat pouze na stroje, nikdy nenastane příměří. Čím více lidských schopností, tím radikálnější otázky musíme zodpovědět.

Papež František ve svém loňském projevu na zasedání G7 řekl, že rozhodnutí o odnětí lidského života by nikdy nemělo být ponecháno na stroji.

Je to prorocký papežův hlas. Velmi silný hlas udávající směr. Potřebujeme mimořádnou obezřetnost, nebo spíše, abychom použili slova dokumentu, mimořádnou odpovědnost.

Umělá inteligence dnes umožňuje falšovat zobrazení reality. Vzpomeňme si na falešné nebo retušované snímky, které jsou stále méně rozeznatelné od skutečných. Nebo masové šíření falešných zpráv. Jak můžeme těmto odklonům čelit?

Zdá se, že pro některé se pravda stala něčím druhotným a že je možné vytvářet narativy zcela odtržené od faktů. Všechny západní demokracie jsou založeny na základním předpokladu: mohou existovat jako demokracie, pokud jsou lidé schopni vytvořit si správný názor na základě faktů. Demokracie tak dává novináři téměř roli státního úředníka: jeho profesionalita je podobná profesionalitě vědce, který hledá pravdu, nebo soudce, který se snaží zjistit fakta. Umělá inteligence by mohla některé typy procesů produkce informací výrazně zlevnit, ale neudělala by je pravdivějšími nebo užitečnějšími. Abychom mohli žít v demokracii, potřebujeme profesionální žurnalistiku a profesionální žurnalistika potřebuje průmysl. To vše může umělá inteligence v nesprávných rukou nebo s nesprávnými cíli ekonomicky poškodit nebo zničit ve své kapacitě.

Jak se můžeme chránit?

Dokument připomíná klíčovou kategorii odpovědnosti, přičemž existují formy odpovědnosti, které ve veřejném prostoru nabývají konzistence zákona. Možná nastal čas trvat na tom, aby existovalo „kognitivní“ právo lidí: právo vědět, který obsah zpracoval člověk, který do něj vložil svou profesní odpovědnost, a který vytvořil stroj. Možná bychom měli definovat několik mantinelů, abychom udrželi službu pravdivosti informací a žurnalistiky na správné cestě. Dokument nám říká, že je možná na čase klást si otázky, než na ně budeme dávat odpovědi.

Ediční ředitel vatikánských médií Andrea Tornielli s otcem Benantim
Ediční ředitel vatikánských médií Andrea Tornielli s otcem Benantim
28. ledna 2025, 14:02
Prev
April 2025
SuMoTuWeThFrSa
  12345
6789101112
13141516171819
20212223242526
27282930   
Next
May 2025
SuMoTuWeThFrSa
    123
45678910
11121314151617
18192021222324
25262728293031