Il cardinale Gianfranco Ravasi a Palazzo Borromeo, sede dell'Ambasciata d'Italia presso la Santa Sede, che ha ospitato l'incontro Il cardinale Gianfranco Ravasi a Palazzo Borromeo, sede dell'Ambasciata d'Italia presso la Santa Sede, che ha ospitato l'incontro

Intelligenza artificiale, servono “una critica fondata e un’adesione sorvegliata"

I cardinali Ravasi, presidente emerito del Pontificio Consiglio della Cultura, e Tolentino de Mendonça, suo successore come prefetto del Dicastero della Cultura e l’Educazione, hanno presentato oggi all’Ambasciata d’Italia presso la Santa Sede il documento “Intelligenza artificiale: distingue frequenter” realizzato dalla consulta scientifica del Cortile dei Gentili. Il porporato portoghese: “Non è un tema del futuro, ma di oggi”

Alessandro Di Bussolo – Città del Vaticano

Un documento sull’Intelligenza artificiale che rifiuta visioni apocalittiche, di chi “ritiene questa esperienza una degenerazione”, così come quelle da integrati, “cioè sposare questa nuova visione senza porci degli interrogativi di tipo etico”. Così il cardinale Gianfranco Ravasi, presidente emerito del Pontifico Consiglio della Cultura, ha presentato il documento “Intelligenza artificiale: distingue frequenter” realizzato dalla consulta scientifica del Cortile dei Gentili, in un incontro promosso con l’Ambasciata d’Italia presso la Santa Sede a Palazzo Borromeo. Ravasi, che ha fondato il Cortile nel 2010, fortemente voluto da Papa Benedetto XVI, nella tappa “conclusiva”, ha detto, del suo servizio, ha sottolineato che nell’affrontare l’Intelligenza artificiale bisogna avere “una critica fondata e un’adesione sorvegliata”.

Amato: c'è un limite da non varcare, non siamo Dio

Accanto a lui il successore, il cardinale José Tolentino de Mendonça, prefetto del nuovo Dicastero della Cultura e l’Educazione, che ha definito “l’Intelligenza artificiale non una questione del futuro, ma di oggi”. Dopo il saluto iniziale dell’ambasciatore Francesco Di Nitto, il cardinale Ravasi ha sottolineato che sul tema è fondamentale un giudizio etico, di un controllo anche di tipo morale e antropologico. A moderare gli interventi di alcuni membri della consulta scientifica del Cortile dei Gentili, il presidente Giuliano Amato, giurista e politico, che ha ricordato l’immagine che apre il film “Odissea nello spazio”, e il suo arco imprevedibile “dall’osso sbattuto in terra dell’antenato scimpanzè, prima forma di tecnologia, fino all’impazzimento del computer di bordo Charlie, che rifiuta agli astronauti una rotta sicura. Così l’uomo è nelle mani di quell’osso, che decide il destino dell’umanità”. Se non vogliamo fare quella fine, ha spiegato Amato, “serve tensione morale e il coraggio di dire: c’è un limite che non si può varcare, non possiamo giocare a fare Dio, siamo creatura e non possiamo pensare di creare ciò che noi siamo, magari meglio di chi ci ha creato perché senza difetti”. Si è passati dall’uso dell’IA a farne un sostituto di noi in certe decisioni.

Il manifesto dell'incontro all'Ambasciata d'Italia presso la Santa Sede
Il manifesto dell'incontro all'Ambasciata d'Italia presso la Santa Sede

Palazzani: un documento "umanocentrico"

Tra gli intervenuti, Laura Palazzani, bioeticista e docente di Filosofia del diritto alla Lumsa di Roma, membro della Pontificia Accademia per la Vita, ha sottolineato che la sfida è la risposta da dare “alla nuova ondata tecnologica”, che si deve basare sull’analisi del rapporto tra uomo e macchina. “La tecnologia – ha spiegato - tenta di simulare l’intelligenza umana o anche si sostituirla. Il tecnocentrismo vuole che sostituisca o potenzi il corpo umano”. Gli estensori del documento del Cortile dei Gentili si definiscono invece “umanocentristi”. “Diciamo no – ha chiarito Palazzani  - ad una tecnologia contro l’uomo, dev’essere per l’uomo e con l’uomo, col quale deve collaborare”. Per questo l’Intelligenza artificiale deve avere alcuni requisiti etici definiti nel documento. Si va dal controllo umano significativo “per non delegare eccessivamente alla tecnologia. Anche gli algoritmi possono sbagliare”. I sistemi di IA, poi, devono essere “affidabili e spiegabili, tracciabili, e inclusivi”. Perché c’è Il rischio di sistemi che abbiano pregiudizi sull’età, genere, etnia. Ed essere comprensibili per la società.

Sciarrone Alibrandi: in arrivo il regolamento europeo sull'IA

Sul processo che ha portato alla stesura del documento è intervenuta anche Antonella Sciarrone Alibrandi, vice rettore dell’Università Cattolica di Milano e docente di Diritto economico, per sottolineare il valore del metodo di analisi scelto, quello della scuola gesuitica, sintetizzato nel motto latino: "Numquam nega raro adfirma distingue frequenter”. In un mondo incontinua evoluzione come quello digitale, ha sostenuto, tutto va ripensato velocemente,  e servono strumenti regolatori, fatto di norme vincolanti ed autoregolazione. Ed ha espresso soddisfazione per la notizia che è in dirittura d'arrivo un regolamento europeo sull’Intelligenza artificiale. "Con tutti i limiti di una scelta regolatoria - ha commentato Sciarrone Alibrandi - la Commissione europea ha fatto una scelta coraggiosa". Approcciando, con norme vincolanti, "in modo trasversale e non settoriale l’IA, perché ha applicazioni in tutti i settori, economia, medicina, giustizia, ma alcuni campi però rimarranno fuori, purtroppo". E' coraggiosa anche "la ricerca dell’equilibro tra lo sviluppo dell’innovazione e tutela degli interessi, individuando alcuni diritti fondamentali della persona che se messi a rischio dalle applicazioni dell’IA possono portare al divieto di utilizzo dell’IA". L’Europa è la prima istituzione che interviene a regolare l’IA. Amato ha ricordato che la consulta scientifica del Cortile dei Gentili, per la preparazione del documento, si è avvalsa dell'aiuto dell'Università del Sacro Cuore, che ha già attivi da tempo cinque gruppi di lavoro sui diversi aspetti dell'Intelligenza artificiale.

Un momento dell'incontro a Palazzo Borromeo
Un momento dell'incontro a Palazzo Borromeo

Magnani: la tecnologia è strumento per l'uomo, non per sostituirlo

Ha poi preso la parola Marco Magnani, docente di International Economics e di Monetary and Financial Economics alla Luiss di Roma, che ha sostenuto che l'IA "non è una vera intelligenza, perché è valida finchè si sta dentro la scatola, ma quando si esce, quando serve creatività, ci vuole l’uomo. Il problema è come verrà ripartita la nuova ricchezza prodotta attraverso l'Intelligenza artificiale, se non ci sarà più il lavoro dell’uomo. Se il lavoro perde la sua centralità ed entra in crisi, "forse i nuovi mestieri non basteranno". Magnani vede tre strade possibili bel rapporto uomo-macchina: il luddismo, la distruzione delle macchine, "ma si è già visto che non funziona", l'approccio sostitutivo, dare tutto lo spazio alla macchina, e quello collaborativo, che dichiara di preferire. "La tecnologia come strumento dell’uomo".

Flick: i rischi dell'IA nel controllo del comportamento umano

A ribadire i rischi legati all'utilizzo dell'IA, è intervenuto infine il giurista e politico Giovanni Maria Flick. "Non sono solo nella simulazione del pensiero umano - ha sostenuto - ma dobbiamo preoccuparci anche della sua applicazione nel controllo e nell'organizzazione del comportamento umano". Nel campo della giustizia, il rischio è di arrivara ad una giustizia predittiva e robotica, ma "una necessaria digitalizzazione non può ridursi a questo". La risposta, per Flick, la troviamo nei principi fondamentali della Costituzione italiana, in quell'articolo 9 da poco modificato "per aggiungere alla tutela del patrimonio storico e artistico e del paesaggio-ambiente, la tutela dell'interesse delle future generazioni, ma anche degli ecosistemi e della biodiversità". Che non è solo quella della flora e della fauna, ma anche della specie umana. "Papa Francesco nel suo documento postsinodale sull'Amazzonia (Querida Amazonia, n.d.r. ) ricorda che la regione è un serbatoio di biodiversità, che violenze e deforestazione rischiano di alterare". E ha ricordato i quattro sogni del Papa: "ecologia della difesa degli ultimi, delle ricchezze culturali, delle bellezze naturali e della convivenza tra le religioni. Le prime tre componenti valgono per tutti, anche per chi non crede". Ecco come il cardinal Gianfranco Ravasi ci ha presentato i temi del documento:

Ascolta l'intervista al cardinale Gianfranco Ravasi

Come arrivare ad una comunanza etica nella società del pluralismo, sul tema dell'intelligenza artificiale e sui suoi rischi e vantaggi? Cosa risponde il documento del Cortile dei Gentili che presentate oggi?

Bisogna innanzitutto ricordare che non si deve essere tentati dal polo totalmente negativo, gli apocalittici, che ritengono questa esperienza dell'intelligenza artificiale una degenerazione, ma neppure essere integrati, per usare la famosa espressione di Umberto Eco. Cioè non sposare questa nuova visione senza porci degli interrogativi di tipo etico. La necessità è proprio quella di distinguere chiaramente: l'intelligenza artificiale è fondamentale per il mondo del lavoro, della medicina, della ricerca, anche delle relazioni. Però dall'altra parte comporta, soprattutto quando si tratta della cosiddetta intelligenza artificiale “forte”, dotata di autocoscienza, di autonomia, l’importanza di un giudizio etico, di un controllo anche di tipo morale e antropologico.

Il Papa ha già sottolineato il rischio che le applicazioni dell’intelligenza artificiale incrementino le disuguaglianze tra le periferie e il centro, tra chi ha accesso a queste tecnologie che non lo ha, e anche il rischio di perdita di posti di lavoro…

Indubbiamente si pongono tutta una serie di questioni da punto di vista etico. Se è vero che tutti i lavori usuranti vengono compiuti da macchine, tendenzialmente si allarga l'orizzonte in cui interviene la macchina e diminuisce l'occupazione, creando così delle grandi sacche di disoccupazione. Dall'altra parte, non dobbiamo neppure dimenticare che esiste anche il problema della diffusione di questi strumenti che sono di alta qualità nel Nord del mondo e non nelle periferie. Bisogna tener conto anche dell’uso militare, che alla fine diventa l'ambito nel quale intelligenza artificiale viene più sviluppata, per ragioni belliche. E quindi ci sono tanti interrogativi che esigono un giudizio che non sia soltanto tecnico, ma anche morale.

Il saluto del cardinale Tolentino, prefetto del Dicastero della Cultura e l'Educazione
Il saluto del cardinale Tolentino, prefetto del Dicastero della Cultura e l'Educazione

Possiamo dire che in questo documento c’è la sintesi del lavoro sull’Intelligenza artificiale del dicastero che lei ha presieduto, anche attraverso il Cortile dei Gentili?

Il lavoro fatto noi l'abbiamo condotto attraverso una consulta scientifica, ed è squisitamente teorico e morale. Da un lato si cercano, cioè, tutte le dimensioni fondamentali dell'intelligenza artificiale conoscendone la grammatica, perché è un nuovo modo di porre anche figura umana in rapporto con la macchina. Dall'altra parte, però, abbiamo voluto continuamente anche cercare di giudicare, per evitare le derive, per evitare da una parte una sorta quasi di adorazione idolatrica di questa nuova struttura, ma anche dall'altra parte di riconoscerne la straordinaria grandezza, potenza che pure può avere per il benessere dell'umanità.

Il problema resta monitorare lo sviluppo e gli usi dell’Ia. A chi spetta?

Il monitoraggio spetterebbe prima di tutto alla politica nella sua forma più nobile del termine, alla politica internazionale. In secondo luogo, certamente, alla scienza che è di più, e più ampia, della pura tecnologia. La tecnologia procede meccanicamente, mentre la scienza può anche porre interrogativi. Il compito è anche, io direi più genericamente, delle Chiese, dei fenomeni religiosi, dei fenomeni spirituali in genere che cercano di difendere la persona umana e di conseguenza anche di tutto il mondo della cultura.

L'intervento di monsignor Polvani, segretario della consulta scientifica del Cortile dei Gentili
L'intervento di monsignor Polvani, segretario della consulta scientifica del Cortile dei Gentili

Polvani: il principio del "distingue frequenter"

A concludere i lavori, il segretario della consulta scientifica, monsignor Carlo Maria Polvani, sottosegretario del Dicastero della Cultura e l’Educazione, che ha sottolineato come nel documento “dichiariamo di credere nell’amicizia che è basata sull’etica, in una comunanza etica nella società del pluralismo, definita “Koinotes aristotelica”. Ecco come ci ha presentato il lavoro della consulta scientifica al termine dell’incontro.

Ascolta l'intervista a monsignor Carlo Maria Polvani

Quali punti del documento che presentate oggi sull’Intelligenza Artificiale vuole sottolineare?

Io sottolineerei la metodologia con la quale il problema dell’Intelligenza artificiale è stato affrontato. Una metodologia ancorata nella tradizione della Chiesa e nella tradizione del pensiero occidentale. Si è parlato di tre principi: un principio distintivo di negare quasi mai, perché quando si nega qualcosa, ci si chiude delle strade. Poi un principio di affermare con estrema cautela, per non ritrovarsi intrappolati, e poi un principio molto caro al Papa, che rispetta la poliedricità della verità, che è un continuo sviluppo di categorie nuove, di distinzioni continue. Quello di distinguere più che si può.

 

E poi c’è il rischio di fondo che attraverso l’Intelligenza artificiale l'uomo voglia prendere il posto di Dio…

Sì, c'è questo rischio profondo, e la cosa più grave è che questa cosa, come avviene molte volte nella storia, avviene quasi imponendosi da sè stessa. La possibilità di fare qualche cosa, rimpiazza la legittimità di fare qualche cosa, e questo è il grosso pericolo.

Come guardare a questo regolamento di cui si è parlato che dovrebbe arrivare a breve da parte della Commissione europea, proprio sull’Intelligenza artificiale?

Penso che in questo senso l'Europa, e con lei l’Italia che ne fa parte, abbia voluto attaccare il problema in maniera intelligente e fare quello che era successo anche sulla questione della privacy, non lasciarsi sorpassare. Oggi si può discutere, si può essere d'accordo su alcuni elementi, magari criticare perché ne mancano alcuni altri, ma il punto principale è c'è stato uno sforzo anche da un punto di vista etico-legislativo, per non restare indietro.

Nel documento puntate sull’uomocentrismo: penso che sia fondamentale per il personalismo cristiano…

Assolutamente, la parola che hai usato è la migliore: il personalismo cristiano. Perché quando si parla di uomo si parla sempre di persona.

Guarda il video di tutto l'incontro a Palazzo Borromeo

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

24 novembre 2022, 17:48