Recherche

intelligence artificielle intelligence artificielle  (REUTERS) Les dossiers de Radio Vatican

Intelligence artificielle: l’être humain peut choisir de ne pas en dépendre

La relation entre l’homme et les technologies numériques, c’est tout l’enjeu du message du Pape pour la 57e journée mondiale de la paix. Il ne s’agit pas de tourner le dos aux avancées offertes par l’intelligence artificielle, mais de ne pas perdre notre capacité de discernement.

Entretien réalisé par Jean-Charles Putzolu – Cité du Vatican

Dans son message pour la 57e Journée mondiale de la paix, axé sur «intelligence artificielle et paix», le Pape souligne que les nouvelles technologies doivent toujours être orientées vers «la recherche de la paix et du bien commun», et qu’elle doivent être «au service du développement intégral des individus et des communautés». Sa réflexion sur l'impact de l'intelligence artificielle pour la paix mondiale est un avertissement contre une mauvaise utilisation de l’IA. Il exhorte la communauté internationale à adopter un traité contraignant pour réglementer le développement et l’utilisation des différentes formes d’intelligence artificielle, et soulève des questions éthiques étroitement liées à ces nouvelles technologies qui révolutionnent l'humanité dans toutes les sphères de la vie, capables du pire comme du meilleur. Ces technologies n’étant pas neutres, mais orientées par les concepteurs d’algorithmes, elles peuvent manipuler l’esprit humain et par là même, alimenter des conflits.

Pour mieux comprendre la relation entre l’homme et la machine, Vatican News s’est entretenu avec Mathieu Guillermin, maitre de conférences à l’université catholique de Lyon. Spécialiste de l’Intelligence artificielle. Son travail porte sur les enjeux philosophiques et éthiques soulevés par les technologies numériques.

Entretien avec Mathieu Guillermin sur l'intelligence artificielle

Mathieu Guillermin, l’intelligence artificielle ouvre de nouveaux horizons, depuis quelques années, et pose de nouvelles questions, éthiques, philosophiques, et même anthropologiques. L’humain se soumettrait-il à la machine?

On présente souvent les choses sous la forme “la machine va nous faire quelque chose”, mais fondamentalement, la machine reste un ordinateur, et cela ne va pas changer. C'est de la mécanique d’interrupteurs qui ouvre ou ferme ses canaux en fonction de qui est programmé, et nous, on attache de la signification à cela. Mais en réalité, la machine ne veut rien. Il n’est donc pas question d’opposition entre la machine et l’humain. Il est question d’humains qui font des choses avec des machines et ça impacte d'autres humains, pour le meilleur ou pour le pire. Il n'y a pas de machine qui fait quelque chose parce qu'elle le souhaite. Il y a éventuellement des machines qu'on ne maîtrise pas, et qui peuvent donner des “hallucinations”, c’est-à-dire des résultats non désirés, ou des machines qu'on maîtrise très bien.

Donc la façon dont l'algorithme est programmé peut orienter nos choix?

Oui, complètement. Là, il y a un enjeu. C’est une des choses sous-jacentes qu'on ne voit peut-être pas immédiatement dans le lien guerre et paix, mais qui va vraiment très loin. En fait, on crée des petites représentations, en fonction des comportements de la personne. Si une personne se comporte d’une certaine, on peut savoir dans quel état elle se trouve, et on peut, avec des probabilités, déterminer quel peut-être son comportement successif. Ce genre de calcul donne un pouvoir énorme, qui peut être un bon pouvoir. Je suis content qu'on puisse me donner des informations qui vont m'intéresser, mais ça peut très vite déraper vers une offre d’informations qui vont capter mon attention. Ça peut aller jusqu'à de la manipulation mentale. On appelle ça les technologies de la persuasion. Ce n'est pas nouveau avec l'IA, mais l'intelligence artificielle va renforcer ce qu'on peut faire dans ce domaine.

Et est-ce que les opinions publiques ont la capacité d’un correct discernement?

On rejoint vraiment le sujet IA et paix. L'exploitation aussi bien de nos propres biais cognitifs, de la manière dont on pense, dont on réagit, va pouvoir être utilisée pour mieux diffuser des fausses informations ou pour attiser des conflits. C'est vraiment un usage militarisé. Si on exploite le problème des bulles cognitives, qui font qu’on va donner aux gens que ce qui les intéresse et donc au bout d'un moment, vont se former des groupes de gens qui n’ont que certaines informations, d'autres qui en ont d'autres, ça finit par casser l'intelligence collective et le fond commun qu'on pourrait avoir pour se parler en termes de paix ou de tensions. C'est un usage malsain de l’algorithme, et on est totalement dans la thématique intelligence artificielle et paix. En revanche, on pourrait utiliser ces algorithmes pour dire “ok, j'ai un profil de toi, je sais, je détecte à peu près où est ce qu'on va être d'accord et où est ce qu'on ne va pas être d'accord, et du coup je m'appuie là-dessus pour avoir une discussion plus intelligente avec toi”. Alors là, on gagnerait en cohésion et en intelligence collective. Il peut donc y avoir une utilisation saine de cette technologie.

Et en fonction de ça, sur quelles pistes de réflexion peut s'engager le système éducatif?

La première réflexion à développer serait de partir du le monde dans lequel on vit et de qui nous sommes, pour se poser la bonne question : Voulons-nous être capable, ou pas, de conduire telle ou telle action? Cette piste de réflexion peut déterminer à la fois à quoi on se forme et ce que l'on apprend à faire, et parallèlement, où est ce que l’on intègre des algorithmes, ou pas. Pour avoir le bon usage, il faut comprendre pourquoi on fait les choses. Une fois qu'on a ce cadre-là, effectivement, il faudrait revenir à, étant donné que maintenant on peut automatiser beaucoup de choses, donner aux gens, aux élèves et à tout le monde, la capacité de s'orienter dans ce type de choix. Tout cela donne un fond en fait, pour pouvoir être une personne authentique et une personne intelligente.

Le Pape François dit aussi dans son message que l'homme peut perdre le contrôle de lui-même en se confiant totalement à la technique…

La perte de contrôle est déjà là. Elle était là même avant la machine, parce qu'on a une hubris prométhéenne. On a des pouvoirs et on devient esclave de nos pouvoirs, on met en place des choses qui créent des appels d'air et on s’engouffre dedans. C’est là qu’on perd le contrôle sur nous-mêmes. Mais de la même manière que des algorithmes peuvent nous faire réagir d’une certaine façon, sans passer par un minimum de réflexion, un minimum de jugement, un minimum d'exercice de discernement, on perd aussi le contrôle et on met en place des machines qui nous enlèvent de l'autonomie. Or, l'autonomie dont il ne faut pas se priver, c'est notre capacité de faire des choix, et surtout de faire des choix en conscience. Là on défend notre autonomie.

Merci d'avoir lu cet article. Si vous souhaitez rester informé, inscrivez-vous à la lettre d’information en cliquant ici

01 janvier 2024, 06:00