LE PAPE FRANÇOIS PARTICIPE À LA SESSION DU G7 SUR L'INTELLIGENCE ARTIFICIELLE
DISCOURS DU SAINT-PÈRE FRANÇOIS
Borgo Egnazia (Pouilles - Italie)
Vendredi 14 juin 2024
Un instrument fascinant et formidable
Chères dames, distingués messieurs :
Je m'adresse aujourd'hui à vous, dirigeants du Forum intergouvernemental du G7, avec une réflexion sur les effets de l'intelligence artificielle sur l'avenir de l'humanité.
«La Sainte Écriture témoigne que Dieu a donné aux hommes son Esprit pour qu'ils aient «l'habileté, le talent et l'expérience dans l'exécution de toutes sortes d'ouvrages» ( Ex 35,31)» [1] . La science et la technologie sont donc un produit extraordinaire du potentiel créatif que possède l’être humain [2] .
Or, l’intelligence artificielle naît précisément de l’utilisation de ce potentiel créatif que Dieu nous a donné.
Cette intelligence artificielle, comme nous le savons, est un instrument extrêmement puissant, utilisé dans de nombreux domaines de l’activité humaine : de la médecine au monde du travail, de la culture au domaine de la communication, de l’éducation à la politique. Et il est donc juste de supposer que son utilisation influencera de plus en plus notre mode de vie, nos relations sociales et l’avenir, voire la façon dont nous concevons notre identité en tant qu’êtres humains [3] .
Le thème de l’intelligence artificielle est cependant souvent perçu de manière ambivalente : d’une part, il est passionnant en raison des possibilités qu’il offre ; En revanche, cela fait craindre les conséquences qui pourraient en découler. À cet égard, nous pourrions dire que nous sommes tous traversés, bien qu'à des degrés différents, par deux émotions : nous sommes enthousiastes lorsque nous imaginons les progrès que l'on peut tirer de l'intelligence artificielle, mais, en même temps, nous avons peur lorsque on voit les dangers inhérents à son utilisation [4] .
Nous ne pouvons certainement pas douter que l’arrivée de l’intelligence artificielle représente une véritable révolution cognitivo-industrielle, qui contribuera à la création d’un nouveau système social caractérisé par des transformations d’époque complexes. Par exemple, l’intelligence artificielle pourrait permettre une démocratisation de l’accès au savoir, le progrès exponentiel de la recherche scientifique, la possibilité de déléguer un travail épuisant aux machines ; mais, en même temps, cela pourrait entraîner une plus grande inégalité entre les pays avancés et les pays en développement, entre les classes sociales dominantes et les classes sociales opprimées, mettant ainsi en danger la possibilité d’une « culture de la rencontre » et favorisant une « culture de la rencontre ». jeter".
L’ampleur de ces transformations complexes est évidemment liée au développement technologique rapide de l’intelligence artificielle elle-même.
C’est précisément cette puissante avancée technologique qui fait de l’intelligence artificielle un instrument à la fois fascinant et formidable , et qui nécessite une réflexion à la hauteur de la situation.
Dans cette direction, nous pourrions peut-être partir du constat que l’intelligence artificielle est avant tout un instrument . Et il est spontané d’affirmer que les bénéfices ou les inconvénients qu’elle entraînera dépendront de son utilisation.
C’est vrai, car il en a été ainsi pour tous les outils construits par les humains depuis la nuit des temps.
Notre capacité à construire des outils, dans une quantité et une complexité sans égal chez les êtres vivants, nous parle d'une condition techno-humaine . Les êtres humains ont toujours entretenu une relation avec l’environnement médiatisée par les instruments qu’ils ont produits. Il n’est pas possible de séparer l’histoire de l’homme et de la civilisation de l’histoire de ces instruments. Certains ont voulu lire dans tout cela une sorte de privation, un déficit de l'être humain, comme si, à cause de ce manque, il était obligé de donner vie à la technologie [5] . Un regard attentif et objectif nous montre en réalité le contraire. Nous vivons dans une condition d'ultériorité par rapport à notre être biologique ; Nous sommes des êtres tournés vers l’extérieur de nous, en fait radicalement ouverts sur l’au-delà. C’est de là que naît notre ouverture aux autres et à Dieu ; De là naît le potentiel créatif de notre intelligence en termes de culture et de beauté ; C'est finalement de là que naît notre capacité technique. La technologie est ainsi une trace de notre intériorité.
Cependant, l’utilisation de nos outils n’est pas toujours orientée sans équivoque vers le bien. Même lorsque l'être humain ressent en lui une vocation à l'au-delà et à la connaissance vécue comme instrument du bien au service de ses frères et de la maison commune (cf. Gaudium et spes , 16), cela ne se produit pas toujours arriver. De plus, il n'est pas rare que, précisément grâce à sa liberté radicale, l'humanité ait perverti les objectifs de son propre être, devenant un ennemi d'elle-même et de la planète [6] . Les instruments technologiques peuvent subir le même sort. Ce n’est que si leur vocation au service de l’humanité est garantie que les instruments technologiques révéleront non seulement la grandeur et la dignité unique de l’être humain, mais aussi le mandat que celui-ci a reçu pour « cultiver et prendre soin » de la planète et de tous ses habitants. (cf. Gn 2, 15). Parler de technologie, c'est parler de ce que signifie être humain et, par conséquent, de notre condition unique entre liberté et responsabilité, c'est-à-dire parler d'éthique.
En fait, lorsque nos ancêtres aiguisaient des silex pour fabriquer des couteaux, ils les utilisaient à la fois pour couper les peaux pour les vêtements et pour s'éliminer mutuellement. On pourrait en dire autant d’autres technologies beaucoup plus avancées, comme l’énergie produite par la fusion d’atomes, comme cela se produit dans le Soleil, qui pourrait être utilisée pour produire de l’énergie propre et renouvelable, mais aussi pour réduire notre planète en cendres.
Mais l’intelligence artificielle est un outil encore plus complexe. Je dirais que c'est un outil sui generis . Ainsi, alors que l'utilisation d'un outil simple - comme un couteau - est sous le contrôle de l'être humain qui l'utilise et que son bon usage ne dépend que de lui, l'intelligence artificielle, en revanche, peut s'adapter de manière autonome à la tâche à accomplir. main assignée et, s'il est conçu de cette façon, pourrait prendre des décisions indépendamment de l'humain pour atteindre l'objectif fixé [7] .
Il convient toujours de rappeler que la machine peut, d’une certaine manière et avec ces nouveaux moyens, choisir grâce à des algorithmes. Ce que fait la machine est un choix technique entre plusieurs possibilités et se base sur des critères bien définis ou des déductions statistiques. L'être humain, en revanche, non seulement choisit, mais est capable de décider dans son cœur. La décision est un élément que l’on pourrait définir comme le plus stratégique d’une élection et nécessite une évaluation pratique. Parfois, souvent dans la tâche difficile de gouverner, nous sommes également appelés à prendre des décisions qui ont des conséquences pour de nombreuses personnes. La réflexion humaine a toujours parlé à cet égard de la sagesse, de la phronèse de la philosophie grecque et, au moins en partie, de la sagesse de l'Écriture Sainte. Face aux merveilles des machines, qui semblent savoir choisir de manière indépendante, nous devons être très clairs sur le fait que la décision revient toujours à l'être humain, même avec les tons dramatiques et urgents avec lesquels elle apparaît parfois dans nos vies. Nous condamnerions l’humanité à un avenir sans espoir si nous supprimions aux individus la capacité de décider par eux-mêmes et par eux-mêmes de leur vie, les condamnant ainsi à dépendre des choix des machines. Nous devons garantir et protéger un espace important de contrôle humain sur le processus de sélection utilisé par les programmes d’intelligence artificielle. La dignité humaine elle-même est en jeu.
Justement sur ce sujet, permettez-moi d'insister sur le fait que, dans un drame comme celui des conflits armés, il est urgent de repenser le développement et l'utilisation de dispositifs tels que les soi-disant « armes létales autonomes » pour interdire leur utilisation, en commençant dès maintenant par un engagement efficace et concret pour introduire un contrôle humain de plus en plus grand et significatif. Aucune machine ne devrait jamais choisir de mettre fin à la vie d’un être humain.
Il faut également ajouter que le bon usage, au moins des formes avancées d'intelligence artificielle, ne sera entièrement sous le contrôle ni des utilisateurs ni des programmeurs qui ont défini leurs objectifs initiaux au moment de leur développement. C’est vrai puisqu’il est très probable que, dans un avenir pas si lointain, les programmes d’intelligence artificielle pourront communiquer directement entre eux, pour améliorer leurs performances. Et, si autrefois les êtres humains qui utilisaient des outils simples voyaient leur existence façonnée par ces derniers - le couteau leur permettait de survivre au froid mais aussi de développer l'art de la guerre - maintenant que les êtres humains ont modelé un instrument complexe, vous verrez que cela façonnera encore plus votre existence [8] .
Le mécanisme de base de l'intelligence artificielle
Permettez-moi maintenant de m'attarder brièvement sur la complexité de l'intelligence artificielle. Fondamentalement, l'intelligence artificielle est un outil conçu pour résoudre un problème et fonctionne à travers une chaîne logique d'opérations algébriques, réalisées sur la base de catégories de données, qui sont comparées pour découvrir des corrélations et s'améliorer. sa valeur statistique à travers un processus d'auto-apprentissage basé sur la recherche de données complémentaires et l'auto-modification de ses procédures de calcul.
L'intelligence artificielle est ainsi conçue pour résoudre des problèmes spécifiques, mais pour ceux qui l'utilisent, la tentation de tirer, à partir des solutions spécifiques qu'elle propose, des déductions générales, même de nature anthropologique, est souvent irrésistible.
Un bon exemple est le recours à des programmes conçus pour aider les magistrats à prendre des décisions concernant l'assignation à résidence aux prisonniers qui purgent une peine dans un établissement pénitentiaire. Dans ce cas, il est demandé à l'intelligence artificielle de prédire la probabilité de récidive du délit commis par un condamné en fonction de catégories prédéterminées (type de délit, comportement en prison, évaluation psychologique et autres), ce qui permet à l'intelligence artificielle d'avoir accès à des catégories de données liées à la vie privée de la personne détenue (origine ethnique, niveau d'éducation, ligne de crédit, etc.). Le recours à une telle méthodologie – qui risque parfois de déléguer de facto à une machine le dernier mot sur le sort d'une personne – peut implicitement renvoyer aux biais inhérents aux catégories de données utilisées par l'intelligence artificielle.
Être classé dans une certaine ethnie ou, plus prosaïquement, avoir commis une petite infraction il y a des années - ne pas avoir payé, par exemple, une amende pour stationnement dans une zone interdite - influencera en effet la décision d'octroi de l'assignation à résidence. . Au contraire, l’être humain est en constante évolution et est capable de surprendre par ses actions, ce que la machine ne peut pas prendre en compte.
Il convient également de noter que les applications analogues à celle dont nous parlons se multiplieront grâce au fait que les programmes d'intelligence artificielle seront de plus en plus dotés de la capacité d'interagir directement avec des êtres humains ( chatbots ), de tenir des conversations et d'établir des relations de proximité. avec eux, souvent très agréable et rassurant, dans la mesure où de tels programmes d'intelligence artificielle sont conçus pour apprendre à répondre, de manière personnalisée, aux besoins physiques et psychologiques des êtres humains.
Oublier que l'intelligence artificielle n'est pas un autre être humain et qu'elle ne peut pas proposer de principes généraux est parfois une grosse erreur qui découle du besoin profond de l'être humain de trouver une forme stable de compagnie, ou d'un budget subconscient, c'est-à-dire le la conviction que les observations obtenues grâce à un mécanisme de calcul sont dotées de qualités de certitude incontestable et d'universalité incontestable.
Cette hypothèse est cependant farfelue, comme le démontre l’examen des limites intrinsèques du calcul lui-même. L'intelligence artificielle utilise des opérations algébriques effectuées selon une séquence logique (par exemple, si la valeur de X est supérieure à celle de Y, multipliez X par Y ; sinon divisez X par Y). Cette méthode de calcul, appelée algorithme, n'est ni objective ni neutre [9] . Étant basé sur l'algèbre, il ne peut examiner que des réalités formalisées en termes numériques [10] .
Nous ne devons pas non plus oublier que les algorithmes conçus pour résoudre des problèmes très complexes sont tellement sophistiqués qu’il est très difficile pour les programmeurs eux-mêmes de comprendre exactement comment ils parviennent à obtenir leurs résultats. Cette tendance à la sophistication risque de s’accélérer considérablement avec l’introduction d’ordinateurs quantiques qui fonctionnent non pas avec des circuits binaires (semi-conducteurs ou micropuces), mais selon les lois assez articulées de la physique quantique. D’un autre côté, l’introduction continue de puces électroniques de plus en plus efficaces est à l’origine de la prédominance de l’utilisation de l’intelligence artificielle par les quelques pays qui en disposent.
La qualité des réponses que peuvent apporter les programmes d’intelligence artificielle, qu’elles soient plus ou moins sophistiquées, dépend en fin de compte des données qu’ils manipulent et de la manière dont ils les structurent.
Enfin, je voudrais souligner un dernier domaine dans lequel apparaît clairement la complexité du mécanisme de ce qu'on appelle l'intelligence artificielle générative ( Generative Artificial Intelligence ). Personne ne doute qu'il existe aujourd'hui de magnifiques instruments d'accès à la connaissance qui permettent même l'auto -apprentissage et l'auto-formation dans un grand nombre de domaines. Beaucoup d'entre nous ont été surpris par les applications facilement accessibles en ligne pour rédiger un texte ou produire une image sur n'importe quel sujet ou sujet. Cela attire particulièrement les étudiants qui, lorsqu'ils doivent préparer leurs travaux, en font un usage excessif.
Ces étudiants, souvent beaucoup plus préparés et habitués à l’utilisation de l’intelligence artificielle que leurs professeurs, oublient cependant que l’intelligence artificielle dite générative, au sens strict, n’est pas proprement « générative ». En réalité, il recherche des informations dans le big data et les prépare dans le style demandé. Il ne développe pas de nouveaux concepts ou analyses. Il répète ce qu'il trouve, lui donnant une forme attrayante. Et plus vous retrouvez une notion ou une hypothèse répétée, plus vous la considérez comme légitime et valable. Plus que « générative », on pourrait la qualifier de « renforçante », dans le sens où elle réorganise le contenu existant, contribuant ainsi à le consolider, souvent sans contrôler s'il contient des erreurs ou des préjugés.
De cette manière, on risque non seulement de légitimer la diffusion de fausses nouvelles et de renforcer l’avantage d’une culture dominante, mais aussi de saper le processus éducatif naissant ( in nuce ). L'éducation, qui devrait donner aux étudiants la possibilité d'une réflexion authentique, court le risque de se réduire à une répétition de notions, qui seront considérées comme de plus en plus incontestables, du seul fait qu'elles sont continuellement présentées [11] .
Remettre la dignité de la personne au centre en vue d'une proposition éthique partagée
À ce que nous avons déjà dit, s’ajoute une observation plus générale. L'ère d'innovation technologique que nous traversons s'accompagne en effet d'une situation sociale particulière et inédite, dans laquelle il est de plus en plus difficile de trouver des points de rencontre sur les grands enjeux de la vie sociale. Même dans les communautés caractérisées par une certaine continuité culturelle, des débats et des affrontements houleux se créent fréquemment qui rendent difficile la conclusion d'accords et de solutions politiques partagées, orientées vers la recherche de ce qui est bon et juste. Outre la complexité des visions légitimes qui caractérisent la famille humaine, émerge un facteur qui semble rapprocher ces différentes instances. Il y a une perte ou du moins un obscurcissement du sens de l'humanité et une apparente insignifiance du concept de dignité humaine [12] . Il semble que la valeur et le sens profond d’une des catégories fondamentales de l’Occident soient en train de se perdre : la catégorie de la personne humaine. Et c’est ainsi qu’à cette époque où les programmes d’intelligence artificielle remettent en question l’être humain et ses actions, c’est précisément la faiblesse de l’ éthos lié à la perception de la valeur et de la dignité de la personne humaine qui risque d’être le plus grand dommage. vulnus ) dans la mise en œuvre et le développement de ces systèmes. Il ne faut pas oublier qu'aucune innovation n'est neutre. La technologie naît avec un but et, dans son impact sur la société humaine, elle représente toujours une forme d'ordre dans les relations sociales et une fourniture de pouvoir, qui permet à quelqu'un d'accomplir certaines actions tout en empêchant d'autres de le faire. Cette dimension de pouvoir constitutive de la technologie inclut toujours, de manière plus ou moins explicite, la vision du monde de celui qui l'a créée ou développée.
Cela s’applique également aux programmes d’intelligence artificielle. Pour que ces instruments servent à la construction du bien et d’un avenir meilleur, ils doivent toujours être commandés pour le bien de chaque être humain. Ils doivent contenir une inspiration éthique.
La décision éthique, en effet, est celle qui prend en compte non seulement les résultats d’une action, mais aussi les valeurs en jeu et les devoirs qui en découlent. C’est pourquoi j’ai salué la signature à Rome, en 2020, de l’ Appel de Rome pour l’éthique de l’IA [13] et son soutien à cette forme de modération éthique des algorithmes et des programmes d’intelligence artificielle que j’ai appelé « algorithmique » [14] . Dans un contexte pluriel et global, où se manifestent également des sensibilités différentes et des hiérarchies plurielles dans les échelles de valeurs, il semblerait difficile de trouver une hiérarchie unique de valeurs. Mais dans l’analyse éthique, nous pouvons aussi recourir à d’autres types d’instruments. S’il nous est difficile de définir un ensemble unique de valeurs mondiales, nous pouvons trouver des principes communs permettant de faire face et de réduire d’éventuels dilemmes et conflits dans la vie.
C'est pour cette raison que l' Appel de Rome est né. Le terme « algorétique » condense une série de principes qui se révèlent comme une plateforme globale et plurielle capable de trouver le soutien des cultures, des religions, des organisations internationales et des grandes entreprises protagonistes de ce développement.
La politique nécessaire
On ne peut donc pas cacher le risque spécifique, car il est inhérent à son mécanisme fondamental, que l'intelligence artificielle limite la vision du monde à des réalités qui peuvent être exprimées en chiffres et enfermées dans des catégories préétablies, éliminant l'apport d'autres formes. de vérité et en imposant des modèles anthropologiques, socio-économiques et culturels uniformes. Le paradigme technologique incarné par l’intelligence artificielle risque de céder la place à un paradigme bien plus dangereux, que j’ai déjà identifié sous le nom de « paradigme technocratique » [15] . Nous ne pouvons pas permettre à un outil aussi puissant et indispensable que l’intelligence artificielle de renforcer un tel paradigme, mais nous devons plutôt faire de l’intelligence artificielle un rempart précisément contre son expansion.
Et c’est précisément ici que l’action politique est urgente, comme le rappelle l’encyclique Fratelli tutti . Certes, « pour beaucoup, la politique aujourd’hui est un gros mot, et on ne peut ignorer que derrière ce fait se cachent souvent les erreurs, la corruption et l’inefficacité de certains hommes politiques. À cela s’ajoutent des stratégies qui cherchent à l’affaiblir, à le remplacer par l’économie ou à le dominer par une certaine idéologie. Mais le monde peut-il fonctionner sans politique ? Peut-il y avoir une voie efficace vers la fraternité universelle et la paix sociale sans une bonne politique ? [16] .
Notre réponse à ces dernières questions est : non ! La politique sert ! Je veux réitérer à cette occasion que « face à tant de formes mesquines et immédiates de politique [...] , la grandeur politique se manifeste lorsque, dans les moments difficiles, on agit sur la base de grands principes et en pensant au bien commun dans le long terme. Il est très difficile pour le pouvoir politique d'assumer ce devoir dans un projet national et plus encore dans un projet commun pour l'humanité présente et future » [17] .
Chères dames, distingués messieurs :
Ma réflexion sur les effets de l’intelligence artificielle sur l’avenir de l’humanité nous amène ainsi à considérer l’importance d’une « politique saine » pour envisager notre avenir avec espoir et confiance. Comme je l'ai dit à une autre occasion, « la société mondiale présente de graves défauts structurels qui ne peuvent être résolus par des correctifs ou simplement par des solutions rapides et occasionnelles. Il y a des choses qui doivent être changées en repensant fondamentalement et en effectuant d’importantes transformations. Seule une politique saine pourrait la conduire, rassemblant les secteurs les plus divers et les savoirs les plus variés. De cette manière, une économie intégrée dans un projet politique, social, culturel et populaire qui recherche le bien commun peut « ouvrir la voie à différentes opportunités, qui n'impliquent pas d'arrêter la créativité humaine et son rêve de progrès, mais plutôt de diriger cette énergie à travers nouvelles chaînes.” "( Laudato si' , 191)" [18] .
C'est précisément le cas de l'intelligence artificielle. Il appartient à chacun d’en faire bon usage, et c’est à la politique de créer les conditions pour que ce bon usage soit possible et fructueux.
Merci.
[1] Message pour la 57e Journée mondiale de la paix (1er janvier 2024), 1.
[4] Cette ambivalence avait déjà été mise en garde par le pape Saint Paul VI dans son discours au personnel du « Centre d'automatisation d'analyse linguistique » de l'Aloisiano de Gallarate (19 juin 1964).
[5] Cf. A. Gehlen, L'uomo. La sua natura e il suo posto nel mondo , Milan 1983, 43.
[6] Lettre enc. Laudato si' sur le soin de la maison commune (24 mai 2015), 102-114.
[7] Cf. Message pour la 57e Journée mondiale de la paix (1er janvier 2024), 3.
[8] Les idées de Marshall McLuhan et John M. Culkin sont particulièrement pertinentes pour comprendre les conséquences de l’utilisation de l’intelligence artificielle.
[9] Cf. Discours aux participants à la plénière de l'Académie pontificale pour la vie (28 février 2020).
[10] Cf. Message pour la 57e Journée mondiale de la paix (1er janvier 2024), 4.
[12] Cf. Dicastère pour la doctrine de la foi, Déclaration Dignitas Infinite sur la dignité humaine (2 avril 2024).
[13] Cf. Discours aux participants à la plénière de l'Académie pontificale pour la vie (28 février 2020).
[14] Cf. Discours aux participants au Congrès « Promouvoir la dignité numérique des enfants – Du concept à l'action » (14 novembre 2019) ; Discours aux participants à la Plénière de l'Académie Pontificale pour la Vie (28 février 2020).
[15] Pour un exposé plus large, je renvoie à ma lettre encyclique Laudato si' sur le soin de notre maison commune (24 mai 2015).
[16] Lettre enc. Fratelli tutti sur la fraternité et l'amitié sociale (3 octobre 2020), 176.