Les réticences d’un pasteur sur l’intelligence artificielle

ÉthiqueTechnologie et médias

Cet article est un appel à ne pas être aveuglés par le buzz actuel lié à l’intelligence artificielle. Une réflexion chrétienne doit avoir lieu, qui s’intéresse aux implications de l’IA.

Je vois beaucoup d’enthousiasme concernant l’intelligence artificielle dans le milieu chrétien autour de moi, que ce soit auprès de mes amis ou de mes relations plus éloignées. L’IA est considérée comme un nouvel outil qu’il faut explorer pour nous aider dans notre tâche de comprendre et d’expliquer la Bible.

Il y a quelques mois, je publiais un article expliquant pourquoi j'étais un enthousiaste prudent par rapport à l'intelligence artificielle. Entre-temps, je suis devenu de plus en plus prudent et de moins en moins enthousiaste. J’explique pourquoi dans cet article.

Quelques qualifications avant de passer au contenu de l’article:

  1. Je ne vise pas à parler de l’IA en général, mais plutôt de son utilisation en relation avec la foi chrétienne, l’enseignement de la Bible et la réflexion théologique.
  2. Ces réflexions sont fraîches dans mon esprit, à la suite de différentes lectures et conversations récentes. Je les partage telles quelles ci-dessous, mais elles pourraient probablement être un peu plus structurées.
  3. Je vise simplement à partager le côté "négatif" de l’IA, car il ne me semble pas que ces éléments soient suffisamment présents dans nos conversations actuelles. Je ne dis pas pour autant que l’IA n’a que ce côté négatif.
  4. Je ne suis pas un expert de l’IA. Je suis juste un chrétien intéressé par la technologie.

Maintenant que je vous ai enlevé toute envie de lire cet article, lançons-nous!

Prendre en compte le résultat et le processus

J'ai l'impression que, dans nos réflexions liées à l'IA, nous nous intéressons surtout au résultat, au détriment du processus. Pourtant, les deux doivent être pris en compte. Je m'explique.

L'IA impressionne, car elle offre un résultat de qualité en un temps minimal. Avec quelques requêtes bien ciblées, nous pouvons obtenir le résumé d'un livre, un concept théologique expliqué, une difficulté biblique résolue, un paragraphe écrit à partir d'idées vagues que nous avions. Cependant, nous ne devrions pas simplement regarder à ce que nous gagnons en termes de temps ou en termes de résultat, mais aussi à ce que nous perdons en termes de processus.

Un article écrit par Jonathan M. Threlfall m'a aidé à saisir cela1. Il met en avant un principe, parmi d'autres, qui régit son utilisation de l'IA: “Je ne laisserai pas l'IA entraver le développement de mon caractère ou la joie d'être humain.” Certaines choses que nous faisons servent à développer qui nous sommes: notre caractère, nos compétences, notre manière de raisonner. Le résultat qui est produit n'est que la partie émergée de l'iceberg: le processus qu'il a fallu pour le produire est ce qui nous façonne.

Voici un exemple extrême pour illustrer cette distinction2. Partons du principe qu'il n'y ait aucun problème éthique pour un prédicateur à se servir de l'IA pour produire intégralement ses prédications (ce ne serait certainement pas une bonne chose, mais c'est un autre sujet). En se reposant sur l'intelligence artificielle chaque semaine pour préparer ses prédications, le prédicateur gagnerait certainement en efficacité. Que de temps gagné! Supposons également que le résultat final produit par l'IA soit de qualité égale à ce qu'un prédicateur humain pourrait produire (ce n’est pas possible, mais c'est aussi le sujet d'une autre réflexion). Même si le résultat était le même, il faut comprendre qu'en termes de processus, la différence serait énorme. Le prédicateur perdrait les heures passées dans la méditation du texte biblique, dont Dieu se sert pour le façonner dans ses convictions et dans son caractère. Un prédicateur qui agirait ainsi se priverait d'un processus qui ne sert pas simplement à produire un résultat, mais aussi à le façonner, lui.

Il faut comprendre que les tâches que nous accomplissons le sont dans le cadre d'un processus. Ce processus nous façonne et fait de nous qui nous sommes. Dans certains cas, il est possible de raccourcir ce processus, grâce à la technologie, sans rien perdre de très conséquent. Cependant, à d'autres reprises, la perte de ce processus a plus de conséquences.

Distinguer entre luttes frustrantes et luttes productives

C’est le rôle de toute technologie de réduire le processus d’une tâche, d’atténuer le côté "laborieux" du travail. Ce n’est pas mauvais en soi. Mais il ne faut pas pour autant accepter les yeux fermés toute technologie qui nous faciliterait la vie.

Pour savoir quelles technologies adopter et quelles technologies rejeter, Jeffrey Bilbro nous invite à distinguer entre une lutte productive (productive struggle) et une lutte frustrante (frustrating struggle). Il écrit:

Les technologies qui réduisent la lutte frustrante peuvent rendre nos efforts plus productifs et accroître notre capacité à faire du bon travail, tandis que les technologies qui éliminent la lutte productive diminuent nos capacités et nous empêchent de devenir le genre de personnes capables d'exercer notre liberté de manière responsable et rédemptrice3.

Je trouve cette distinction particulièrement utile. Ce n’est pas qu’elle soit simple à appliquer, mais elle nous aide à bien réfléchir. Toute utilisation de l’IA ne se vaut pas. Lorsque j’utilise ChatGPT pour mettre en forme une liste de données, j’utilise la technologie pour m’aider à réduire un processus laborieux. La perte du caractère "laborieux" de la tâche a un impact positif sur moi, en m’aidant à être plus productif.

En revanche, d’autres utilisations éliminent la lutte productive qui a pour but de nous façonner. C'est le cas, par exemple, lorsque nous transformons la lecture lente et réfléchie d'un livre en un simple résumé de ses points essentiels fourni par l'IA. Ou lorsque nous demandons à l'IA un résumé d'un concept théologique. Je ne dis pas qu’une telle utilisation n'a jamais sa place, mais plutôt que, quand nous utilisons l’intelligence artificielle ainsi, il y a une perte dont nous devons être conscients. Se priver d'un tel processus une ou deux fois n'a pas beaucoup de conséquences, mais sur l'échelle d'une vie, les conséquences peuvent être énormes.

L'efficacité n'est pas ce qui compte le plus

Dans le même ordre d'idée, j'ai l'impression que l'enthousiasme lié à l'IA vient d'une emphase trop importante sur l'efficacité ou la productivité. Il est bon de vouloir optimiser notre gestion du temps pour la gloire de Dieu. Je suis personnellement fan de tout ce qui touche aux questions de productivité. Le temps est précieux et nous avons, à l'époque où nous vivons, beaucoup d'outils qui nous rendent plus efficaces.

Cependant, nous devons être conscients que l'efficacité ne peut pas être poursuivie à n'importe quel prix. Nous devrions nous demander: en poursuivant l'efficacité, que perdons-nous en route? Est-ce que le gain de temps justifie la perte de ce que ces minutes ou ces heures de travail m'auraient apporté?

Là encore, les conséquences à court terme peuvent paraître négligeables, mais sur l'échelle de toute une vie, c'est différent. On peut donc se demander: si j'utilisais l'IA toute ma vie pour cette tâche, est-ce que cela m'amènerait à ne pas développer des compétences que je devrais avoir? Est-ce que cela m'amènerait à être moins ce que je devrais être, selon les responsabilités que Dieu m'a confiées?

Évaluer l’intelligence artificielle "les yeux grands ouverts"

Je ne nie pas que l'IA apporte quelque chose de positif. Cependant, au risque de paraître simpliste, nous devons comprendre que la fin ne justifie pas les moyens.

Dans ce cadre, Newport déplore le fait qu'il semble aujourd'hui que seulement deux options sont possibles concernant la technologie. D'un côté, il y a le techno-optimisme, où l'on accepte systématiquement toutes les nouvelles inventions qui nous sont présentées. De l'autre côté, il y a le techno-scepticisme, où l'on refuse toute invention qui viendrait changer nos habitudes. Le danger du techno-optimisme est de ne pas voir les problèmes qui seraient inhérents à certaines technologies. Le danger du techno-scepticisme est de se priver inutilement de l'évolution technologique et de décourager ceux qui travaillent à son développement.

Par son article, Newport veut offrir une alternative: le techno-sélectionnisme. Voilà comment Newport le définit:

Il s'agit d'une perspective qui accepte l'idée que les innovations peuvent améliorer considérablement nos vies, mais qui considère également que nous pouvons construire de nouvelles choses sans avoir à accepter chaque invention populaire comme inévitable.

Ce techno-sélectionnisme ne s'oppose pas à l'innovation. Il reçoit l'innovation avec reconnaissance et encourage les innovations technologiques. Mais il fait cela avec clairvoyance sur les risques qui peuvent être associés à la technologie. Comme Newport l'écrit:

Les techno-sélectionnistes pensent que nous devrions continuer à encourager et à récompenser les personnes qui explorent l'avenir. Mais ils savent aussi que certaines expériences finissent par causer plus de mal que de bien.

Selon la mentalité technopoly, où la technologie est au contrôle, le fait que la technologie apporte quelque chose de positif est suffisant pour justifier son utilisation, même si certaines conséquences sont négatives. Le techno-sélectionnisme contraste avec cette attitude, disant qu'il est possible, et même nécessaire, de résister aux mauvaises conséquences de la technologie, en étant intentionnel dans ce que l'on accepte et ce que l'on rejette. Newport continue:

La mentalité technopoly veut que nous acceptions les effets positifs des nouveaux outils en même temps que les effets négatifs, en espérant qu'avec le temps, les effets positifs l'emporteront sur les effets négatifs. Cet optimisme peut s'avérer justifié, mais les techno-sélectionnistes pensent que nous pouvons faire mieux. Si nous repoussons agressivement les technologies qui causent clairement un dommage manifeste, tout en continuant à adopter celles qui semblent plus bénéfiques, nous pourrons orienter notre évolution techno-sociale de manière beaucoup plus intentionnelle.

Newport souligne à quel point cette mentalité est à contre-courant dans une ère technopoly, où c'est la technologie qui est au pouvoir. Il est mal vu de s'opposer aux inventions technologiques, de pointer les défauts de la technologie ou d'en encourager une utilisation raisonnée. Newport conclut:

Des décennies de vie dans un monde technopoly nous ont appris à avoir honte de proposer de prendre du recul par rapport à ce qui se fait de plus innovant.

Nous ne devrions pas accepter la technologie les yeux fermés. C’est en grande partie ce qui explique ma réticence vis-à-vis de l’IA. Il est encore trop tôt pour savoir quelles sont les conséquences de l'intelligence artificielle sur notre société, sur notre comportement, sur nos relations6.

On sait peut-être ce que l’IA peut nous faire gagner, mais on ne sait pas encore ce que l’IA peut nous faire perdre. Comme toute technologie, l’intelligence artificielle aura des conséquences. Il y a un coût que nous payons en utilisant la technologie. Nous commençons tout juste à prendre conscience, en tant que société, des effets destructeurs des réseaux sociaux et des écrans. Est-ce que cela ne devrait pas nous amener à plus de prudence? Ne nous jetons pas sur l’IA pour le regretter plus tard.

Il ne s’agit pas de mettre l’IA, ou toute autre future technologie, à la poubelle. Mais il s’agit de l’évaluer de manière raisonnée, sans être aveuglé par l’éclat que la technologie peut avoir lorsqu’elle est toute nouvelle. Dans son article, Newport cite Neil Postman, qui disait:

Une fois qu'une technologie est admise, elle joue son rôle: elle fait ce pour quoi elle a été conçue.

Cela veut dire que:

Notre tâche est de comprendre quelle est cette intention, ce rôle. Lorsque nous admettons une nouvelle technologie dans la culture, nous devons le faire avec les yeux grands ouverts.

Quelques domaines de réflexion concernant l’intelligence artificielle

Je termine cet article en mentionnant différents points sur lesquels nous devrions réfléchir, en tant que chrétiens, afin de pouvoir évaluer l’IA "les yeux grands ouverts". Il y en aurait probablement d’autres à mentionner. Je ne vise pas une liste exhaustive, mais plutôt à rediriger les principes mis en avant dans cet article vers des pistes de réflexion.

Quel type d'utilisation?

L'intelligence artificielle peut être utilisée de différentes manières. En ce qui concerne le domaine qui m'est propre (en tant que pasteur et étudiant en théologie), je distingue deux utilisations principales: l'utilisation de l'IA comme un moteur de recherche et l'utilisation de l'IA pour générer du contenu. Dans le premier cas, l'IA peut être assez facilement comparée à Google ou tout autre moteur de recherche, en étant bien plus puissante et bien plus efficace. L’utilisation "moteur de recherche" me semble atténuer une lutte frustrante et donc valoir la peine7. L’utilisation "générer du contenu" me semble viser à atténuer une lutte productive: je suis réticent à m’y aventurer sans des barrières clairement définies.

Quel besoin?

Il faut distinguer quel type de tâche nous accomplissons afin de pouvoir définir si notre utilisation de l’IA est appropriée ou non. Par exemple, si j’ai besoin d’une information rapide sur un théologien du passé ou d’un résumé d’un concept théologique pour me servir de rappel de ses points essentiels, je crois que l’IA peut être un outil utile et adapté. Cependant, si je cherche à faire une recherche approfondie sur ce théologien ou à creuser ce concept théologique, je ne me tournerai pas vers l’intelligence artificielle. Non seulement parce que l’IA n’est pas une source fiable et qu’il faudrait se tourner vers des ressources qui ont plus de crédit, mais aussi parce que je veux passer du temps à lire, réfléchir et méditer: je ne vise pas simplement le résultat, mais aussi le processus.

Quand franchit-on une ligne éthique?

Il y a une limite entre une utilisation saine de l’IA et une utilisation qui franchit des lignes éthiques. Ce n’est pas évident de savoir où placer la ligne, mais cela ne devrait pas nous empêcher de dire que cette ligne existe. Par exemple, grâce à l’IA, nous pouvons assez facilement connaître beaucoup de choses sur un sujet (en tout cas en surface) et paraître experts sur un sujet que nous ne maîtrisons finalement pas (car nous avons mis le processus qui mène au résultat de côté). Est-ce que cela est vraiment juste?

Conclusion: que perdons-nous?

Ce ne sont que quelques réflexions embryonnaires, qui mériteraient d’être développées. J’espère que cela contribue à nos réflexions sur ce à quoi ressemble une utilisation chrétienne de l’IA, dans les domaines qui touchent à la révélation de Dieu et à la formulation de sa vérité. Peu importe notre position, nous devons affirmer qu’il faut que cette réflexion ait lieu.

Il y a un bon instinct qui nous pousse à vouloir faire connaître le message de la Bible au plus de monde possible. Nous voyons peut-être l’IA comme un moyen d’accélérer cela ou de rendre ce partage plus efficace. J’ai personnellement l’impression que l’on ne perdrait pas grand-chose si l’on n’était pas les premiers à se jeter sur l’IA. Les risques sont trop grands. Laissons le temps juger les choses. Cela ne nous empêche pas de faire ce que nous sommes appelés à faire.



Benjamin Eggen

Benjamin est marié à Jessica, papa d'une petite fille, et pasteur-adjoint de l’Église Protestante Évangélique de Bruxelles-Woluwe. Il a fait ses études à l’Institut Biblique de Bruxelles, où il enseigne ponctuellement. Il est l’auteur de plusieurs livres, dont Soif de plus? et Qu’est-ce que tu crois?. Vous pouvez le suivre sur sa chaîne YouTube.

Ressources similaires