La parole des chercheurs

L'intelligence ne sera jamais artificielle - Entretien avec Jean-Gabriel Ganascia

Propos recueillis par Arthur Habib-Rubinstein
Rédacteur pour Page Éduc'

Que faire de l’I.A. dans nos classes ? Traquer son usage par les élèves ? L’intégrer à des séquences pédagogiques ? En faire un objet de débat ? Jean-Gabriel Ganascia, un des plus grands spécialistes européens du sujet propose quelques pistes de réflexion. Lors de cet entretien, il a également fait une courte histoire de l’intelligence artificielle afin de dissiper un certain nombre de malentendus. Cette ressource précieuse et exigeante est disponible à la fin de l’entretien. 

 

Jean-Gabriel Ganascia, vous êtes Professeur à la faculté des sciences de Sorbonne Université et avez été Président du comité d’éthique du CNRS entre 2016 et 2021. Vous êtes actuellement président du comité d’éthique de France travail. Vos travaux portent sur l’intelligence artificielle, que vous étudiez depuis 1979, en adoptant à la fois un point de vue technique et philosophique. Ces dernières années, vous menez également une action de pédagogie sur ce sujet qui fait l’objet de nombreux fantasmes. Vous dénoncez notamment, dans Le Mythe de la singularité (Le Seuil, 2017), l’obsession médiatique pour la conscience des robots et la crainte qu’ils se retournent contre leur créateur, crainte qui, selon vous, sert à dissimuler des menaces beaucoup plus concrètes et sérieuses comme l’usage des données personnelles ou la prise de pouvoir des “titans du web”. Votre dernier livre, L’I.A. expliquée aux humains (Le Seuil, 2024), met en scène des collégiens qui vous posent des questions sur l’intelligence artificielle. Dans ce contexte, nous voulions vous interroger sur les moyens d’enseigner l’intelligence artificielle aux adultes et aux enfants (aux humains !) mais également sur les conséquences de l’I.A. en matière éducative.    

 

L’I.A. expliquée aux humains commence par une mise en scène drôle et parlante : les quatre collégiens venus vous interroger vous posent des questions remarquablement précises et, quand vous les félicitez et leur demandez qui a rédigé quelle question, ils vous avouent, honteux, qu’ils les ont conçues avec l’aide de l’intelligence artificielle. Ces élèves qui sont venus vous interroger volontairement, qui ont passé du temps à préparer leurs questions, certes en utilisant l’IA, ont-ils raison d’avoir eu honte ? Ont-ils triché ?  Qu’est-ce que cela dit selon vous du rapport moral entre savoir et nouvelles technologies ? 

Jean-Gabriel Ganascia - C’est une question à laquelle je ne répondrai bien sûr pas directement. Ils devaient préparer les questions, les questions étaient bonnes mais je voulais savoir qui avait posé quelle question. Pourquoi ? Le journal du collège Raymond Queneau pour lequel ils m’interrogeaient s’appelait Les Querelles de Queneau et la professeure de lettres m’avait expliqué que ce nom renvoyait à la ligne éditoriale du journal : on ne gomme pas les différences de points de vue. Or, quand je leur ai demandé qui portait la paternité de telle ou telle question, ils ont été gênés et n’ont pas su me répondre, jusqu’à avouer avoir utilisé Chat GPT. Ont-ils eu raison d’avoir honte ? Peut-être pas. En revanche, ils étaient gênés, à raison, de ce qu’après avoir utilisé un agent conversationnel, leurs questions étaient devenues impersonnelles et qu’ils étaient incapables d’en faire la généalogie. L’usage de Chat GPT leur avait fait trahir l’esprit du journal pour lequel ils m’interrogeaient !

Normalement, la parole est une émanation de sa personne. L’écrit est, d’une certaine façon, la transcription d’une parole, même s’il y a toujours une distance. L’écrit est à la fois l’expression de la personne, de l’individu, mais, au-delà, c’est également ce qui lui permet de réfléchir. Le moment de l’écriture est un moment où la pensée travaille. Écrire n’est jamais un geste simple ou spontané. Le risque avec ces outils est que les élèves ne fassent plus l’apprentissage de l’exercice de l’écriture. Ce n’est pas l’usage de la machine qui pose problème, c’est qu’ils n’ont pas fait l’effort qui porte en lui-même une forme d’apprentissage. 

Dit autrement, juste après le début de Chat GPT, un certain nombre d’institutions d’enseignement supérieurs ont jugé cette invention scandaleuse de peur que les élèves trichent. Je pense que ce n’est pas tout à fait le problème : la triche est notre échec à nous, les éducateurs. On a fait en sorte que l’enseignement supérieur ne soit vu par les étudiants que comme une machine à délivrer des diplômes. La note et le diplôme deviennent les rétributions, le fruit de l’échange entre l’étudiant et l’institution. Mais, en principe, on devrait s'inscrire dans un établissement d’enseignement supérieur ou dans une école pour apprendre et non pour un bout de papier, fut-il estampillé ! Je crains que les élèves se trouvent dans une situation délicate : comme ils ont besoin d’obtenir un diplôme, ils utilisent tout ce qui est à leur disposition pour l’obtenir. Il faut que les élèves comprennent que ces années qu’ils passent à l’école sont d'abord pour eux, pas pour un certificat ! C’est un enjeu urgent. Au lycée, la question est extrêmement délicate : avec Parcoursup, les lycéens doivent absolument obtenir de bonnes notes tout au long de leur carrière scolaire pour entrer dans les institutions qui correspondent à leurs désirs. Chaque examen devient donc un enjeu majeur alors que ce qui devrait compter c’est la connaissance qu’ils ont acquise à la fin de leur parcours. La mauvaise note a une vertu pédagogique, elle indique à l’élève où il en est ! Il ne faut plus qu’elle ait ce caractère de sanction mais qu’elle serve d’indicateur pour l’élève lui-même. J’avais proposé, lors d’une conférence organisée à la Sorbonne par les Académies d’Île-de-France, de remettre en vigueur un examen qui a existé il y a très longtemps et qui permettait d’orienter les élèves après le lycée … le Baccalauréat !

 

Je prolonge ma question précédente en me plaçant cette fois-ci de l’autre côté de la salle de classe. Que faire, en tant qu’enseignant, de l’usage que font et feront les élèves de l’intelligence artificielle ? Doit-on le prohiber, l’orienter, apprendre à l’utiliser en classe ? En bref, quelle éthique du savoir doit-on transmettre dans un monde doté de l’intelligence artificielle ? Le choc est-il si différent de celui provoqué par l’essor des moteurs de recherche et des encyclopédies en ligne ?

J-G.G. - Je pense que le choc est certainement du même ordre : le début du Web a constitué une très grande évolution : tout le savoir du monde était d’un coup à notre disposition. Toutefois avec les LLM (Large Language Models, cf. encadré)comme Chat GPT, des problème spécifiques se posent. 

Le premier est qu'on les utilise comme source de savoir alors qu’ils ne sont pas faits pour ça. Chat GPT et les agents similaires sont des modèles de langage qui ont été conçus pour extraire l’esprit des langues et, entre autres, générer du texte. Mais le contenu de ce texte n’a pas à être vrai, simplement vraisemblable, il est composé de lieux communs, sans références. Or, ce qu’on doit enseigner, c’est de citer et d’avoir une démarche rigoureuse, étayée par des sources. C’est un problème pour les élèves mais aussi pour les enseignants, puisque de plus en plus, des collègues pressés par le temps utilisent ces outils. Ça ne touche évidemment pas que le corps enseignant : j’étais récemment dans une ambassade et le discours de l’ambassadeur, extrêmement long, était visiblement inspiré par ces moteurs de langue. Il énonçait beaucoup de lieux communs, plus ou moins vrais, et surtout, là où on aurait pu espérer une personnalité subtile ou un trait d’esprit, on se retrouvait avec un discours impersonnel, plat, interminable et… vraisemblable !

 

PageÉduc’ est un média en ligne à destination des enseignants qui se focalise notamment sur le rôle de la littérature de jeunesse dans l’éducation. L’apprentissage de la langue et de son usage est-il menacé par l’essor des agents conversationnels qui peuvent rédiger à la place des élèves ? En tant qu’enseignant, comment en tenir compte ?

J-G.G. - Je le disais plus haut, et c’est mon deuxième point, l’apprentissage de l’écriture est essentiel. C’est un exercice difficile qui prend du temps. Par conséquent, lorsqu’on nous présente des outils qui peuvent le faire à notre place, on est tenté de s’affranchir de l’effort. Ce qui m’inquiète, c’est le risque que le monde devienne de plus en plus inégalitaire. C’est malheureusement ce qui s’est produit dans l’histoire du numérique. Lorsqu’on a commencé, j’étais très enthousiaste : pour la première fois dans l’histoire de l’humanité, toute la connaissance était mise à disposition de tout le monde. Cela nous parait évident aujourd’hui mais, pendant des siècles, l’accès aux livres et à la connaissance était extrêmement couteux. Le numérique aurait du conduire à un grand mouvement de démocratisation de la connaissance et la culture. Pourtant, c’est l’inverse qui s’est produit : l’attention est monopolisée par tout un tas de distractions et la capacité à se concentrer est aujourd’hui distribuée de manière extrêmement inégalitaire. Là, les pédagogues ont un rôle central à jouer dans le futur. Si le numérique est présent à la maison, seule l’école est capable de fournir un moment d’isolement pour que les élèves s’astreignent à travailler seuls. Au fond, on peut dire qu’il faut retourner aux origines de l’université en Occident, aux monastères et à l'isolement qu'ils procuraient !

Blague à part, je ne fais que défendre une très vieille idée : apprendre à penser par soi-même, apprendre à être autonome. Au fond, tricher ou s’aider d’une machine, ce n’est pas si grave tant qu’on en a conscience et qu’on a fait l’effort de l’apprentissage de l’écriture et de la pensée. 

Va pour le retour à l’abbaye ! Dans l’introduction de Servitudes virtuelles (Le Seuil, 2020), vous écrivez « le numérique s’insinue partout dans nos relations mondaines, il les fait et les défait par le truchement des réseaux sociaux, il contribue à l’établissement de liens avec nos semblables et, par là, à la fabrique du tissu social. Personne n’y échappe vraiment. Il en résulte une évolution des habitudes de vie en société et des mœurs. Cela rend nécessaire et urgente une réflexion sur les conséquences morales, sociales et politiques des technologies de l’information et de la communication ». Quel rôle doit jouer l’école et l’enseignement vis-à-vis de cette réflexion ? L’introduction et la formation au numérique ont été des jalons de la politique éducative de ces dix dernières années mais sa critique ou l’étude de ses usages, particuliers mais aussi collectifs, beaucoup moins. Est-ce, selon vous, une bonne chose ? Faut-il préserver du numérique à l’école ? Former à ses usages professionnels comme on a eu tendance à le faire ? Dédier du temps à la réflexion autour des usages et des risques ? 

J-G.G. -C’est une question très vaste. Il y a très longtemps, quand j’ai passé ma thèse, mon directeur m’a branché, si je puis dire, sur un projet qui concernait l’éducation. C’était en 1983, un peu avant le Macintosh, et on développait déjà les premières techniques d’enseignement assisté par ordinateur. Les pouvoirs publics pensaient qu’avec ces machines, on serait en mesure de supprimer les professeurs et les remplacer par des machines ! C’est une tentation malheureusement récurrente chez les politiques. Or, je crois que c’est l’inverse qui se produit. On entre dans des sociétés de la connaissance : pendant des siècles, la valeur et la destinée d’un individu dépendaient de variables sociales et matérielles (famille, propriété, etc.) Aujourd’hui, elles dépendent beaucoup des études qu’il a faites et de sa capacité à les valoriser. Il y a eu à Lisbonne, au début des années 2000, une réunion des chefs d’États européens qui concluait que l’Europe deviendrait pionnière de cette nouvelle société de la connaissance. C’est assez drôle d’en parler vingt-cinq ans plus tard : on a plutôt régressé et les sociétés asiatiques s’en sont bien mieux sorties que les nôtres. 

Que faut-il faire à l’école ? On ne peut évidemment pas nier la réalité du numérique mais il n’y a pas d’éducation particulière à apporter sur les usages puisqu’on est toutes et tous plongés dans une société numérique. En revanche, il faut absolument clarifier les concepts et les notions autour du numérique. C’est ce que j’essaie de faire dans mon petit livre. Je réalise par exemple que peu, même parmi ceux qui interviennent publiquement, connaissent l’étymologie du mot « algorithme ». Beaucoup pensent que c’est un mot grec alors que c’est un mot arabe qui vient d’un mathématicien persan ! Il faut que chacune et chacun acquière une culture générale numérique qui s’inscrive dans une éducation « classique » si je puis dire, centrée autour d’un certain nombre d’apprentissages, en particulier celui de l’écriture. 

Je ne vois pas de rupture, au contraire : on a plus que jamais besoin d’une formation de l’esprit. Pour donner un exemple, prenons l’histoire de la presse. La presse émerge au XVIe siècle et l’éthique du journalisme naît à ce moment-là, afin d’éliminer les faux bruits. C’est à peu près ce qu’il faut faire avec le numérique : former les élèves très tôt à l’analyse critique et à l’éthique du numérique. Qu’ils sachent par exemple qu’ils ne peuvent pas diffuser n’importe quoi. Il faut une véritable éducation aux humanités numériques. 

 

Vous avez publié un roman adulte sur l’intelligence artificielle, Ce matin, Maman a été téléchargée ? (Buchet Chastel, 2019). Avez-vous des fictions à recommander pour aborder cette question en classe ? 

J-G.G. - Je n’ai pas tellement de recommandations précises. La fiction est un bon angle pour aborder cette réalité un peu étrange dans laquelle nous évoluons. Il y a un imaginaire très présent qui demande à être compris car beaucoup de projets réalisés par de grands acteurs du numérique font immédiatement référence à des œuvres de science-fiction. On peut penser à Elon Musk lorsqu’il veut aller sur Mars ou au projet de l’entreprise Neuralink de greffer des puces pour connecter des cerveaux. Très souvent, les financiers de la science demandent qu’on les fasse rêver avec des références imaginaires. N’oublions pas qu’il y a, aux États-Unis, une très grande culture de science-fiction chez les élèves mais également chez les chercheurs. Marvin Minsky, un des fondateurs de l’intelligence artificielle, se vantait de connaître tous les grands auteurs de science-fiction de sa génération, a coécrit un roman de science-fiction et lisait les nouvelles écrites par ses élèves au MIT. Plutôt qu'une recommandation particulière, je donnerai plutôt une clé de lecture : le mythos, l’imaginaire, ne doit pas être confondu avec le logos, le discours rationnel. Le danger de ces dernières années est que de nombreux acteurs du numérique nous ont laissé entendre que les inquiétudes qui venaient de la fiction étaient en train de se réaliser, et en particulier qu’on construisait des machines conscientes. Il n’y a aucun élément scientifique qui permet d’étayer ce type de projections dans le futur.

 

 

Des années 50 à Chat GPT

Courte histoire de l’intelligence artificielle et présentation des principaux concepts

 

D’abord, dissipons un premier malentendu : il n’y a pas « une » ou « des » intelligences artificielles. Si l’on employait l’article indéfini, cela voudrait dire qu’il y aurait un objet qui incarnerait l’intelligence. Or, il s’agit d’une discipline scientifique et il n’y en a donc qu’une : l’intelligence artificielle. C’est est une notion introduite en 1956 par des scientifiques qui pensaient simplement qu’on pouvait étudier l’intelligence avec des machines. 

 

Commençons par le début : qu’est-ce que l’intelligence ? Le terme est polysémique et prête à confusion. L’intelligence peut signifier l’esprit, c’est la définition des philosophes du XVIIe, peu utilisée de nos jours, ce peut être l’ingéniosité et c’est en ce sens que le Q.I. est une mesure de l’intelligence, mesure d’ailleurs fort discutée d’un point de vue scientifique car on sait qu’il n’y a pas de corrélation entre les facultés cognitives. Un élève bon en maths ne l’est pas forcément en thème et vice-versa ! Il y a une troisième notion, introduite à la fin du XIXe siècle par des philosophes d’orientation positiviste qui voulaient naturaliser, c’est-à-dire traiter comme des phénomènes physiques, les problématiques philosophiques, en particulier l’étude de l’esprit. Ils ont mis sous le terme « intelligence » l’ensemble des facultés mentales. En France, un grand philosophe dont peu se souviennent aujourd’hui, Hyppolite Taine, a écrit un immense Traité de l’intelligence en deux tomes qui explore ces facultés mentales avec des méthodes issues des sciences physiques. Quelles sont ces facultés mentales ? La perception, le raisonnement, la mémoire, la communication, etc. 

 

Ce qui importe est que cette dernière acception du terme d’intelligence a été reprise par des scientifiques en 1955 avec l’idée qu’on pouvait simuler les facultés grâce à l’ordinateur électronique, dont le premier est réalisé en 1946. C’est la mise en œuvre de cette idée qui débouche sur la naissance de l’intelligence artificielle comme discipline : il y a donc une continuité entre une tradition philosophique, une avancée scientifique et les innovations technologiques qui en dérivent. Ces chercheurs américains étaient pragmatiques : leur idée était qu’une meilleure connaissance des facultés psychologiques pouvait, comme la physique, avoir des applications pratiques bénéfiques. J’insiste sur la dualité entre l’aspect scientifique et l’aspect technologique car je crois qu’aujourd’hui, on ne souvient souvent que du second. 

Quelque temps après, on a introduit une autre notion, celle d’agent, pour désigner une  identité technologique capable de prendre une information, l’interpréter et ensuite agir. C’est un terme issu de l’économie, un des pionniers de l’intelligence artificielle est d’ailleurs Herbert Simon, par ailleurs Prix Nobel d’Économie. Quand on parle « d’une » intelligence artificielle, ce qu’on désigne en réalité c’est un agent. Ce qui est important avec ces petites subtilités de scientifiques, c’est qu’elles montrent bien qu’il n’y a pas d’incarnation de l’intelligence au sens de l’esprit dans une entité technologique. L’intelligence artificielle permet de coder des agents qui exécutent de manière autonome certaines missions, mais ces agents ne sont pas pour autant des intelligences artificielles. 

On fabrique des agents avec des techniques d’intelligence artificielle depuis les années 1950. Le premier à développer les techniques d’apprentissage machine, c’est Arthur Samuel en 1959 pour améliorer un programme qui jouait aux Checkers, une variante du jeu de dames. Ces techniques d’apprentissage sont encore utilisées aujourd’hui. L’histoire de l’intelligence artificielle est donc relativement ancienne ! Ces techniques ont connu beaucoup d’évolution bien sûr, dans tous les sens : il y a des périodes d’enthousiasme et d’autres de déception, qui forment une histoire relativement cyclique. Je dis souvent que le temps de l’intelligence artificielle est un temps tressé. En particulier, une technique a connu beaucoup de redécouvertes, la technique des réseaux de neurones formels. Née en 1943, avant donc l’intelligence artificielle, elle consiste à simuler sur des machines ce que l’on sait de la structure fine du cerveau et en particulier les connexions plastiques neuronales qui jouent un rôle central dans l’apprentissage. On a modélisé ces connexions dès 1943 en utilisant des automates à seuil pour les neurones et des résistances électriques pour les connexions synaptiques mais sans savoir les programmer. Ce qui a conduit un certain nombre de chercheurs à vouloir utiliser l’ordinateur, développé en 1946, pour apprendre à établir les connectivités. C’était très difficile et les chercheurs s’y sont cassé les dents. Marvin Minsky, un des pionniers de l’intelligence artificielle a d’ailleurs fait sa thèse sur l'établissement automatique de ces connexions à partir d'exemples.

Une solution est trouvée en 1958 : un scientifique imagine un algorithme qui permet de faire fonctionner ce qu’on appelle un réseau de neurones à deux couches, avec une couche d’entrée et une couche de sortie. Cet algorithme ne permettait de réaliser que des fonctions logiques élémentaires et butait sur des fonctions encore assez triviales, comme le ou exclusif. Confrontés à cette difficulté, on abandonne le chantier des techniques de réseaux de neurones formels pendant très longtemps. Il faut attendre 1986 pour qu’un physicien, Geoffroy Hinton, en utilisant des méthodes de la physique statistique, puisse étudier la dynamique des réseaux de neurones formels. C’est ce qui a donné naissance aux premiers algorithmes d’apprentissage sur des réseaux de neurones formels à plus de deux couches. Geoffroy Hinton a d’ailleurs reçu le Prix Nobel de physique en 2024. Après 1986 donc, nouvelle phase d’enthousiasme mais nouvelle difficulté : les machines étaient trop lentes pour ces techniques. En 1992, plus personne ne cherche à développer ces techniques, à l’exception d’un breton, Yann Le Cun, aujourd’hui directeur scientifique de l’I.A. de Méta, qui a réussi à faire fonctionner ces algorithmes sur des réseaux de neurones à quinze couches. C’est ce qu’on a appelé l’apprentissage profond. C’est grâce à l’apprentissage profond qu’un agent a pu l’emporter sur le meilleur joueur du Jeu de Go et que les techniques de réseaux de neurones formels ont eu tant d’applications. 

En effet, l’apprentissage profond a permis de développer la génération automatique d’images et les fameux LLM dont fait partie Chat GPT et sur lesquels vous m’interrogiez. Qu’est-ce qu’un LLM ? C’est un réseau de neurones formels complexe qui peut se passer du pilotage d’un humain : au lieu d’avoir quelqu’un qui nourrit d’exemples l’agent pour le faire progresser, ce qui est très long et très fastidieux, on utilise une technique qu’on appelle l’auto-encodage : à partir d’une phrase, on ajuste les coefficients du réseau de neurones pour qu'il retrouve le même texte à la sortie. Vous allez me dire pourquoi ? L’enjeu est que le réseau de neurones apprenne quel est le mot le plus probable qui vient après une série d'autres, et ainsi de suite, ce qui permet la génération automatique des textes intelligibles. L’architecture pour concevoir ces réseaux de neurones formels a été imaginée par les ingénieurs de Google dès 2017. Elle recourt à ce qu'on a appellé des Transformers. Google construit son agent, BERT, en 2019. L’année suivante, OpenIA, une petite société, utilise le même principe pour faire GPT. Ces modèles étaient là pour améliorer les techniques de traitement automatique du langage naturel, autrement dit le résumé, les systèmes questions-réponses et la génération de textes. À l’époque, il ne s’agissait que d’outils de laboratoire. Mais en juin 2022, un ingénieur de chez Google, Blake Lemoine, dit qu’il a des discussions très profondes avec cette machine et qu’elle a une âme. Qu’a-t-il fait ? Il a, à partir du modèle de langage, développé un chatbot, ou agent conversationnel. Le principe est très simple : on injecte une phrase et en réponse, un texte est généré. Blake Lemoine n’a fait que coder une petite interface avec qui il discute et, sur cette base, fait cette déclaration à la presse. Google s’inquiète, le vire et abandonne le sujet. La petite société OpenIA y voit une opportunité et reprend cette idée : c’est la naissance de Chat GPT. La spécificité de Chat GPT est qu’Open IA, pour éviter les obscénités, a modélisé les savoirs des modérateurs afin de censurer les textes générés injurieux ou insultants. Ils l’ouvrent au grand public à la fin novembre 2022. C’est une explosion : tout le monde peut, depuis son téléphone portable, sentir ce qu’est la génération de texte. 

D’AUTRES SUJETS QUI POURRAIENT VOUS PLAIRE

La parole des chercheurs

Amitiés d’enfance et de jeunesse

Sylvie Servoise Professeure de littérature à l’université du Mans

À l’occasion de la parution de l’ouvrage collectif Amitiés d’enfance (Éditions Raison Publique, 2025), Sylvie Servoise, qui a coordonné le livre…

Lire la suite
Les petites histoires de l'éducation

École Monge : une pédagogie révolutionnaire... en 1885 !

Charles Defodon (1832-1891) Pédagogue français

Le Manuel Général de l’instruction primaire, fondé à l’instigation de François Gizot en 1832, a été, tout au long du XIXe siècle et pendant la première…

Lire la suite