Aller au contenu

L’IA, intelligente ou pas ? Ce n’est pas le problème.

L'IA ne comprend rien, c'est un perroquet. Vraiment ?

Les critiques de l’IA mettant en doute son intelligence réelle ont souvent recours à une image : l’IA ne serait qu’un perroquet stochastique. Dans ma dernière vidéo YouTube, je reviens sur l’origine et la signification de cette expression, et présente un essai publié récemment qui explique les dangers de l’utiliser comme une échappatoire trop commode.

La question centrale du langage

Les IA que nous utilisons le plus aujourd’hui sont les IA génératives reposant sur les grands modèles de langage (LLM, Large Language Models). Les plus connus sont chatGPT, Claude ou Gemini. C’est la linguiste américaine Emily Bender qui les a comparés à des perroquets stochastiques dans son article paru en 2021 On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Le problème central, c’est que les LLM n’ont accès qu’aux mots et pas aux réalités concrètes qu’ils représentent. Ils se contenteraient donc de les répéter sans les comprendre (parrot, en anglais), en les assemblant de la manière la plus probable (d’où le qualificatif « stochastique », qui a un rapport avec les statistiques ou les probabilités).

Bonjour à tous. Vous avez entendu comme moi très souvent cette critique de l’IA : ChatGPT et les autres ne sont finalement que des perroquets. Ils ne répètent que les choses qu’on a mises dans leur apprentissage, sans rien comprendre. Il y a une expression qui est devenue assez populaire pour décrire ce phénomène, c’est « perroquet stochastique ». Dites-moi dans les commentaires si vous l’avez déjà entendue.

Dans cette vidéo, nous allons voir ce que signifie cette expression et surtout nous allons voir que des contre-arguments apparaissent de plus en plus, qui tendent à prouver que l’IA est bien davantage qu’un simple perroquet.

· · ·

Tout est parti d’une étude publiée en 2021 par Emily Bender, une linguiste américaine. Elle explique dans son papier la vision qu’elle a du langage. Pour elle, le langage, c’est trois choses.

La première chose, c’est une forme. Ça peut être un son — par exemple, le mot « chat ». Ça peut être une forme écrite — les lettres C-H-A-T.

La deuxième dimension, c’est quelque chose dans le monde extérieur. À quoi se réfère la forme ? Par exemple : le chat que je vois.

Et enfin, la troisième dimension, c’est une intention de communication. Pourquoi est-ce que j’emploie ce mot « chat » ? Est-ce que c’est pour le décrire ? Est-ce que c’est pour l’admirer ou m’attendrir devant lui ? Est-ce que c’est pour le comparer à un autre chat ? Quelle est mon intention ?

Or, Emily Bender explique que les IA n’ont accès qu’à la première dimension, c’est-à-dire la forme. Elles sont capables de manipuler des formes, des milliards de mots, mais elles n’ont jamais accès ni au monde extérieur, ni à l’intention de la communication.

La seule chose qu’elles sont capables de faire, c’est de calculer des probabilités pour savoir quelles sont les corrélations les plus probables entre ces différentes formes. Par exemple, après le mot « chat », le mot « noir » est beaucoup plus probable que le mot « arrosoir ». L’IA va peut-être produire dans son texte « le chat noir ».

Elle va faire ça des millions et des millions de fois. Ce qui fait qu’à la fin, on aboutit à un texte qui est cohérent et qui peut même donner l’impression d’une certaine intelligence.

Mais l’IA n’a jamais eu accès à ce dont elle parle. Elle n’accède pas au monde extérieur. Elle n’en a pas la même perception que nous. Elle ne fait finalement que répéter les mots qui sont dans son corpus en les assemblant différemment.

C’est pour ça qu’Emily Bender a pris l’image du perroquet — en anglais to parrot, qui veut dire répéter sans comprendre. Et pourquoi stochastique ? Parce que « stochastique », c’est ce qui a un rapport avec les probabilités.

Cette image du perroquet stochastique est intéressante, parlante, elle a eu beaucoup de succès, et elle a sa pertinence parce qu’elle fait comprendre que l’intelligence artificielle ne comprend pas les choses de la même manière que nous, voire ne les comprend pas du tout. Elle produit simplement du texte par assemblage de corrélations statistiques.

· · ·

Pour autant, cette image a des limites et depuis quelque temps, elle est assez critiquée. Je voulais vous parler en particulier d’une étude publiée par un professeur, Henrik Skaug Sætra. Il travaille à l’université d’Oslo et, en mars 2026, il a publié un essai intitulé The Tyranny of Stochastic Parrots — la tyrannie des perroquets stochastiques.

Ce qu’il explique dans son papier, en substance, c’est que l’expression « perroquet stochastique », bien qu’intéressante, a été tellement répétée — un peu comme des perroquets — qu’elle est devenue un piège. Un piège parce qu’elle masque la réalité et agit un peu comme un édredon bien confortable pour la pensée. Une phrase toute faite, qu’on peut ressortir sans trop réfléchir, justement pour se protéger et ne pas voir l’ampleur du phénomène IA.

Pour étayer son propos, Henrik Skaug Sætra prend différents exemples très concrets. Le premier, c’est l’industrie du développement logiciel. Les chiffres parlent d’eux-mêmes. Que ce soit chez Microsoft ou chez Google, on estime qu’entre 25 et 30 % du code aujourd’hui est écrit par des IA. Les ingénieurs logiciels relisent, corrigent des bugs, demandent le développement de nouvelles fonctionnalités mais n’écrivent plus directement de code. C’est vraiment un changement de paradigme.

Sætra prend l’exemple de Spotify, que tout le monde connaît dans la musique en ligne, où récemment un dirigeant a expliqué que chez Spotify, les meilleurs ingénieurs n’avaient pas écrit une seule ligne de code depuis plusieurs mois.

N’hésitez pas à me signaler dans les commentaires comment ça se passe dans votre entreprise.

· · ·

Pour aller plus loin dans son exposé, l’auteur prend un exemple historique : l’imprimerie. Il y a 150 à 200 ans, dans le domaine de l’imprimerie, il y avait un acteur absolument incontournable : le typographe. Celui qui assemblait une à une les lettres pour les textes imprimés.

Sauf que vers 1886, une machine a été inventée : la Linotype. La grande révolution de cette machine, c’est qu’on n’était plus obligé d’imprimer les lettres une à une, mais on pouvait imprimer des lignes complètes, et ça accélérait considérablement le processus d’impression.

Ça a été une véritable révolution, pas seulement technique mais également dans la répartition du pouvoir dans le secteur. Avant, le typographe était un acteur incontournable — il était un peu un goulot d’étranglement sur la chaîne de production. Après l’invention de la Linotype, le pouvoir a été concentré dans les mains des fabricants de ces machines et de ceux qui étaient capables de les maintenir, de les réparer ou de les améliorer.

Et ce qu’explique Sætra, c’est qu’aujourd’hui la même chose est en train de se passer dans l’industrie informatique. Depuis le boom de l’informatique, disons depuis le début des années 80, l’acteur star, c’était l’ingénieur informaticien, le développeur — celui par qui tout passait, le goulot d’étranglement.

Mais avec l’avènement de l’IA, la chaîne de pouvoir est en train de se déplacer, et aujourd’hui le pouvoir se trouve dans les mains des éditeurs d’IA et de ceux qui savent les utiliser. Il y a vraiment une migration de la chaîne de pouvoir et des capacités à négocier.

· · ·

Partant de là, se demander si l’intelligence artificielle est un perroquet stochastique ou si au contraire elle est en train de devenir consciente, c’est un faux débat. Ce que propose l’auteur, c’est de se recentrer sur l’essentiel : ne plus se poser ces questions un peu épistémologiques, mais se dire « l’IA est là, c’est une révolution. Comment est-ce qu’on la déploie de manière efficace en essayant de limiter le plus possible ses effets secondaires ou ses inconvénients ? »

Il y a un concept qui permet de bien comprendre la mutation en cours, introduit par Stephen Barley, un professeur américain. Il fait une différence entre les innovations de substitution et les innovations de structure.

Une innovation de substitution, c’est par exemple un marteau qui fonctionne mieux qu’un autre marteau. Mais le métier reste le même — on continue à frapper avec.

À l’inverse, une innovation de structure, c’est une innovation qui rebat complètement les cartes et qui change le métier. L’intelligence artificielle, c’est une innovation de structure. Elle introduit un nouveau paradigme. Je prenais l’exemple de l’industrie informatique, mais c’est valable dans beaucoup d’autres domaines — on peut penser au cinéma, à la musique, dans la plupart des domaines.

· · ·

En définitive, le message clé que veut nous faire passer Sætra dans son essai, c’est qu’il faut arrêter de se voiler la face et que l’expression « perroquet stochastique », à force d’être répétée, est devenue dangereuse.

Ce qu’il faut maintenant, c’est prendre des mesures concrètes pour accompagner la révolution de l’IA. L’auteur propose une démarche en trois temps.

Le premier temps, c’est la lucidité : prendre la mesure du changement structurel qu’introduit l’intelligence artificielle.

Le deuxième temps, c’est se poser la bonne question. La bonne question, ce n’est pas « l’IA pense-t-elle ? », c’est « comment je déploie l’IA dans mon organisation ? ».

Et le troisième temps, c’est qu’il faut mettre en place des mesures d’accompagnement. C’est plutôt le rôle de l’État, au travers de la régulation, de l’imposition de règles de transparence dans l’utilisation de l’IA, et également de la mise en place de filets de sécurité pour préserver l’emploi — au travers notamment de plans de formation, en particulier pour les jeunes générations, pour qu’elles puissent se former à cette nouvelle manière de travailler.

Pour plus d’informations, vous retrouverez sur mon blog une infographie qui résume le papier dont nous venons de discuter. Ce qui m’intéresserait maintenant, c’est d’avoir votre avis. Est-ce que vous pensez que le phénomène de l’intelligence artificielle est bien pris à sa juste mesure ? Comment est-ce que ça se passe dans votre entreprise, dans vos métiers ? N’hésitez pas à me l’indiquer dans les commentaires. Et si cette vidéo vous a plu, je vous invite à mettre un pouce — ça permettra à YouTube de la recommander plus largement.

C’était un plaisir de vous retrouver et je vous dis à très bientôt pour une nouvelle vidéo

Références citées dans la vidéo :
— Emily Bender et al., On the Dangers of Stochastic Parrots, FAccT, 2021
— Henrik Skaug Sætra, The Tyranny of the Stochastic Parrot, preprint, 2026
— Stephen R. Barley, Work and Technological Change, Oxford University Press, 2020
— Voir aussi : Stochastic Parrot (Wikipédia)

L’excuse trop facile

Si le fonctionnement général des LLM est bien celui décrit par Emily Bender, leur fonctionnement s’est beaucoup complexifié depuis 2021. Sur le plan technique, ils sont devenus multimodaux, c’est-à-dire qu’ils sont entraînés non seulement sur des corpus de texte mais également sur des millions d’heures de vidéos ou d’enregistrements sonores. Cela leur fournit une approximation de ce que pourraient leur donner des sens (comme la vue ou l’ouïe). Des avancées méthodologiques comme les chaînes de pensées (chain-of-thought), permettant de décomposer un problème en étapes successives, ont permis l’apparition de nouveaux modèles dits « raisonnants » (thinking) présentant de bien meilleurs résultats. Ces progrès, ainsi que des modèles entraînés sur beaucoup plus de paramètres qu’en 2021, ont permis l’apparition de propriétés émergentes, non anticipées par les chercheurs. Dans certains cas, des études ont même montré l’apparition de modèles internes de représentation du monde, comme dans l’expérience menée en 2023 autour du jeu d’Othello.

Entrée

Des chercheurs entraînent un modèle de type GPT sur des milliers de parties d’Othello, fournies uniquement sous forme de séquences de coups (ex. : « D3, C5, E6, F5… »). Le modèle ne reçoit ni plateau, ni règles, ni même l’information qu’il s’agit d’un jeu sur une grille.

Tâche

Prédire le coup suivant dans la séquence — exactement comme un LLM textuel prédit le mot suivant.

Découverte

En examinant les couches internes du réseau, les chercheurs découvrent que le modèle a spontanément construit une représentation de l’état du plateau : il « sait » quelles cases sont noires, blanches ou vides à chaque étape, sans qu’on le lui ait jamais demandé. Mieux encore : en modifiant cette représentation interne, on peut forcer le modèle à jouer des coups légaux sur un plateau fictif qu’il n’a jamais rencontré.

Le modèle ne se contente donc pas de régurgiter des suites probables de coups : il a découvert, comme sous-produit de la prédiction, que la meilleure façon de prédire la suite d’une partie est de reconstituer le jeu lui-même. C’est plus qu’un perroquet — mais ce n’est pas non plus un joueur conscient. La réalité se situe dans cet entre-deux que la métaphore de Bender ne couvre pas.

Li, Hopkins, Bau, Viégas, Pfister & Wattenberg, Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task, ICLR 2023. arxiv.org/abs/2210.13382

Même en faisant abstraction de ces considérations théoriques, force est de constater que l’IA générative imprègne désormais des pans entiers de l’économie, notamment dans l’industrie informatique. On estime qu’aujourd’hui 25 à 30% du code informatique est écrit directement par des IA dans des sociétés comme Microsoft ou Google. C’est ce qui fait dire au professeur Henrik Skaug Sætra dans son essai The Tyranny of the Stochastic Parrot: How AI Critique Became a Way to Not See What’s Happening, que la métaphore du perroquet stochastique est devenue contre-productive. Elle agit trop souvent comme un mantra pour refuser de voir la révolution qui se déroule sous nos yeux, qui affecte progressivement tous les secteurs, et qui touchera tout particulièrement les jeunes générations.

Que faut-il faire alors ?

Si l’on en croit le professeur Henrik Skaug Sætra, l’heure n’est pas aux questionnements métaphysiques. Il recommande une démarche en trois temps.

  • arrêter de nier la révolution de l’IA. On ne peut pas maîtriser ou encadrer un phénomène dont on nie l’existence même.
  • s’intéresser au déploiement concret de l’IA dans les organisations.
  • mettre en place des mesures d’accompagnement : formation, notamment des jeunes, filets de sécurité pour l’emploi, obligations de transparence, etc.

« C’est comme si un tsunami fonçait sur nous, déjà visible à l’horizon, et que des gens continuaient à trouver des explications du genre : « Mais non, ce n’est pas vraiment un tsunami… c’est juste un effet d’optique. » »
Dario Amodei, PDG d’Anthropic, l’éditeur de l’IA Claude

Je vous propose ci-dessous une infographie résumant l’essai d’Henrik Skaug Sætra. N’hésitez pas à me dire en commentaire sur ce blog ou en commentaire de ma vidéo ce que vous en pensez.

Infographie résumant l'essai d'Henrik Skaug Sætra, The tyranny of the stochastic parrot
Infographie résumant l’essai d’Henrik Skaug Sætra, The tyranny of the stochastic parrot

En savoir plus sur Jérôme Delacroix

Subscribe to get the latest posts sent to your email.

Laisser un commentaire