langage machine, article publié dans le hors-série 18 du magazine scientifique d'actualité epsiloon@ILLUSTRATION Y.DIRAISON AVEC SHUTTERSTOCK - GETTY IMAGES

Langage machine: faut-il être poli avec l'IA?

Plus besoin de mode d’emploi… Depuis l’arrivée de l’IA, nous communiquons avec les machines dans un langage naturel de plus en plus déconcertant – à base de “je” et de “s’il te plaît”. Une révolution anthropologique.

par Pierre-Yves Bocquet,

Cet article paru dans le hors-série Epsiloon n°18 vous est offert.
Epsiloon vit grâce à ses lecteurs : abonnez-vous au magazine pour soutenir un journalisme scientifique indépendant.

“C’est une révolution gigantesque, s’étonne encore l’anthropologue du numérique Maxime Derian. Jusqu’ici, il n’y avait que des êtres vivants qui pouvaient parler avec nous. Depuis l’arrivée de ChatGPT, l’inter­activité langagière avec la machine devient fantastique, avec une fluidité hallucinante.”

Interaction frustrante

Il faut prendre la mesure du bouleversement. Pendant longtemps, communiquer avec la machine – ordinateur, voiture, lave-vaisselle… – est resté une entreprise assez frustrante, l’interaction se résumant souvent à un choix d’options préprogrammées dans un menu, ou à un pénible apprentissage de gestes techniques variés. Parler aux machines directement dans leur langue étant réservé à des happy few, informaticiens et autres codeurs, capables de les programmer en utilisant une langue appropriée, le code. C’était avant l’arrivée massive des chatbots basés sur des grands modèles de langage (LLM) nourris de millions de paramètres. Avec ChatGPT, rejoint par Gemini, Le Chat, Copilot, Claude, Perplexity, DeepSeek, Grok et bien d’autres, il est désormais possible pour tout un chacun d’échanger dans sa langue natale avec une machine. “Les moteurs de recherche comme Google avaient déjà pavé le chemin vers le langage naturel, mais ce n’était que des mots-clés, avec une syntaxe particulière comme des guillemets, qui nécessitaient une certaine compétence de l’utilisateur”, retrace Pascal Amsili, professeur de linguistique computationnelle à Sorbonne Nouvelle. Les assistants vocaux, eux, affichaient des performances si peu convaincantes qu’ils n’ont jamais vraiment décollé. Avec les chatbots, on change de dimension. “Grâce aux systèmes neuronaux de type transformers, les LLM ont fait d’énormes progrès, acquis une compétence comparable à celle d’un locuteur natif, et ce qui nous paraissait impossible est devenu accessible à tous : parler à la machine dans notre langue à nous”, juge Pascal Amsili. “C’est une vraie rupture en matière d’interaction homme-machine”, insiste Dominique Boullier, professeur de sociologie à Sciences Po. L’entrée dans une nouvelle ère de l’histoire des interfaces homme-machine. 

Ce qui paraissait impossible est accessible à tous : parler à la machine dans notre langue

Pascal Amsili, professeur de linguistique computationnelle, université Sorbonne Nouvelle

La possibilité de parler à la machine dans notre propre langue est l’aboutissement d’un mouvement presque aussi vieux que l’informatique, recontextualise Dominique Boullier : “Depuis toujours, le but des informaticiens est de tendre vers un idéal de confort d’utilisation, une absence totale de friction, afin qu’il n’y ait plus besoin d’apprendre quoi que ce soit pour parler à la machine. » Les langages de programmation ont évolué à l’aide d’interfaces intuitives et conviviales pour les rendre de plus en plus accessibles, comme Python ou Java. Avec pour objectif ultime le “no-code”, soit la possibilité de manipuler des briques logiques précodées, sans avoir besoin de savoir coder soi-même. Nous y sommes : nous pouvons désormais parler directement aux machines, sans prérequis. 

Bla-bla-bla

Mieux, nous pouvons aussi demander aux chatbots de nous aider à parler aux autres machines (un PC, un drone, une console de jeux, une machine-outil…) en leur faisant produire du code informatique à partir d’une commande en langage naturel. Le chatbot se transforme alors en interprète informatique multilingue. “Cette pratique, dite vibe coding, est un véritable changement, qui abaisse considérablement le seuil d’accès à la programmation”, estime Ayla Rigouts Terryn, professeure adjointe en technologies de la traduction et en IA au département de linguistique et de traduction de l’université de Montréal. Le langage machine est désormais accessible à tous. Et c’est toute une partie de l’expertise technologique issue de l’“expérience utilisateur” qui devient désuète. À terme, plus d’excuses pour ne pas savoir faire fonctionner un lave-linge, plus besoin de lire de fastidieux modes d’emploi, de décrypter des symboles abscons sur des boutons, voire d’apprendre à conduire : chaque machine devient transparente.

Cette nouvelle relation avec les entités technologiques qui nous entourent est troublante. Car dans notre esprit, prévient Maxime Derian, la parole est depuis toujours associée aux êtres évolués, dotés de capacités cognitives supérieures, comme l’intelligence ou les émotions : “Quand la machine parle bien, on entre naturellement en empathie avec elle. Surtout avec les chatbots qui commencent leurs phrases par ‘je’. Cela nous incite à faire groupe avec eux, à tisser une relation parasociale pouvant aboutir à la fictophilie, le fait de tomber amoureux d’un personnage virtuel.” Dominique Boullier, qui vient de publier en 2025 Déshumanités numériques, s’en inquiète : “On peut être dans une relation permanente avec la machine, qui devient une sorte de compagnon confident, avec les risques de dérive que cela implique au niveau psychique.” Comme dans le film visionnaire Her, de Spike Jonze, sorti en 2013, dont le héros tombe fou amoureux de son système d’exploitation à synthèse vocale.

“S’il te plaît”

Cette tendance à humaniser les outils est renforcée par le fait que ChatGPT et ses semblables ne donnent pas toujours la même réponse à une question donnée, comme si cela dépendait de leur humeur ou du fait qu’on leur ait parlé gentiment. “On s’est vite aperçu que changer légèrement la formulation pouvait aboutir à des résultats très différents”, témoigne Christophe Cerisara, chercheur en traitement de la parole et du langage au laboratoire lorrain de recherche en informatique et ses applications, à Nancy. “L’ajout d’une formule anodine comme ‘bla bla bla’ dans un prompt peut modifier le comportement du LLM”, ajoute Akhil Kumar, professeur en systèmes d’information à l’université Penn State.

C’est une révolution gigantesque. Jusqu’ici, il n’y avait que des êtres vivants qui pouvaient parler avec nous

Maxime Derian, anthropologue du numérique, expert IA auprès de l’Union européenne

Cette singularité a donné naissance à une nouvelle discipline : l’art de rédiger les requêtes en langage naturel, les fameux “prompts”. Depuis 2022, ce prompt engineering a fait l’objet de très nombreuses études, souvent empiriques. Dans la recherche du précieux sésame qui libérera tout le potentiel des chatbots – ou qui au moins limitera leurs erreurs et leurs hallucinations –, certaines études ont mis en évidence la vertu de formulations inattendues, des incantations “parfois quasi chamaniques” selon Maxime Derian, telles que “prends une grande respiration”, avant de lui assigner une tâche. Ou de stimuli absurdes, comme de lui promettre un pourboire de 200 dollars. D’autres soulignent une étrange sensibilité au chantage émotionnel, en mode “réponds bien, c’est très important pour ma carrière”. Et de nombreux tutos promettent qu’ajouter “dis toujours la vérité” ou « n’utilise que des sources fiables” dans le prompt suffit à dompter le LLM. “Il y a pas mal de gens qui se décrètent experts en prompt engineering, mais tout ça n’est pas très sérieux”, tranche Pascal Amsili. La science est en effet bien moins affirmative.

Des mantras

Ces études ont vite cru identifier des stratégies efficaces : donner au chatbot des exemples de réponses souhaitées, lui préciser le format voulu, lui demander de se mettre dans la peau d’un expert (le persona) ou encore raisonner pas à pas quand la tâche est difficile. Des approches vite adoptées par les entreprises, et qui figurent même dans le Guide du prompt pour les débutants proposé par France Num, le portail gouvernemental d’accompagnement à la transition numérique. Mais la recherche de mantras susceptibles de booster la machine est une pratique hautement spéculative. La preuve : des études sérieuses parviennent à des résultats contradictoires. Alors que des travaux de 2024 estimaient que parler poliment à la machine en criblant les prompts de “s’il te plaît” et de “voudrais-tu bien” améliorait la qualité de ses réponses, une autre étude fin 2025 observe au contraire que les prompts les plus insolents (“Je sais que t’es pas très futé, mais essaie quand même de répondre à ça”) s’avèrent les plus efficaces, avec 84,8 % de pertinence, contre 80,8 % pour les plus polis.

Un peu magique

La raison de cette apparente bizarrerie est simple : malgré son langage savant qui lui donne un air docte, la machine ne comprend ni ce qu’on lui dit ni ce qu’elle nous répond. Un constat qui peut être difficile à accepter face à l’assurance avec laquelle elle nous répond (une IA ne dit jamais “je ne sais pas”), mais qui est inhérent à son mode de fonctionnement. “Le modèle découpe la question en morceaux, les tokens, qui sont des mots que le LLM connaît grâce à son apprentissage, et qu’il transforme ensuite en vecteurs avec lesquels il peut faire des calculs matriciels”, rappelle Olivier Debeugny, président de Dragon LLM, une start-up française dont le chatbot ambitionne de rivaliser avec ceux des Big Tech. 

Chaque mot du prompt va ainsi être traduit par la machine en plusieurs centaines de nombres, chacun représentant une de ses dimensions. Le mot “Paris”, par exemple, sera associé à une suite de nombres représentant ses degrés de proximité avec des dimensions qui lui sont généralement associées, issues de l’apprentissage du modèle : capitale, France, pays, ville, mairie, nom propre, Hidalgo, bouchons, périphérique, Haussmann… “Chaque mot est représenté par une suite de nombres, qui représentent un point dans un espace à plusieurs centaines, voire plusieurs milliers de dimensions, détaille Pascal Amsili. Le prompt se réduit alors à un ensemble de points sur lesquels le modèle va calculer des probabilités, prédire des suites de mots en fonction d’un contexte pour terminer des phrases, comme quand on tape ‘à tout à…’ et que l’algorithme nous propose ‘l’heure’. Sachant que la façon dont ils arrivent à en tirer des réponses pertinentes et intelligibles reste un peu magique, même pour nous les experts.” 

On mythifie l’importance des prompts. Personne ne sait vraiment ce que la machine retient

Laurence Devillers, professeure en IA appliquée aux sciences sociales, Sorbonne Université

Ce dont le modèle a besoin, c’est donc d’un maximum d’éléments qui lui donnent du contexte, pour savoir par exemple si “Paris” fait référence à la ville ou à des paris sportifs. “L’important, c’est d’être précis. L’humain a une grande capacité à comprendre une situation avec très peu de contexte. À l’inverse, les modèles ne sont forts que quand on leur en donne beaucoup”, résume Olivier Debeugny. “Les lois d’échelles montrent que plus il y a de calculs, plus le résultat est qualitatif. Donc plus il y a d’informations dans le prompt, plus la réponse est pertinente”, résume Christophe Cerisara.

Pas nécessaire en revanche d’imposer un jeu de rôle ou des contraintes sur les sources. “Quand on lui attribue un ‘persona’ ou qu’on lui demande de se référer à des sources fiables, le chatbot ne comprend pas réellement la demande : cela consiste juste à lui donner du contexte, des mots-clés, mais personne ne sait vraiment ce que la machine en retient, insiste Laurence Devillers, professeure en IA appliquée aux sciences sociales à Sorbonne Université et spécialiste des interfaces homme-machine. On mythifie l’importance de la formulation des prompts, principalement parce que les gens ne savent pas comment fonctionne la machine.”

Illusion d’optique

Globalement, le résultat c’est qu’il n’y a même pas besoin d’être expert en prompt pour se faire comprendre de la machine. Mais alors pourquoi des études mettent-elles en évidence l’impact de telle ou telle formulation ? “La sensibilité des chatbots aux variations des prompts découle de leurs caractéristiques intrinsèques : la prédiction de chaque token dépend de l’ensemble des tokens précédents, rendant la réponse finale très sensible aux tokens initiaux du prompt”, explique Do Xuan Lan, de la faculté d’informatique de l’université nationale de Singapour. Cela expliquerait aussi pourquoi, comme le pointe une étude récente, la formulation des requêtes dans des variantes de l’anglais (singapourien ou afro-américain) provoque des baisses de qualité des réponses allant jusqu’à 20 %. “Cela révèle les biais de ces modèles : il ne s’agit pas d’une animosité envers certains dialectes, mais leur fonctionnement probabiliste est simplement sensible à la manière dont une question est formulée”, estime Om Dobariya, de l’université Penn State.

Quant à la sensibilité aux émotions, c’est une illusion d’optique, décrypte Ayla Rigouts Terryn : “Si l’impolitesse ou l’urgence fonctionnent parfois, ce n’est pas parce que le modèle “ressent”, mais parce qu’il a été entraîné sur le Web. Statistiquement, dans les forums de discussions, une demande formulée avec une forte charge émotionnelle déclenche souvent des réponses plus longues et plus précises. Les IA ne font que reproduire ce schéma.” Sans compter qu’elles sont reparamétrées par des humains. “Elles subissent un double apprentissage, détaille Pascal Amsili. L’un sur des bases de données, et un second supervisé. C’est à cette étape que des humains peuvent attribuer de l’importance aux stimuli ‘émotionnels’, pour modifier le comportement de leur chatbot.”

Éphémères

Bien malin qui saura prédire comment un modèle réagit à une formulation donnée. De nombreuses études montrent par exemple que chaque LLM a sa propre sensibilité aux prompts : ce qui fonctionne avec ChatGPT peut être inefficace, voire contre-productif avec Llama ou Claude. “Les stratégies de prompting dépendent du modèle, c’est avant tout une démarche d’essai-erreur”, résume Olivier Debeugny. Une étude de juin 2025 a par ailleurs mis en évidence que si certaines astuces de prompting fonctionnent, elles perdent grandement en efficacité lorsqu’on les accumule dans un même prompt. “Ces travaux remettent en question l’hypothèse selon laquelle la combinaison de propriétés produit systématiquement de meilleurs résultats”, souligne Do Xuan Long, coauteur de l’étude. Sachant que même quand elles ont un effet, la validité de ces stratégies reste éphémère. “Les astuces de prompting deviennent de plus en plus obsolètes, voire anecdotiques, avec l’arrivée des modèles les plus récents qui intègrent des raisonnements de manière native, comme le Chain of Thought : ils ‘réfléchissent’ par étapes sans qu’on ait besoin de le leur demander”, conclut Ayla Rigouts Terryn.

La parfaite maîtrise de l’art du prompt est d’autant plus illusoire que celui-ci est intégré dans le prompt système, invisible pour l’utilisateur, qui va ajouter à la requête des éléments de contexte récupérés de conversations précédentes pour mieux cerner ses attentes et imposer des règles – par exemple, ne pas donner d’indications sur la façon de fabriquer une bombe ou interdire l’emploi d’injures. “Chaque LLM ajoute des éléments au prompt utilisateur, pour définir le contexte, l’historique, le persona. Et chaque modèle a sa propre façon de le faire”, précise Christophe Cerisara. “Les plus gros modèles peuvent ajouter des centaines de milliers de tokens, note Gaëtan Boulard, directeur informatique chez Dragon LLM. Ils parviennent ainsi à mieux deviner l’intention qui se cache derrière un prompt, même s’il est mal rédigé.” “Le prompt engineering, ça avait un intérêt jusqu’à mi-2025, mais on n’en a plus vraiment besoin”, conclut Maxime Derian.

On n’a aucune représentation du système, même symbolique, on pose une question et ça répond

Dominique Boullier, professeur de sociologie à Sciences Po

“Les modèles deviennent de plus en plus robustes et nos résultats de 2024 ne reflètent peut-être plus la réalité des modèles actuels, même si certains peuvent encore présenter de tels comportements”, admet Jindong Wang, ex-chercheur du centre de recherche de Microsoft à Pékin, coauteur il y a deux ans d’une étude sur l’impact des stimuli émotionnels dans les prompts. “Les modèles vont être réentraînés pour pallier ces biais, estime Christophe Cerisara. La machine va apprendre à mieux nous comprendre.” C’est d’ailleurs ce que semblent confirmer les derniers prompts reports d’Ethan Mollick, à la Wharton School de l’université de Pennsylvanie. Selon ces rapports qui font autorité, assigner un personnage expert au modèle ou lui promettre un pourboire n’améliore plus ses performances. “Il est difficile de prescrire une formule universelle. Il faut vraiment interagir longuement avec eux pour acquérir une sorte d’intuition. Au final, un bon prompt, c’est appliquer la théorie de l’esprit à une machine : il faut modéliser ce que l’IA sait, la façon dont elle réagit pour obtenir exactement ce que l’on veut”, recommande Zhicheng Lin, psychologue à l’université des sciences et technologie de Chine. Difficile avec une telle boîte noire, dont même les spécialistes ne saisissent pas toujours la logique. “La formulation de la requête peut ­encore avoir un grand impact sur la performance, mais le lien entre une stratégie de prompt et son effet est très imprévisible”, résume Ayla Rigouts Terryn. 

Théorie de l’esprit

Le nouveau langage machine est donc à la fois transparent et opaque… “Contrairement à la tradition des interfaces homme-machine, il n’y a là aucune représentation du système, même symbolique : on pose une question et ça répond, sans avoir aucune information sur les règles de fonctionnement qui nous permettraient de nous l’approprier”, regrette Dominique Boullier. Peut-être que cette relation s’améliorera avec l’introduction de la sémantique dans l’apprentissage des modèles, pour qu’ils comprennent le sens des mots, au-delà de leurs liens statistiques. “C’est le défaut structurel des LLM : l’absence de sens. Il faudra le réintroduire si on ne veut pas rester dans l’impasse”, estime Dominique Boullier. Cette approche, un temps étudiée avant d’être balayée de­puis 2010 par l’approche proba­biliste actuelle, commence à renaître sous l’impulsion de grands noms de l’IA, comme le Français Yann Le Cun, l’un des pères de l’apprentissage profond, qui vient de quitter Meta (Facebook) pour explorer cette voie.

L’IA saura-t-elle comprendre ce que nous lui disons ? Ou devrons-nous continuer de nous creuser la tête pour trouver la meilleure façon de lui parler ? Peut-être un peu des deux, prévoit Do Xuan Long : “L’ingénierie des prompts restera pertinente, tout comme les humains doivent sans cesse apprendre à communiquer efficacement entre eux.” Bon, une chose est sûre, notre relation aux machines a définitivement basculé…

Pierre-Yves Bocquet Découvrir la rédaction
Un article à retrouver dans Hors-Série Epsiloon n°18
Découvrir le numéro
Acheter ce numéro
Abonnez-vous et ne manquez aucun numéro
Chaque mois,dans votre boîte aux lettres
Toutes les archives,accessibles en ligne
La version numérique,avec l'appli Epsiloon
Un espace abonné,pour gérer mon compte