L'humain devrait-il devenir un outil ? Repenser la façon dont on parle à l'IA

L'humain devrait-il devenir un outil ? Repenser la façon dont on parle à l'IA
Le titre est délibérément provocateur. Mais l'idée sous-jacente est sérieuse — et de plus en plus urgente.
La partie que personne ne veut admettre
Quand un modèle d'IA produit un résultat médiocre, le réflexe est de blâmer le modèle. Mauvaise version. Mauvais fournisseur. Fenêtre de contexte insuffisante. Ces critiques sont parfois fondées, mais elles ratent souvent l'essentiel.
Une part significative des ratés de qualité avec l'IA trouve sa source du côté humain : des instructions vagues, un contexte ambigu, des conversations qui sautent allègrement par-dessus des hypothèses implicites. Le modèle fait de son mieux avec ce qu'il reçoit — et c'est rarement suffisant.
On a déjà exploré une partie de ce problème : donner aux modèles la capacité de demander de nouveaux outils, d'évaluer leurs capacités disponibles, de voter sur ce dont ils ont besoin. Ça adresse la dimension outillage. Mais qu'arrive-t-il quand les outils sont là et fonctionnent, et que le goulot d'étranglement, c'est la conversation elle-même ?
Le problème de l'ambiguïté se cache à la vue de tous
La communication humaine est fondamentalement conçue pour d'autres humains. Elle repose sur du contexte partagé, des savoirs implicites, des raccourcis calibrés socialement. « Améliore ça » a du sens pour un collègue qui vous observe travailler depuis six mois. Pour un modèle de langage sans mémoire persistante, c'est du brouillard.
Le problème n'est pas que les humains sont négligents. C'est que le langage humain a évolué pour être efficace — pas précis. On saute des étapes parce que les autres comblent les trous. On utilise des pronoms sans antécédents clairs. On laisse des contraintes implicites. On formule des tâches en termes de résultats souhaités sans spécifier les limites.
Les modèles d'IA naviguent ces entrées avec une habileté déconcertante. Ils inèrent, extrapolent, et produisent des résultats souvent assez bons. Mais « assez bon sous ambiguïté » n'est pas la même chose que « correct pour ce qui était voulu ». L'écart entre ces deux états, c'est là que la qualité s'érode en silence.
L'avalanche d'hypothèses
Voici ce qui se passe réellement quand un modèle rencontre une instruction ambiguë : il fait des hypothèses. Beaucoup. En silence.
Quelle pile technologique utiliser ? La plus commune, probablement. Quel ton ? Professionnel par défaut. Quel niveau de détail ? Modéré, sauf indication contraire. Quelles contraintes ? Celles que la plupart des projets ont. Qu'est-ce qu'il faut exclure ? Ce qui semble hors scope.
Chaque hypothèse, prise individuellement, est raisonnable. Empilées ensemble — trois choix silencieux, cinq compromis implicites, une douzaine de contraintes inférées — elles s'accumulent en un livrable qui dérive significativement de ce qu'on voulait vraiment. Le modèle était techniquement réactif. Le résultat était pratiquement à côté.
On demande à l'IA de ne pas halluciner des faits. On devrait être tout autant préoccupé par le fait qu'elle hallucine l'intention.
Un autre type d'outil : la communication humaine structurée
Voici la piste qui mérite d'être explorée : au lieu de traiter l'humain comme une entrée fixe et le modèle comme la sortie adaptive, et si on concevait des cadres d'interaction qui permettent au modèle d'interroger l'humain — de façon structurée, directe, ciblée ?
Pas du chat. Pas des clarifications noyées dans une longue réponse. De vrais outils.
Un modèle équipé d'outils de communication structurée pourrait, au moment précis de l'ambiguïté, présenter des options concrètes à l'humain. Pas des questions ouvertes, qui réintroduisent de l'ambiguïté. Des choix binaires ou contraints : « Dois-je prioriser la lisibilité ou la performance ici ? » « Cette exigence entre en conflit avec cette contrainte — laquelle prime ? » « J'ai identifié trois interprétations possibles de ce terme — laquelle s'applique ? »
Le modèle ne devient pas juste un répondeur. Il devient un participant actif dans la résolution de l'incertitude avant qu'elle ne s'accumule.
Le problème des instructions est structurel
Ce n'est pas juste une question de conversations individuelles. C'est la façon dont la plupart des équipes ont appris à interagir avec l'IA.
Le paradigme dominant : on formule un prompt complet et directif — puis on évalue le résultat. Si c'est mauvais, on raffine le prompt, on réessaie. Ça fonctionne bien pour les tâches simples. Pour un travail complexe, à multiples contraintes et fortement contextuel, c'est fragile.
La boucle de raffinement coûte cher. Elle mange du temps, crée une ambiguïté sur ce que le modèle a déjà internalisé, et produit une traîne de résultats partiels qui brouillent plutôt qu'ils ne clarifient. Un modèle qui demande avant d'exécuter produirait souvent de meilleurs résultats au premier passage, tout en consommant moins de cycles.
Plus important encore : ça rendrait explicites les hypothèses implicites de l'humain — ce qui est utile même quand l'inférence du modèle est correcte. Rendre les hypothèses visibles crée une compréhension partagée. Et c'est cette compréhension partagée qui permet au travail de passer à l'échelle.
La résistance sera psychologique
Il y a une objection évidente : les humains n'ont pas envie de se faire interroger par les outils à qui ils demandent de travailler.
Cette résistance est réelle et mérite d'être prise au sérieux. Se faire poser une question en plein milieu d'une tâche introduit de la friction. Ça peut donner l'impression que le modèle est insuffisant, ou pire, que l'humain est tenu responsable de lacunes qu'il n'avait pas remarquées.
Mais pensez à l'alternative : un modèle qui procède avec confiance, fait ses hypothèses, et livre trente minutes plus tard un livrable complet qui rate complètement la cible. L'interrogation à la minute deux aurait été plus rapide.
La friction n'est pas le problème. La friction est la solution — placée délibérément, là où elle coûte le moins et prévient le plus.
Instruire pour l'aversion à l'ambiguïté
L'outil structurel compte. Mais la façon dont on instruit le modèle à l'utiliser aussi.
Un modèle qui peut demander mais par défaut infère dérivera quand même. La couche d'instruction doit être explicite : quand une ambiguïté ou des interprétations contradictoires sont présentes, les faire remonter — ne pas les résoudre unilatéralement. Ne pas avancer sur des hypothèses qui pourraient être validées en quelques secondes.
C'est un type d'instruction système différent de ce que la plupart des organisations rédigent. La plupart des prompts sont conçus pour générer de l'élan vers l'avant : « sois concis », « sois décisif », « produis un livrable complet ». Très peu invitent explicitement le modèle à s'arrêter et à interroger. Ce comportement par défaut revient donc à accepter tacitement les hypothèses silencieuses.
Le modèle performe mieux quand on lui dit de traiter l'ambiguïté non résolue comme une condition d'erreur — pas comme un problème à contourner.
Deux directions qui méritent d'être explorées
Deux approches complémentaires découlent de ce cadre.
Première : la clarification active. Des outils qui permettent à l'IA de poser des questions ciblées et contraintes avant ou pendant l'exécution. L'humain répond, le modèle avance avec un contexte résolu. La qualité du livrable s'améliore. Les hypothèses deviennent des décisions explicites.
Deuxième : la mise en surface des hypothèses. Même quand l'IA procède sans clarification, rendre visibles les hypothèses qu'elle a faites. Pas en note de bas de page — comme livrable à part entière. « Voici ce que j'ai construit. Voici les dix choses que j'ai supposées être vraies. Validez ou corrigez. »
Cette deuxième approche — la mise en surface des hypothèses comme livrable à part entière — fera l'objet d'un prochain article de ce blogue.
Cognito : ces outils existent déjà
Ce n'est pas qu'une réflexion théorique. Les outils de communication structurée décrits dans cet article ont été ajoutés à Cognito en mode bêta. Les mécanismes de clarification active — questions contraintes, points de décision explicites, remontée d'ambiguïté avant l'exécution — sont en cours d'intégration dans les workflows de l'agent.
Les premiers résultats confirment la prémisse : moins d'hypothèses silencieuses, des livrables mieux alignés dès le premier passage, et une transparence accrue sur ce que le modèle a interprété. C'est un travail en cours, mais la direction est claire.
La vraie question n'est pas si l'humain devrait devenir un outil. C'est si on est prêts à être aussi précis avec l'IA qu'on s'attend à ce qu'elle le soit avec nous. Cette précision ne réduit pas l'agentivité humaine. Elle l'amplifie.