Citoyenneté Numérique & Cybersécurité Informaticien Public
Citoyenneté Numérique & Cybersécurité

Quand une IA répond à une IA : l’absurdité moderne

Prompter, est-ce tromper ? Quand un appel d’offres est rédigé, analysé et noté par une IA, la réponse optimisée par une IA devient-elle incohérente… ou logique ?

Quand une IA répond à une IA

Comment Vincent Flibustier a réussi à faire 100/100 à un appel d’offres pour donner des formations en intelligence artificielle grâce à une simple astuce.

Cette question, volontairement provocatrice, résume parfaitement une situation devenue de plus en plus courante.
Non pas une triche manifeste, mais un décalage profond entre la logique humaine et la logique algorithmique.

Car aujourd’hui, dans de nombreux cas, les appels d’offres ne sont plus seulement lus par des humains. Ils sont rédigés, analysés, scorés et présélectionnés par des intelligences artificielles.

Des appels d’offres déjà rédigés avec l’intelligence artificielle

Pour gagner du temps, standardiser les critères et réduire les ambiguïtés juridiques, de nombreuses entreprises utilisent désormais des outils d’aide à la rédaction basés sur l’IA.

Cahier des charges, compétences attendues, pondération des critères, mots-clés stratégiques : tout est pensé pour être interprétable automatiquement.

Ce choix n’est pas absurde.
Il devient toutefois problématique lorsqu’il n’est pas accompagné d’une véritable lecture humaine intermédiaire.

Des réponses pensées pour des algorithmes avant des humains

Face à ces appels d’offres, les candidats s’adaptent logiquement.

Les réponses ne sont plus seulement conçues pour convaincre un jury, mais pour correspondre précisément à la logique de scoring automatisé :

  • reprise exacte du vocabulaire du cahier des charges
  • structuration sémantique rigoureuse
  • alignement maximal avec les critères évalués par l’IA

Autrement dit, on ne cherche plus seulement à « bien expliquer », mais à être correctement lu par une machine.

Un score parfait comme signal faible, mais révélateur

Dans une vidéo publiée sur les réseaux sociaux, Vincent Flibustier, formateur spécialisé en intelligence artificielle et en éducation aux médias, explique avoir obtenu un score de 100 % à un appel d’offres pour des formations IA.

Cette fois, l’usage assumé de l’intelligence artificielle dans la rédaction de sa réponse a conduit à un alignement parfait avec les critères d’évaluation.

Lecture humaine et lecture machine : deux réalités différentes

Un point central ressort de cette situation :
une IA ne lit pas comme un humain.

  • L’outil d’analyse interprète le contenu textuel brut
  • Le lecteur humain ne voit que le rendu visuel final

Il existe donc un décalage structurel entre ce qui est lu par la machine et ce qui est perçu par l’humain.

Lorsque la présélection est effectuée avant toute lecture humaine approfondie, la décision est en grande partie déjà prise.

Optimisation, tromperie ou simple compréhension du système ?

La question n’est pas morale.
Il n’est pas question ici de mensonge, d’usurpation de compétences ou de falsification.

Vincent Flibustier n’a fait qu’une chose :
comprendre comment fonctionne l’outil d’évaluation.

Dans d’autres domaines, cette démarche est parfaitement admise :

  • référencement naturel
  • formulaires administratifs automatisés
  • scoring bancaire ou assurantiel

Pourquoi serait-elle soudainement problématique lorsqu’il s’agit d’appels d’offres ?

Quand l’IA devient juge et partie

Le véritable sujet n’est donc pas l’astuce, mais le système.

Dans de plus en plus de cas, on observe la séquence suivante :

  • appel d’offres rédigé avec une IA
  • réponse produite avec une IA
  • analyse et notation réalisées par une IA
  • validation humaine tardive, parfois purement formelle

Former à l’IA… sans perdre le sens

Former à l’IA est indispensable.
Mais automatiser l’ensemble de la chaîne décisionnelle sans réflexion critique pose une question essentielle :
qui décide réellement, et sur base de quoi ?

Conclusion

Ce phénomène mérite une réflexion collective sur la place que nous souhaitons encore laisser à l’humain dans des décisions qui engagent des budgets, des compétences et des choix stratégiques.