IA d’entreprise : du battage médiatique à la valeur réelle grâce à la conception agentique

6

Depuis deux ans, les entreprises se sont laissé convaincre par la promesse d’agents d’IA autonomes : des systèmes capables de réserver des vols, d’écrire du code et d’analyser des données avec un minimum d’intervention humaine. Pourtant, malgré des expérimentations généralisées, les déploiements réels en entreprise restent obstinément faibles. Environ 95 % des projets d’IA ne parviennent pas à apporter une valeur commerciale tangible et s’effondrent sous le poids de la complexité du monde réel. Le problème central ? Une incompréhension fondamentale de ce que sont les agents : non pas des boîtes magiques, mais des systèmes logiciels complexes exigeant une ingénierie rigoureuse.

Le problème : traiter l’IA comme une démo, pas comme un produit

La déconnexion entre les démonstrations d’IA et la valeur de l’entreprise ne concerne pas de meilleurs modèles ; il s’agit d’une meilleure architecture. Antonio Gulli, ingénieur senior chez Google, affirme que l’industrie s’est tournée vers les derniers frameworks plutôt que vers les principes fondamentaux. « L’ingénierie de l’IA n’est pas différente de toute autre forme d’ingénierie », explique-t-il. Pour construire des systèmes durables, vous avez besoin de normes reproductibles, et pas seulement de modèles de pointe.

Le livre récent de Gulli, « Agentic Design Patterns », propose précisément cela : 21 modèles fondamentaux pour transformer les agents expérimentaux en outils d’entreprise fiables. Cette approche reflète la révolution des « Design Patterns » dans le génie logiciel, mettant de l’ordre dans un domaine chaotique. Ces modèles dictent la façon dont un agent pense, se souvient et agit – les éléments fondamentaux de systèmes d’IA robustes.

Cinq modèles clés pour un impact immédiat

Pour les organisations cherchant à stabiliser leur pile d’IA, Gulli identifie cinq modèles à fort impact :

  • Réflexion : Au lieu de réponses immédiates et potentiellement hallucinatoires, les agents devraient penser en créant un plan, en l’exécutant et en évaluant de manière critique le résultat avant de le présenter. Cela imite le raisonnement humain et améliore considérablement la précision.
  • Routage : Évoluez sans exploser les coûts en dirigeant les tâches simples vers des modèles moins chers, en réservant le raisonnement complexe aux systèmes les plus puissants (et les plus coûteux). Les modèles peuvent agir comme des routeurs, optimisant ainsi l’efficacité.
  • Communication : Les protocoles de communication standardisés tels que le Model Context Protocol (MCP) agissent comme un « port USB pour l’IA », permettant une intégration transparente avec les outils, les bases de données et d’autres agents.
  • Mémoire : La structuration de la manière dont les agents stockent et récupèrent les interactions passées crée des assistants persistants et contextuels, résolvant le problème du « poisson rouge » de la perte de mémoire à court terme.
  • Garde-corps : Les contraintes architecturales sont vitales pour la sécurité et la conformité, empêchant les fuites de données ou les actions non autorisées. Ce sont des limites dures, pas seulement des invites polies du système.

Sécurité transactionnelle : la clé pour faire confiance aux agents autonomes

L’un des principaux obstacles au déploiement est la peur : un agent autonome disposant d’un accès en écriture aux systèmes critiques constitue un handicap en cas de dysfonctionnement. La solution ? Sécurité transactionnelle, empruntée à la gestion de bases de données. Tout comme les bases de données utilisent des points de contrôle et des restaurations, les agents doivent fonctionner de manière provisoire, avec la possibilité de revenir à un état sûr si des erreurs se produisent. Cela permet aux entreprises de faire confiance aux agents avec un accès en écriture, sachant qu’il existe un « bouton d’annulation ».

Tester ces systèmes nécessite d’évaluer les Trajectoires des agents : pas seulement la réponse finale, mais l’ensemble du processus de prise de décision. Gulli préconise également des systèmes automatisés d’évaluation par les pairs, dans lesquels des agents spécialisés critiquent mutuellement leurs performances pour empêcher la propagation des erreurs.

L’avenir : de l’ingénierie rapide à l’ingénierie contextuelle

D’ici 2026, l’ère des modèles à usage général prendra probablement fin. L’avenir appartient aux flottes d’agents spécialisés : des agents se concentrant sur la récupération, la génération d’images ou la création de vidéos, communiquant de manière transparente. Les développeurs passeront de l’ingénierie rapide (astuce linguistique) à l’ingénierie contextuelle : conception du flux d’informations, gestion de l’état et conservation des agents de données « voir ».

Le but ultime n’est pas seulement d’utiliser l’IA ; c’est résoudre efficacement les problèmes de l’entreprise. Gulli met en garde contre l’IA pour le bien de l’IA. Les entreprises doivent commencer par définir clairement leurs besoins et exploiter la technologie de manière stratégique pour y répondre.