L’IA agentique représente une évolution significative de l’IA, permettant aux systèmes non seulement de générer du contenu, mais aussi d’agir, de « raisonner » et de s’adapter en fonction du contexte. Cette évolution permet à l’IA de dépasser la génération passive de résultats pour s’orienter vers la prise de décision active et la participation aux processus métier.
Les 7 sujets chauds IA pour 2026
Webinar 03 Fév 2026 11h00 – 12h00Les entreprises explorent de plus en plus le potentiel de l’IA pour améliorer leur productivité. Cependant, son impact économique global reste encore incertain, en particulier lorsqu’il s’agit d’intégrer ces systèmes dans les opérations existantes. De nombreuses organisations se retrouvent ainsi coincées en projet pilote, ayant du mal à opérationnaliser les POC et à les intégrer dans leurs fonctions commerciales principales.
La difficulté réside moins dans la technologie elle-même que dans la robustesse de la construction, de la gouvernance et de l’alignement des systèmes.
Nous poursuivons ici notre série sur l’IA agentique, après un premier article sur les concepts fondamentaux de l’IA agentique. Ce nouvel article se concentre sur la façon de concevoir des systèmes agentiques évolutifs et adaptés à la production qui peuvent être intégrés dans les fonctions commerciales fondamentales et apporter une valeur ajoutée.

Construire des systèmes agentifs évolutifs
Les systèmes agentifs sont modulaires par conception, composés de composants interopérables qui répondent à des besoins spécifiques. La construction pour la production nécessite des choix délibérés concernant ces composants et leur interaction.
En pratique, une conception robuste signifie :
• Sélectionner des modèles appropriés adaptés au domaine du problème et aux contraintes opérationnelles.
• Définir des pipelines de données et des intégrations qui garantissent un accès fiable à des données contextuelles de haute qualité.
• Fournir aux modèles un contexte approprié et des instructions claires et bien structurées.
• Mettre en place une surveillance continue et des boucles de rétroaction dès le début de la phase de prototypage, afin de permettre aux équipes d’ajouter/mettre à jour progressivement des fonctionnalités ou des composants, de renforcer la sécurité et d’améliorer la résilience à mesure que le système et l’IA évoluent.
La clé réside toutefois dans la recherche du juste équilibre entre :
• Ne pas trop complexifier. Une complexité excessive ralentit les progrès et limite l’adaptabilité.
• Éviter les solutions « rapides et approximatives ». Les conceptions qui contournent les exigences de qualité de production créent de la fragilité et nécessitent de retravailler dessus ultérieurement.
Comment choisir le bon modèle ?
Il n’existe pas de modèle universel. Pour choisir le bon modèle, il faut bien comprendre la problématique commerciale, le paysage des données, les résultats souhaités et les limites du modèle. Les modèles varient considérablement en termes de capacités, de latence et de rentabilité.
Pour choisir le bon modèle, il faut bien comprendre la problématique commerciale, le paysage des données, les résultats souhaités et les limites du modèle.
Une approche pragmatique implique un processus d’évaluation itératif et fondé sur des données probantes :
• Prototyper avec le modèle le plus performant afin d’établir une base de référence en matière de performances et de qualité.
• Expérimenter avec des modèles plus petits ou spécialisés afin de déterminer s’il est possible d’obtenir des résultats comparables à moindre coût, avec une latence et une empreinte carbone réduites.
• Adopter une stratégie de modèle hybride où les tâches de complexité variable sont réparties intelligemment (modèles hautement performants pour les tâches nécessitant un raisonnement intensif, modèles légers pour les fonctions routinières ou à portée limitée).
La clé réside dans la conception d’une substitution et d’une orchestration transparentes des modèles, tout en tenant compte de la sensibilité des données et des exigences de conformité.
Au-delà des LLM
Les LLM (Large Language Models) seuls n’apportent pas de valeur ajoutée à l’entreprise. Leurs véritables avantages apparaissent lorsqu’ils sont connectés à des sources de données, des systèmes et des processus externes.
Outils, actions et protocoles
Pour créer de la valeur, il faut étendre les capacités des LLM en leur permettant d’accéder au contexte, d’agir et de collaborer. Certaines leçons ressortent se démarquent :
- Les données prêtes pour l’IA constituent un facteur de différenciation stratégique. Elles concernent la qualité des données ainsi que leur gouvernance, leur accessibilité et leur couverture multimodale dans les formats texte, image et audio. Les modèles prennent toute leur valeur lorsqu’ils peuvent exploiter ces données et agir en conséquence grâce à des intégrations bien définies et sécurisées.
- La sécurité et la gouvernance garantissent la confiance. À mesure que les LLM ont accès à des outils et à des données, il devient essentiel de mettre en œuvre l’authentification, l’autorisation, le principe « Human-in-the-loop » (HITL), des mécanismes de repli et l’auditabilité. Une gouvernance et une observabilité solides garantissent la conformité, préviennent les abus et maintiennent la responsabilité.
- L’intégration libère le potentiel. La puissance d’un système agentique dépend de sa capacité à accéder de manière transparente au contexte et aux outils externes. Des mécanismes d’intégration robustes permettent aux systèmes de raisonner, d’agir et de s’adapter.
- L’interopérabilité accélère l’innovation. À mesure que l’écosystème mûrit, les normes émergentes pour la coordination des outils et des agents, telles que le Model Context Protocol (MCP) et l’Agent-to-Agent (A2A), réduisent le besoin d’extensions personnalisées.
Aller au-delà des LLM ne consiste pas à remplacer les modèles par des agents, mais plutôt à connecter et à orchestrer l’intelligence. Le succès dépend de la capacité des systèmes à intégrer les données, à orchestrer les capacités et à adopter les nouvelles normes qui rendent la collaboration entre agents évolutive, sécurisée et durable.
Ingénierie contextuelle
Le contexte est le carburant opérationnel des LLM. Il définit la manière dont les modèles perçoivent leur environnement, les informations qu’ils reçoivent des systèmes, des utilisateurs et des sources externes.
- Les prompts servent d’interface de contrôle, définissant les objectifs et guidant le comportement.
- L’ingénierie contextuelle garantit la circulation des informations appropriées à chaque étape, complétant la conception des prompts en veillant à ce que les entrées soient pertinentes, actuelles et adaptées au contexte.
Directives de mise en œuvre
- Utilisez des instructions simples et claires, suffisamment précises pour guider le comportement, mais sans être trop restrictives.
- Organisez les prompts en sections logiques : contexte, instructions, utilisation des outils et formatage des résultats.
- Affinez et versionnez les prompts de manière itérative. Considérez-les comme des artefacts évolutifs afin d’assurer leur fiabilité à long terme.
- Assurez-vous que les définitions des outils sont sans ambiguïté et autonomes, avec un objectif clair et des résultats pertinents.
- Appliquez des prompts à quelques essais pour fournir suffisamment d’exemples sans surcharger avec des cas limites.
- Tirez parti des métadonnées (par exemple, taille des fichiers, conventions de nommage, horodatages) comme signaux de pertinence et de priorité.
- Utilisez des modèles standardisés pour garantir la cohérence entre les agents et les cas d’utilisation.
- Prévoyez des conseils de repli pour traiter avec élégance les requêtes ambiguës ou hors sujet.
- Adoptez des stratégies à long terme :
- Compactage : résumer périodiquement et redémarrer le contexte avec les informations clés.
- Mémoire agentique : permettre aux agents d’enregistrer et de récupérer les notes essentielles.
- Architectures de sous-agents : déléguer les tâches spécialisées à des agents spécialisés.
Des prompts mal conçus ou un contexte non géré conduisent les modèles à généraliser à outrance, à mal interpréter des entrées ambiguës ou à passer à côté de signaux critiques. Cela se traduit par des résultats médiocres ou des comportements dangereux. La fiabilité durable en production repose sur le traitement de la conception des prompts et du contexte comme des pratiques d’ingénierie itératives, testées, versionnées et affinées en continu à mesure que les systèmes évoluent.
Orchestration
Le niveau d’orchestration requis dépend de la complexité du système, qui est déterminée par le nombre d’outils, d’agents et de points de décision impliqués.
Considérations clés :
- Commencez par des workflows simples. Pour les cas d’utilisation peu complexes, commencez par des systèmes à agent unique ou des workflows orchestrés. Ils offrent un déploiement plus rapide, une maintenance plus facile et un risque opérationnel moindre.
- Ne passez à des architectures multi-agents que lorsque cela est nécessaire. Passez à des systèmes multi-agents lorsque des conceptions plus simples ne permettent plus de gérer efficacement la sélection des outils, la décomposition des tâches ou la coordination.
- Concevez dans un souci d’observabilité, de sécurité et de gouvernance. Assurez une visibilité de bout en bout sur l’exécution des tâches, les dépendances, les résultats, les identités des agents et les coûts.
Une orchestration efficace ne consiste pas à créer le réseau d’agents le plus complexe possible. Au contraire, exploitez toutes les capacités des systèmes plus simples avant d’introduire des couches supplémentaires d’orchestration. Chaque nouvel agent ou outil ajoute de la flexibilité, mais aussi des frais généraux en matière de gouvernance, de surveillance et de dépannage. Les systèmes les plus performants évoluent à partir de workflows clairs et bien instrumentés vers des architectures modulaires multi-agents guidées par les données opérationnelles et la valeur commerciale.
Observabilité et évaluation
L’évaluation de l’IA générative diffère de celle du machine learning (ML) : les résultats peuvent varier d’une exécution à l’autre et dépendent du contexte fourni. L’objectif est de déterminer dans quelle mesure le système atteint les objectifs fixés tout au long de son cycle de vie.
Dans la pratique, trois considérations permettent d’harmoniser et de mesurer les efforts :
- Cadre d’évaluation : définissez comment vous comparez les choix de conception et associez les indicateurs techniques aux indicateurs clés de performance (KPI) de l’entreprise afin d’établir un lien direct avec les objectifs stratégiques.
- Surveillance continue : suivez les performances et la conformité en production, en surveillant les dérives, les pics de latence/coûts et les problèmes de fiabilité.
- Human-in-the-loop (HITL) : utilisez des revues structurées pour les approbations et pour recueillir les commentaires qui alimentent les boucles d’apprentissage et les améliorations continues.
Considérez l’observabilité et l’évaluation comme des fonctionnalités intégrées. Les systèmes restent fiables lorsque les métriques sont liées aux objectifs commerciaux, que les traces permettent d’expliquer les comportements et que le retour d’information HITL boucle la boucle.
No/Low Code ou code personnalisé
Le code personnalisé offre un contrôle et une flexibilité maximaux, mais sa conception, sa sécurisation, son intégration et son exploitation nécessitent beaucoup de ressources. Une approche no/low code accélère la livraison en tirant parti de l’orchestration, des intégrations, de l’interface utilisateur, de la sécurité et de la gouvernance des fournisseurs.
- Le no/low code fonctionne mieux lorsque l’objectif est la rapidité pour des scénarios de productivité reproductibles (par exemple, synthèse, rédaction, analyse de base, automatisations simples) et lorsque les connecteurs pris en charge correspondent à votre pile et à vos besoins en matière de conformité. Le compromis est un comportement de type « boîte noire » et un contrôle moins précis.
- Optez pour le code personnalisé lorsque le cas d’utilisation est stratégiquement différenciant, nécessite des agents/outils spécialisés, une observabilité approfondie, des contrôles stricts en matière de résidence/confidentialité des données ou des intégrations non standard avec les systèmes centraux.
- Dans la pratique, vous pouvez adopter une approche hybride, commencer par le no/low code pour obtenir des résultats rapides, puis ajouter des services ou des agents personnalisés lorsque les performances, le contrôle ou la conformité l’exigent.
En règle générale, si la vitesse, la standardisation et les connecteurs existants sont les principaux moteurs et que le flux de travail ne constitue pas un avantage concurrentiel, optez pour une approche no/low code. Lorsque le contrôle, la spécialisation ou des exigences strictes en matière de conformité sont prioritaires, prévoyez une approche personnalisée ou hybride. Comme pour l’orchestration, commencez par une approche simple et ajoutez de la complexité uniquement lorsque les résultats ou les risques le justifient.
7 points clés à retenir
- Commencez par les résultats commerciaux. Ciblez un processus concret, démontrez la valeur ajoutée, puis adaptez-vous.
- Définissez une base de référence, puis adaptez la taille. Établissez les performances avec le modèle le plus performant ; testez des modèles plus petits/spécialisés et concevez-les de manière à faciliter leur remplacement.
- Concevez dans un souci d’interopérabilité. Privilégiez les connexions ouvertes et basées sur des normes pour les outils/actions et la coordination entre agents afin de réduire les adaptations personnalisées.
- Traitez le contexte et les prompts comme des atouts de premier ordre. Veillez à ce qu’ils restent simples et structurés, testez-les et gérez le contexte afin d’éviter toute généralisation excessive ou tout signal manqué.
- Veillez à ce que l’orchestration reste simple, jusqu’à ce qu’elle ne le soit plus. Commencez par un seul agent/flux de travail ; n’ajoutez des rôles multi-agents que lorsque cela est nécessaire. Rendez les rôles, les contrats de message et les boucles de rétroaction explicites.
- Évaluez ce qui compte. Liez les métriques GenAI aux KPI commerciaux et assurez une surveillance continue avec un examen HITL pour les cas à haut risque ou à faible confiance.
- Choisissez de manière pragmatique entre le No/Low code et le code personnalisé. Privilégiez les solutions qui minimisent la complexité de l’intégration et s’adaptent à votre pile existante, éventuellement grâce à une approche hybride.
Et après ?
Au fur et à mesure que l’intelligence artificielle gagne en autonomie dans son raisonnement et ses actions, son déploiement à grande échelle en toute sécurité nécessite une approche holistique de la gouvernance, étendant la gouvernance classique des données/de l’IA à la gouvernance des agents. Cela permet de maintenir les systèmes dans des limites définies et en conformité avec la politique de l’entreprise, la réglementation et les normes éthiques.
Dans le prochain article, nous aborderons les questions de gouvernance et de sécurité des IA agentiques. À suivre…
👉 Retrouvez toute notre actu en temps réel en nous suivant sur LinkedIn
Commentaire (0)
Votre adresse de messagerie est uniquement utilisée par Orange Business, responsable de traitement, aux fins de traitement de votre demande et d’envoi de toute communication de Orange Business en relation avec votre demande uniquement. En savoir plus sur la gestion de vos données et vos droits.