ShiftAI
Méthodologie Open-Source

Construisez des Systèmes Multi-Agents
Qui Fonctionnent Vraiment en Production

AOPD est le framework neuro-symbolique qui transforme des agents IA imprévisibles en systèmes fiables, auditables et conformes.
Pas un framework de plus. Une méthodologie pour bien les utiliser.

Les agents orchestrent. Le code exécute. Chaque décision est tracée, scorée et gouvernée.

Neuro-SymboliqueFlow EngineeringEU AI Act ReadyCC BY-SA 4.0
Le Problème

Les Frameworks Multi-Agents Sont Puissants.
Mais Ils Ne Garantissent Pas la Fiabilité.

Trois problèmes critiques émergent dans chaque déploiement en production.

Non-Déterminisme

Quand les agents dialoguent librement, leurs comportements deviennent imprévisibles. Les scratchpads partagés polluent le contexte au lieu de le clarifier.

Auto-Correction Illusoire

Les LLMs ne corrigent leurs propres erreurs que 64.5% du temps. Se fier à l'auto-correction, c'est accepter qu'un tiers des erreurs passe en silence.

Explosion des Coûts

Sans contrôle strict des flux, les systèmes multi-agents génèrent des boucles infinies et des échanges superflus qui multiplient les tokens de manière exponentielle.

La Cause Racine

Ce ne sont pas des problèmes de technologie. Ce sont des problèmes de méthodologie. AOPD les résout au niveau de l'architecture.

Principes Fondateurs

Trois Axiomes,
Zéro Compromis

Chaque décision de design dans AOPD découle de ces principes non négociables.

01

Séparation Neuro-Symbolique

L'agent orchestre, le code exécute. Un agent ne doit jamais simuler une logique qui peut être codée de manière déterministe.

Un LLM qui fait un calcul, c'est un anti-pattern. Un LLM qui décide quel calcul lancer et interprète le résultat, c'est un agent bien conçu.

02

Flow Engineering

La collaboration émergente est remplacée par des flux dirigés. Tout graphe d'agents a un état terminal et un mécanisme de terminaison garanti.

Plus de conversations ouvertes entre agents. Chaque transition est typée, conditionnelle et validée par du code.

03

Fiabilité Probabiliste

AOPD ne crée pas des logiciels qui pensent. Il crée des logiciels probabilistes fiables, mesurables et auditables.

Chaque décision d'un agent produit un score de confiance calibré empiriquement, pas estimé arbitrairement.

Architecture Cœur

L'Agent Unit :
Brain-Tool-Validator-Meta

Chaque agent AOPD est structuré en quatre composants distincts avec une séparation claire des responsabilités.

Brain

Neural

Gère l'analyse d'intention, la sélection d'outils et le raisonnement contextuel. N'exécute jamais de logique métier directement.

Tool

Symbolique

Exécute les actions déterministes : appels API, calculs, requêtes. Signatures typées avec gestion d'erreurs explicite.

Validator

Symbolique / Neural

Vérifie la conformité via des règles codées (production) ou LLM-as-Judge avec atténuation des biais (tâches créatives).

Confidence Estimator

Méta

Évalue la confiance indépendamment : intrinsèque (probs du modèle), contextuelle (similarité avec l'entraînement), consistance (accord multi-génération).

Flux de Décision

Au-dessus du seuil : continuer

Proche du seuil : reformulation et retry

En dessous du seuil : escalade humaine

Patterns de Collaboration

Quatre Topologies,
Chacune pour un Contexte Précis

AOPD prescrit le bon pattern de collaboration selon les exigences de votre système.

Supervisor

Contrôle centralisé avec routage explicite et gestion d'état global.

Cas d'usage:Pipelines séquentiels, tâches bien définies
Déterminisme:5/5
Auditabilité:5/5

Hierarchical

Délégation en cascade avec équipes spécialisées et parallélisme au niveau équipe.

Cas d'usage:Projets complexes multi-domaines
Déterminisme:4/5
Auditabilité:4/5

Peer-to-Peer

Communication directe via protocole de messages structurés, pas de point unique de défaillance.

Cas d'usage:Négociation, consensus, débat
Déterminisme:3/5
Auditabilité:3/5

Swarm

Agents autonomes avec règles locales et état partagé. Les comportements collectifs émergent.

Cas d'usage:Exploration parallèle, recherche uniquement
Déterminisme:2/5
Auditabilité:1/5
Observabilité & Sécurité

CogOps 2.0 :
Observabilité Complète pour Systèmes IA

Chaque interaction est tracée, chaque décision scorée, chaque anomalie détectée.

Traces Complètes

Chaque interaction produit une trace complète : I/O hashées, spans d'exécution, décomposition de confiance, coûts en tokens et lignage complet.

Métriques à Trois Niveaux

Micro (Agent)

  • Précision Golden Dataset >= 95%
  • Taux d'hallucination d'outils < 1%
  • Latence P99 < 10s

Méso (Interaction)

  • Taux de handoff réussi >= 98%
  • Taux d'escalade < 10%
  • Nombre de cycles < 3

Macro (Système)

  • Succès end-to-end >= 95%
  • Alerte drift > 5%
  • Disponibilité >= 99.5%

Circuit Breakers

Trois mécanismes de protection automatique :

  • Anti-boucle : détection de répétitions par similarité cosinus > 0.95
  • Confiance : escalade ou abort quand le seuil est franchi
  • Budget : limites strictes sur le nombre de tokens et le coût en dollars
Conformité Réglementaire

EU AI Act
Conformité Intégrée

AOPD mappe chaque exigence des articles 9-15 vers des composants architecturaux concrets.

Art. 9

Gestion des Risques

Méthodologie FMEA trimestrielle avec échelle de sévérité à 5 points

Art. 10

Gouvernance des Données

Documentation des données d'entraînement et évaluation des biais

Art. 11

Documentation Technique

Auto-générée à partir des IntentSpecs, traces et Golden Datasets

Art. 12

Conservation des Enregistrements

Couverte par les traces complètes CogOps 2.0

Art. 13

Transparence

Notification IA utilisateur et documentation déployeur

Art. 14

Supervision Humaine

Mécanismes d'escalade et boutons d'arrêt intégrés

Art. 15

Précision & Sécurité

AES-256, RBAC, défense anti-injection, audit immutable

Conformité Auto-Générée

Le dossier de conformité complet avec tous les documents requis et leurs annexes peut être généré automatiquement depuis votre configuration AOPD.

Méthodologie de Développement

Eval-Driven Development :
Tester le Probabiliste

Le TDD classique ne fonctionne pas pour l'IA. AOPD le remplace par l'EDD : on ne développe pas une fonctionnalité, on optimise une métrique.

01

Définir

Golden Dataset de 100+ exemples couvrant tous les cas limites

02

Mesurer

Établir le score de base sur tous les types d'évaluation

03

Itérer

Changement de prompt, run d'évaluation, vérification du score. Répéter jusqu'à la cible.

04

Livrer

Déployer uniquement quand le score atteint le seuil calibré

IntentSpec 2.0

Le document de référence exécutable pour chaque agent. Remplace les spécifications fonctionnelles traditionnelles. Un validateur CLI vérifie la cohérence du schéma, l'existence des outils et la couverture du Golden Dataset.

Tests Adversariaux

Entrées malformées, cas limites, tentatives d'injection, détection hors distribution. Échantillonnage continu (1-10%) pour surveiller la dérive en production.

Commencez Maintenant

Prêt à Construire des
Systèmes Multi-Agents Fiables ?

AOPD est open-source. ShiftAI vous aide à l'implémenter correctement.

Open-source sous licence CC BY-SA 4.0. Agnostique des frameworks avec mappings de référence vers LangGraph et CrewAI. SDK Python prévu pour Q4 2026.