Projet ICARUS
Innov8 Custom AI Response Unified System
Architecture d'intelligence artificielle souveraine. L'alternative locale et privée aux solutions Cloud pour le groupe Innov8.
La Genèse
ICARUS est né d'un constat simple : l'IA générative est devenue un outil de productivité indispensable, mais l'externalisation de nos données métier sur des serveurs tiers représente un risque de souveraineté inacceptable.
La Vision
Nous ne construisons pas juste un chatbot. Nous architecturons un système capable de comprendre et d'analyser nos flux internes (EDI, rapports, documentation) sans jamais franchir les frontières du réseau Innov8.
Capacités Validées
Malgré les contraintes de vitesse actuelles, le POC a démontré une polyvalence exceptionnelle. Tout ce qui suit est opérationnel en environnement local :
Intelligence Agentique
- Personnalité "Bruce" via rules.md
- Skills avancés en Code & Git
- Pilotage de Projet
Gestion Documentaire
- Rédaction & Documentation Auto
- Analyse de documents
- Workflows personnalisables
"Le potentiel est virtuellement illimité : chaque employé pourra disposer d'une interface sur-mesure, connectée via MCP à nos outils comme Navision."
État de la Recette
Modèle & Stack
Qwen3.5:4b
Ollama + VS Code
Host de Test (POC)
Dell Latitude 7350
Ultra 7 165U • 16 Go RAM
Analyse Bruce
Le POC confirme la viabilité fonctionnelle sur Windows 11 Pro. Une optimisation via hardware dédié est requise pour le passage à l'échelle.
Extension Memory Layer
Une nouvelle étude est lancée pour ajouter à ICARUS une couche mémoire persistante inspirée de MemPalace : stockage verbatim, recherche vectorielle locale et restitution du raisonnement complet plutôt qu'un simple résumé amnésique. Oui, c'est un projet déraisonnablement ambitieux. C'est aussi précisément le genre d'idée qui change une démo en plateforme.
Principe clé
Ne rien jeter trop tôt : conserver les échanges et décisions en brut, puis les rendre retrouvables au lieu de laisser un modèle décider arbitrairement de ce qui mérite de survivre.
Bénéfice visé
Donner à Bruce une mémoire projet durable : décisions passées, arbitrages, historiques d'incidents, contexte métier et chaîne de raisonnement réutilisables sans repartir de zéro à chaque session.
Contrainte non négociable
100% local, 0 cloud, gouvernance stricte des données et cloisonnement par espace projet. Une mémoire géniale qui fuite est juste un incident de sécurité très bien rangé.
Architecture à Étudier
Stockage source
Journal verbatim des conversations, décisions, prompts techniques, sorties et pièces de contexte associées.
Indexation locale
Embeddings et recherche sémantique sur machine locale pour retrouver faits, événements, alternatives et découvertes par projet.
Compression utile
Étudier une couche de synthèse compacte lisible par le LLM sans perdre la source de vérité brute derrière.
Cas d'Usage Innov8
- Reprise immédiate d'un dossier EDI ou Salesforce sans reconstituer manuellement le contexte de plusieurs semaines.
- Capitalisation des décisions d'architecture du LAB, des arbitrages techniques et des retours d'expérience projet.
- Mémorisation structurée des clients, interlocuteurs, incidents, workflows et dépendances entre outils internes.
- Préparation de réponses plus cohérentes pour Bruce V1, avec moins de redondance et plus de continuité métier.
96.6%
Score brut revendiqué
100%
Score hybride annoncé
0€
Licence de référence
Lecture Bruce : les chiffres sont spectaculaires mais doivent être traités comme un signal de potentiel, pas comme une vérité sacrée. Ce qui nous intéresse n'est pas le storytelling benchmarké, c'est l'idée d'une mémoire complète, locale et interrogeable, adaptée à nos contraintes de souveraineté.
Décision proposée
Lancer un chantier exploratoire sur une brique mémoire ICARUS : persistance des échanges, indexation vectorielle locale, récupération contextuelle par projet et protocole d'effacement maîtrisé. Autrement dit : donner enfin à l'assistant une mémoire digne de ce nom, sans vendre notre cerveau au cloud.
Optimisation TurboQuant
TurboQuant est une annonce très récente, tombée aujourd'hui, avec un potentiel sérieux pour améliorer l'efficience d'ICARUS via la compression du KV Cache. C'est prometteur, mais encore à tester proprement sur notre stack réelle.
Hypothèse de travail : si les gains annoncés se confirment, TurboQuant pourrait réduire fortement la pression mémoire et accélérer l'inférence locale sur notre POC. Priorité : benchmarker rapidement l'impact réel avant de l'intégrer au récit produit.
≥6×
KV Cache Reduction
Up to 8×
Inference Speedup
0%
Accuracy Loss
Informations
Roadmap Mémoire
Étape 01
Cadrer un modèle de stockage persistant par projet, utilisateur et type de souvenir.
Étape 02
Benchmarker la recherche locale et la compression contextuelle sans perte critique d'information.
Étape 03
Brancher la mémoire sur Bruce V1 avec règles d'effacement, auditabilité et cloisonnement fort.
Pilotage Technique
Vincent Astoul
Architect & Lead Tech