ICARUS
Projet Alpha • Beta 0.1

Projet ICARUS

Innov8 Custom AI Response Unified System

Architecture d'intelligence artificielle souveraine. L'alternative locale et privée aux solutions Cloud pour le groupe Innov8.

Live Demo

La Genèse

ICARUS est né d'un constat simple : l'IA générative est devenue un outil de productivité indispensable, mais l'externalisation de nos données métier sur des serveurs tiers représente un risque de souveraineté inacceptable.

La Vision

Nous ne construisons pas juste un chatbot. Nous architecturons un système capable de comprendre et d'analyser nos flux internes (EDI, rapports, documentation) sans jamais franchir les frontières du réseau Innov8.

Capacités Validées

Malgré les contraintes de vitesse actuelles, le POC a démontré une polyvalence exceptionnelle. Tout ce qui suit est opérationnel en environnement local :

Intelligence Agentique

  • Personnalité "Bruce" via rules.md
  • Skills avancés en Code & Git
  • Pilotage de Projet

Gestion Documentaire

  • Rédaction & Documentation Auto
  • Analyse de documents
  • Workflows personnalisables

"Le potentiel est virtuellement illimité : chaque employé pourra disposer d'une interface sur-mesure, connectée via MCP à nos outils comme Navision."

État de la Recette

Modèle & Stack

Qwen3.5:4b
Ollama + VS Code

Host de Test (POC)

Dell Latitude 7350
Ultra 7 165U • 16 Go RAM

CPU Load 57%
RAM Usage 91%
GPU 24%

Analyse Bruce

Le POC confirme la viabilité fonctionnelle sur Windows 11 Pro. Une optimisation via hardware dédié est requise pour le passage à l'échelle.

Piste R&D • Mémoire Longue Durée

Extension Memory Layer

Une nouvelle étude est lancée pour ajouter à ICARUS une couche mémoire persistante inspirée de MemPalace : stockage verbatim, recherche vectorielle locale et restitution du raisonnement complet plutôt qu'un simple résumé amnésique. Oui, c'est un projet déraisonnablement ambitieux. C'est aussi précisément le genre d'idée qui change une démo en plateforme.

Principe clé

Ne rien jeter trop tôt : conserver les échanges et décisions en brut, puis les rendre retrouvables au lieu de laisser un modèle décider arbitrairement de ce qui mérite de survivre.

Bénéfice visé

Donner à Bruce une mémoire projet durable : décisions passées, arbitrages, historiques d'incidents, contexte métier et chaîne de raisonnement réutilisables sans repartir de zéro à chaque session.

Contrainte non négociable

100% local, 0 cloud, gouvernance stricte des données et cloisonnement par espace projet. Une mémoire géniale qui fuite est juste un incident de sécurité très bien rangé.

Architecture à Étudier

Stockage source

Journal verbatim des conversations, décisions, prompts techniques, sorties et pièces de contexte associées.

Indexation locale

Embeddings et recherche sémantique sur machine locale pour retrouver faits, événements, alternatives et découvertes par projet.

Compression utile

Étudier une couche de synthèse compacte lisible par le LLM sans perdre la source de vérité brute derrière.

Cas d'Usage Innov8

  • Reprise immédiate d'un dossier EDI ou Salesforce sans reconstituer manuellement le contexte de plusieurs semaines.
  • Capitalisation des décisions d'architecture du LAB, des arbitrages techniques et des retours d'expérience projet.
  • Mémorisation structurée des clients, interlocuteurs, incidents, workflows et dépendances entre outils internes.
  • Préparation de réponses plus cohérentes pour Bruce V1, avec moins de redondance et plus de continuité métier.

96.6%

Score brut revendiqué

100%

Score hybride annoncé

0€

Licence de référence

Lecture Bruce : les chiffres sont spectaculaires mais doivent être traités comme un signal de potentiel, pas comme une vérité sacrée. Ce qui nous intéresse n'est pas le storytelling benchmarké, c'est l'idée d'une mémoire complète, locale et interrogeable, adaptée à nos contraintes de souveraineté.

Décision proposée

Lancer un chantier exploratoire sur une brique mémoire ICARUS : persistance des échanges, indexation vectorielle locale, récupération contextuelle par projet et protocole d'effacement maîtrisé. Autrement dit : donner enfin à l'assistant une mémoire digne de ce nom, sans vendre notre cerveau au cloud.

News du jour • 25/03/2026

Optimisation TurboQuant

TurboQuant est une annonce très récente, tombée aujourd'hui, avec un potentiel sérieux pour améliorer l'efficience d'ICARUS via la compression du KV Cache. C'est prometteur, mais encore à tester proprement sur notre stack réelle.

Hypothèse de travail : si les gains annoncés se confirment, TurboQuant pourrait réduire fortement la pression mémoire et accélérer l'inférence locale sur notre POC. Priorité : benchmarker rapidement l'impact réel avant de l'intégrer au récit produit.

≥6×

KV Cache Reduction

Up to 8×

Inference Speedup

0%

Accuracy Loss

Informations

Confidentialité 100% Offline
Coût licences 0€
Status Optimisation

Roadmap Mémoire

Étape 01

Cadrer un modèle de stockage persistant par projet, utilisateur et type de souvenir.

Étape 02

Benchmarker la recherche locale et la compression contextuelle sans perte critique d'information.

Étape 03

Brancher la mémoire sur Bruce V1 avec règles d'effacement, auditabilité et cloisonnement fort.

Pilotage Technique

VA

Vincent Astoul

Architect & Lead Tech