Blog
Essais et notes pratiques sur la provenance, la mémoire SDLC et la gouvernance de delivery à l’ère de l’IA.
✓ expand_more
Ce guide explique comment automatiser un blog Markdown en pipeline de publication multilingue à l’aide des agents GitHub Copilot, où un orchestrateur coordonne des sous-agents par langue, met à jour les résumés README, applique des hooks et des skills comme garde-fous, et produit des résultats reproductibles et scalables.
✓ expand_more
Dans « Part 1 - From RAG to Provenance: How We Realized Vector Alone Is Not Memory », nous sommes passés de RAG à la provenance, de la similarité à la lignée. Mais si les agents d’IA génèrent 50 à 80 % du travail futur, la vraie question devient : comment la mémoire se met-elle à jour en toute sécurité ? Comment les nouvelles décisions sont-elles validées, reliées et gouvernées, au lieu d’être simplement intégrées sous forme d’embeddings ? Cet article montre étape par étape le processus incrémental de mise à jour du graphe de mémoire des décisions avec un exemple réel. Car à l’ère de l’IA, la mémoire doit évoluer, pas seulement récupérer.
✓ expand_more
Et si votre SDLC ne se souvenait en réalité de rien et ne faisait que récupérer des fragments ? Nous avons construit de puissants systèmes RAG capables de faire apparaître un texte « pertinent » en quelques millisecondes. Mais la pertinence n’est pas la causalité. Et lorsqu’un incident survient en production, la similarité ne vous dira pas pourquoi cela s’est produit ni quelle décision, quel risque ou quelle dépendance y a conduit. Dans cet article, j’explique pourquoi la recherche vectorielle seule n’est pas une mémoire, comment la structure en graphe change la donne, et comment la combinaison des vecteurs avec un modèle strict de provenance transforme une documentation dispersée en quelque chose qui se rapproche davantage d’une cognition organisationnelle. Si l’explicabilité, la lignée des décisions et l’intelligence réelle de livraison vous intéressent, cet article est pour vous.
✓ expand_more
En construisant SDLC Memory, je me suis retrouvé face à un dilemme architectural inattendu. Le système doit-il raisonner comme un agent autonome, se comporter comme un transformateur de données déterministe, ou se situer quelque part entre les deux ? Je suis encore en train de décider quelle direction est la bonne pour le MVP.