# Notes — Patrick Colm Audley

*Notes de travail, prises de position et courts essais. Republiées depuis diverses plateformes afin qu'elles survivent
à chacune d'entre elles.*

Auteur : [Patrick Colm Audley](https://patrickaudley.com/) · Licence : Creative Commons BY-NC-SA CAv2.5 · Page
d'accueil canonique : <https://patrickaudley.com/#notes>

Chaque billet est également disponible en Markdown autonome à `/posts/{slug}.md`.

---


## Les principes d'ingénierie se doivent d'être une politique exécutable, non point une nostalgie de diaporama

**Date :** 2026-05-01 · **Republié depuis :**
[Reddit (r/GeminiCLI)](https://www.reddit.com/r/GeminiCLI/comments/1t146xk/keep_your_agents_in_line_codingethos_turns/)
· **Étiquettes :** `agents IA`, `politique-en-code`, `coding-ethos`, `mcp`, `analyse statique`

> Si les normes de votre équipe demeurent ensevelies dans un diaporama, vos agents d'IA les enfreindront assurément.
coding-ethos compile un unique fichier YAML en configurations de linters, crochets git, consignes pour agents et serveur
MCP, de sorte que les règles ne puissent dériver entre lecteurs humains et lecteurs machines.

Le constat auquel je me heurte moult fois dans les architectures multi-agents est que les principes d'ingénierie
auxquels une équipe tient véritablement — la gestion des erreurs, le moment opportun d'encapsuler un appel shell, ce
qui constitue un chemin critique — demeurent enfouis dans quelque page wiki ou quelque diaporama que nul ne consulte.
C'est déjà un écueil pour les humains ; pour un agent LLM, c'est l'assurance d'une transgression des règles.

[coding-ethos](https://github.com/paudley/coding-ethos) incarne la position que j'ai adoptée : ces principes
appartiennent à un unique fichier `coding_ethos.yml`, et de ce seul fichier la compilation engendre tout ce qui doit en
avoir connaissance — instructions d'agents `CLAUDE.md` / `GEMINI.md`, configurations Ruff / Pyright / golangci-lint,
crochets pre-commit compilés en Go, garde-fous d'utilisation d'outils pour agents, et un serveur Model Context Protocol
que l'agent peut interroger à l'exécution.

L'invariant cardinal : le moteur qui rédige les règles en markdown est le même, exactement, que celui qui évalue les
expressions Common Expression Language au niveau du crochet git. Ils *ne sauraient* dériver. Si le crochet refuse une
action, l'agent reçoit en retour un indice structuré `skill_id` plutôt qu'un code de sortie générique — de sorte
que la boucle de rétroaction se referme dans le contexte propre de l'agent, au lieu d'atterrir sur l'écran d'un
humain.

Fort opiniâtre, actuellement orienté vers Python et Go, en développement actif. Publié sur r/GeminiCLI avec des
exemples détaillés ;
[lisez le fil d'origine](https://www.reddit.com/r/GeminiCLI/comments/1t146xk/keep_your_agents_in_line_codingethos_turns/)
si vous souhaitez le parcours d'implémentation, et les demandes de fonctionnalités sont les bienvenues sur le
[dépôt](https://github.com/paudley/coding-ethos).

*Autonome : <https://patrickaudley.com/posts/coding-ethos-runnable-policy.md> · Ancre canonique :
<https://patrickaudley.com/#post-coding-ethos-runnable-policy>*

---

## Les Graph Neural Networks canoniques requièrent des variétés sémantiques courbes

**Date :** 2026-04-22 · **Republié depuis :**
[LinkedIn](https://www.linkedin.com/feed/update/urn:li:activity:7458177770238681088/) · **Étiquettes :**
`analyse topologique des données`, `réseaux de neurones sur graphes`, `apprentissage de variétés`,
`représentation des connaissances`

> Les GNN canoniques se trouvent structurellement contraints lorsqu'il s'agit de cartographier l'attribution textuelle
complexe ; l'agrégation linéaire en espace euclidien plat entraîne inévitablement une dérive sémantique. Je
cherche à nouer des liens avec des chercheurs en TDA, en apprentissage géométrique profond et en théorie spectrale
des graphes.

Les Graph Neural Networks canoniques se trouvent structurellement contraints lorsqu'il s'agit de cartographier
l'attribution textuelle complexe : l'agrégation linéaire en espace euclidien plat entraîne inévitablement une
dérive sémantique. Pour représenter fidèlement un savoir de haute dimension, il faut opérer la transition vers des
variétés sémantiques courbes, où la géométrie elle-même porte la structure relationnelle.

Au fil de trente années passées à bâtir des pipelines d'analyse scientifique — génétique, imagerie satellitaire,
applications financières multi-continentales à haute résilience — le fil conducteur est demeuré le même : les
représentations doivent rester mathématiquement fidèles à leur géométrie sous-jacente, faute de quoi elles cessent
d'être interprétables à l'instant même où les données quittent l'ensemble de développement.

J'ai récemment publié en open source un cadriciel qui découvre des relations émergentes de graphes de connaissances
dans des espaces vectoriels sémantiques d'ordre supérieur, par apprentissage de variétés et analyse spectrale. Les
preuves initiales, un bref avant-goût et le code Python se trouvent sur
[paudley/nonlinear-semantic-graphs](https://github.com/paudley/nonlinear-semantic-graphs) ; l'article de travail qui
motive la conception figure dans les [Publications](#emergent-knowledge-graphs).

Je cherche à nouer des liens avec des chercheurs et scientifiques appliqués spécialisés en **Topological Data
Analysis**, **Geometric Deep Learning** et **Knowledge Representation** — tout particulièrement quiconque œuvre sur
l'agrégation géodésique ou la théorie spectrale des graphes — afin de porter ces idées vers des déploiements
industriels robustes.
[Commentez le billet LinkedIn d'origine](https://www.linkedin.com/feed/update/urn:li:activity:7458177770238681088/) ou
[écrivez-moi directement](#contact).

*Autonome : <https://patrickaudley.com/posts/graph-neural-networks-need-curved-manifolds.md> · Ancre canonique :
<https://patrickaudley.com/#post-graph-neural-networks-need-curved-manifolds>*

---

