Sunday, 14 December 2025

AA : world model Kosmos

 

Voici une explication technique du “world model” structuré de Kosmos (Edison Scientific) — la brique qui lui permet de conserver le fil d’un programme de recherche sur centaines d’actions, au‑delà d’une simple fenêtre de contexte LLM.


1) Principe général


Le world model est une mémoire de long terme, structurée et requêtable, que Kosmos maintient tout au long d’un run. Il capture et relie ce que les agents font et apprennent (littérature lue, code exécuté, résultats, hypothèses, questions ouvertes), afin que l’objectif de recherche reste cohérent malgré la diversité et la durée des tâches (jusqu’à ~200 rollouts sur ~12 heures). Contrairement à une fenêtre de contexte brute, ce modèle est structuré (schéma, entrées typées) et interrogeable, de sorte que les informations des premières étapes restent accessibles et réutilisables après des dizaines de milliers de tokens. [deepmind.google], [taylorfrancis.com]


2) Schéma et contenus


Concrètement, le world model est décrit comme une base de :


Entités (gènes, protéines, composés, cohortes, phénotypes, matériaux, etc.),

Relations (interactions, causalités supposées, liens bibliographiques),

Résultats expérimentaux (sorties de notebooks, statistiques, figures),

Tâches accomplies et à venir,

Ouvertures (questions non résolues, pistes d’hypothèses),

Provenances (citations vers la littérature primaire et/ou cellules de code).\ Chaque insertion est typée et vient avec métadonnées, ce qui permet à Kosmos d’y écrire les outputs d’agents et d’y lire ce qui est pertinent pour planifier la suite. [deepmind.google], [taylorfrancis.com]

3) Cycle écrire → lire → réviser (agents)


À chaque cycle, Kosmos propose jusqu’à ~10 tâches en fonction de l’objectif et de l’état courant du world model. Les deux agents principaux :


Literature search agent (récupère, lit, extrait et cite),

Data analysis agent (écrit du code, l’exécute, résume les sorties).

Chaque agent écrit dans le world model un artefact structuré (résultat, assertion, relation, piste), avec provenance (passage bibliographique précis ou cellule notebook). Le plan est alors révisé à partir de ce graphe enrichi pour le cycle suivant, ce qui ferme la boucle et garantit un chemin de raisonnement cumulatif. [taylorfrancis.com], [amazon.com]


4) Requêtes et synthèse finale


Une fois qu’assez de matière est accumulée, un composant de synthèse parcourt le world model et émet un rapport scientifique : chaque énoncé est lié soit à une cellule Jupyter (code+sortie), soit à un passage de la littérature primaire (traceability by design). Le world model sert donc de source unique de vérité pour requêter “Quelles preuves étayent X ?” ou “Quel code produit Y ?”, et pour composer un récit scientifique auditable. [taylorfrancis.com], [deepmind.google]


5) Pourquoi c’est le cœur de la cohérence de Kosmos


Edison insiste sur le fait que la limite des anciens “AI scientists” était la perte de cohérence au‑delà d’un petit nombre d’actions (fenêtre de contexte finie). Dans Kosmos, le world model permet de maintenir une ligne d’enquête sur des millions de tokens, en cumulant les informations extraites au fil de centaines de trajectoires d’agents ; typiquement un run lit ~1 500 papiers et exécute ~42 000 lignes de code, et la cohérence est maintenue car tout est réécrit et relu via la structure commune.\ Les synthèses de presse décrivent explicitement ce modèle comme un “structured world model”/raisonnement structuré (vs. simple chat), conçu pour des workloads de recherche profonds. [amazon.com], [deepmind.google] [youtube.com], [taylorfrancis.com]


6) Provenance et auditabilité


Le design impose que chaque phrase du rapport final pointe vers la littérature primaire ou vers une cellule notebook (code + sortie). C’est une différence majeure avec les systèmes “boîte noire” : on peut auditer une assertion et remonter soit au papier exact (page/paragraphe), soit à la ligne de code qui l’a produite. Les évaluations externes rapportent ~79,4 % d’exactitude globale des énoncés, avec des taux plus élevés côté données et littérature, et plus bas côté synthèse (où le système combine des pièces de preuve). [taylorfrancis.com], [en.wikipedia.org]


7) Exemple (schéma JSON) d’un enregistrement du world model


Ce bloc illustre la structure typique décrite par Kosmos : entité → assertion → provenance (code / littérature). Ce n’est pas le schéma officiel, mais un exemple plausible conforme aux descriptions publiques.


{


  "entity": {


    "type": "protein",


    "id": "SOD2",


    "name": "Superoxide Dismutase 2"


  },


  "assertion": {


    "type": "causaleffect",


    "statement": "Elevated circulating SOD2 levels are causally associated with reduced myocardial fibrosis.",


    "confidence": 0.78,


    "support": [


      {


        "kind": "dataresult",


        "notebookcellid": "nb://run17/cell142",


        "metric": "IVW MR beta",


        "value": -0.21,


        "pvalue": 0.004


      },


      {


        "kind": "literature",


        "sourceid": "doi:10.XXXX/primary.study",


        "passage": "Methods §MR: SOD2 instrument selection and fibrosis endpoint"


      }


    ],


    "openquestions": [


      "Replication in non-ischemic cardiomyopathy cohorts?",


      "Dose-response versus threshold effect?"


    ]


  },


  "relations": [


    {"from": "SOD2", "to": "fibrosis", "type": "protectiveeffect"}


  ],


  "timestamps": {


    "createdat": "2025-11-06T02:15: "createdat": "2025-11-06T02:15:00Z",


    "updated_at": "2025-11-06T06:40:00Z"


  }


Dans Kosmos, de tels enregistrements sont écrits/actualisés à chaque cycle, puis requêtés par la composante de synthèse pour produire le rapport final liant statement → preuve. [deepmind.google], [amazon.com]


8) Conseils d’usage (pour tirer parti du world model)


Formuler clairement l’objectif (open‑ended mais précis) et fournir un dataset initial : Kosmos utilise ces deux éléments comme semence du world model. [deepmind.google]

Normaliser le vocabulaire (ontologie/gene‑symbols/material terms) pour éviter les doublons d’entités et améliorer la recherche/planification. [taylorfrancis.com], [youtube.com]

Exiger la provenance pour toute assertion ; c’est natif, mais c’est aussi votre critère d’acceptation (ne pas valider d’affirmation sans lien code/littérature). [taylorfrancis.com]

9) Limites et points de vigilance


La synthèse multi‑preuves reste l’étape la plus délicate (≈57,9 % d’exactitude), car elle combine plusieurs sources ; prévoir revue humaine et réplication. [taylorfrancis.com], [en.wikipedia.org]

Risque de pistes spurieuses si le world model agrège des signaux faibles ; d’où l’intérêt de garde‑fous (seuils statistiques, pénalités sur p‑hacking, priorisation d’études de meilleure qualité). [en.wikipedia.org], [taylorfrancis.com]

Nécessité d’ontologies et d’ID normalisés (gènes, variants, matériaux) pour éviter la dérive sémantique sur cycles longs. [taylorfrancis.com], [youtube.com]

10) Ce qui le distingue d’un simple knowledge graph ou d’un notebook


Le world model de Kosmos ressemble à un KG scientifique mais il est opérationnel :


Il est alimenté en continu par des agents (code & lecture), pas un import statique ;

Il oriente la planification (proposition de tâches) et la synthèse, pas seulement la recherche d’informations ;

Il impose la provenance exécutable (cellules de code) autant que bibliographique, ce qu’un KG classique n’offre pas par défaut. [deepmind.google], [youtube.com]

*

Références utiles

Paper arXiv (04–05 nov. 2025) : “Kosmos: An AI Scientist for Autonomous Discovery” (architecture, world model, métriques). [deepmind.google]

Annonce Edison Scientific (05 nov. 2025) & plateforme (modules, cas R\&D). [amazon.com], [gomagic.org]

Analyses média (MarkTechPost, Digit, New Scientist) — chiffres et comparaisons. [taylorfrancis.com], [youtube.com], [en.wikipedia.org]

Si tu veux, je peux te modéliser un petit world model de démo (JSON/YAML) pour ton domaine (ex. cardio‑métabolique) et te montrer comment un agent d’analyse viendrait l’enrichir en 2–3 cycles (avec un notebook “proxy”).

AA: Agentic ai Kosmos

Résume https://youtu.be/M0I5u6kfZgM?si=--22NxnEE3sWAHJB

Cette vidéo, intitulée "Cette IA vient de faire 7 découvertes scientifiques en 1 jour" [00:18], présente Cosmos, un système d'IA agentique développé par Edison Scientific (Future House), et explore son potentiel à révolutionner la recherche scientifique en compressant des mois de travail humain en une seule journée.
Voici un résumé structuré des points clés de la vidéo :
1. Le Problème de la Productivité Scientifique
 * Saturation de l'Information : La productivité scientifique mondiale est en déclin car le volume des publications scientifiques explose. Un chercheur humain ne peut physiquement plus lire et absorber la quantité d'articles publiés (on estime qu'il faut 15 minutes pour lire correctement un seul article) [01:20].
 * Limitation des Anciens Modèles : Les modèles d'IA précédents, comme Robin de Future House, avaient une "fenêtre de contexte" limitée, limitant la complexité des découvertes qu'ils pouvaient faire [02:05].
2. Cosmos : L'IA Agentique et son "World Model"
Cosmos est présenté comme un système d'IA agentique qui change la donne grâce à son concept de "world model structuré" [02:25].
 * Fonctionnement : Cosmos modélise les relations scientifiques (entre molécules, voies biologiques, données cliniques, hypothèses testées) de manière organisée. Il compresse l'information, identifie des schémas (patterns) et les lacunes dans la connaissance [02:57].
 * Autonomie et Planification : Un scientifique humain lance une mission de recherche simple (une ou deux lignes) [03:17]. Cosmos prend le relais en tournant de manière autonome pendant 12 à 48 heures, déployant des centaines d'agents en parallèle pour la revue de littérature et l'analyse de données, le tout coordonné par le world model central [03:31].
3. La Compression du Temps et les Performances
 * Chiffres Clés : En une seule exécution (run), Cosmos lit en moyenne 1500 articles scientifiques, exécute environ 40 000 lignes de code d'analyse et produit un rapport scientifique complet [03:49].
 * Accélération Massive : Des vrais chercheurs ont estimé qu'il leur aurait fallu en moyenne 6,14 mois pour arriver manuellement aux mêmes conclusions qu'un run complet de Cosmos [04:40].
 * Loi de Scaling : La productivité de Cosmos s'accélère linéairement avec le temps d'inférence, ce qui pourrait être une des premières lois de scaling (mise à l'échelle) en temps d'inférence pour la recherche scientifique [05:11].
4. Découvertes Concrètes
Cosmos a réalisé sept découvertes majeures, dont quatre complètement inédites [05:40] :
 * Reproductions : Il a reproduit des résultats humains existants, comme l'identification d'une perturbation de voie métabolique dans le cerveau de souris hypothermiques (résultat qui n'existait que dans un manuscrit non publié) [05:53] et des règles de connectivité neuronale.
 * Nouveautés : Il a trouvé des preuves que des niveaux élevés de l'enzyme SOD2 pourraient réduire la fibrose cardiaque [06:25], a proposé un nouveau mécanisme moléculaire pour réduire le risque de diabète de type 2 [06:33], a construit une méthode pour reconstruire la séquence d'événements menant à l'accumulation de protéines Tau dans la maladie d'Alzheimer [06:45], et a découvert un indice sur pourquoi certains neurones meurent en premier dans l'Alzheimer [06:51].
5. Limitations et Futur
 * Précision : Le taux de précision des affirmations dans les rapports de Cosmos est de 79,4 % (ce qui signifie que 20 % ne le sont pas) [07:31].
 * Coût et Accessibilité : Cosmos coûte environ 200 $ par run et est un outil de deep research, non un chatbot de conversation. L'interface est encore considérée comme simple (version 1.0/2.0) [07:40].
 * L'Amélioration Récursive : La véritable révolution se produira lorsque l'IA sera capable d'accélérer la recherche sur le design de modèles IA et la stratégie d'entraînement elle-même [08:48]. Cela pourrait mener rapidement à l'AGI (Intelligence Artificielle Générale) par auto-amélioration récursive, transformant des décennies de progrès en quelques années [09:04].
Le coût moyen de développement des médicaments pourrait être réduit de 2,6 milliards de dollars à environ 700 millions grâce à l'IA, marquant un véritable moment de bascule [09:46].


Tuesday, 9 December 2025

FR LV: l'oubli universel

Universaux.


Foutue Liberté, grosse de plaisirs, prédatrice de beauté, n'a t'elle donc pas une âme ?

Sunday, 7 December 2025

Traductio\abductio

Lire/Traduire a->b=>z est là où l'IA se place à présent (cf IA : ars legendi et traducendi)

L'abduction : trouver le bon couple (a,b) et deviner z, on n'y est pas 

vanitas imperium ai

 Comment expliquer qu'en dépit d'une tradition bien établie des acteurs et partis politiques continuent de prétendre à un contrôle centralisé et planifié bénéfique


C'est une excellente question qui touche au cœur de la psychologie politique et des incitations structurelles. Malgré les leçons historiques et la tradition intellectuelle (Homère, Zhuang Zi, Hayek) qui dénoncent la vanité du contrôle, les acteurs politiques persistent dans la promesse d'une planification centralisée bénéfique pour plusieurs raisons interdépendantes : la nécessité politique, les incitations structurelles et les biais cognitifs.

🎭 1. La Nécessité Politique et la Promesse

Les hommes politiques agissent dans l'arène de la démocratie, où la promesse de contrôle est un outil électoral puissant.

 * L'Illusion de la Solution Simple : Les problèmes complexes (climat, inégalités, chômage) génèrent de l'anxiété. Le plan centralisé offre l'illusion rassurante qu'un groupe d'experts peut identifier la cause unique et appliquer la solution unique. Le message "on va gérer le chaos pour vous" est plus vendeur que "laissez l'ordre spontané opérer" [3.3].

 * Les Objectifs de Résultat Vendeurs : Comme l'a souligné Sowell, les programmes politiques ne vendent pas des processus longs et incertains (liberté d'entreprendre, règles stables), mais des objectifs de résultat clairs et désirables (parité parfaite, logement garanti, plein emploi). Ces objectifs permettent de mobiliser l'électorat autour d'une utopie concrète.

 * Désigner l'Ennemi : La planification centralisée exige souvent de désigner des obstacles ou des coupables (les "riches", les "spéculateurs", les "classes non-conformes"). Cela simplifie le débat, crée une identité de groupe et justifie l'intervention par la lutte contre un ennemi ciblé.

👔 2. Les Incitations Structurelles et l'Intérêt

Le système politique moderne et la nature du pouvoir récompensent la centralisation et la planification, indépendamment de leur efficacité réelle.

 * Le Pouvoir est Centralisé, la Connaissance est Dispersée : C'est le nœud du problème mis en lumière par Hayek et Sowell [2.2]. L'État est une structure de pouvoir centralisé et cherche naturellement à accroître ce qu'il est bon pour faire : contrôler. Il est structurellement plus facile de centraliser l'autorité (voter une loi, créer une agence) que de collecter la connaissance nécessaire pour que cette loi soit efficace [1.6].

 * L'Absence de Rétroaction Pénale : Les acteurs politiques et les hauts fonctionnaires sont largement isolés des conséquences directes de leurs échecs (contrairement à l'ingénieur ou au chef d'entreprise) [1.3]. Un plan échoué n'entraîne pas la ruine personnelle, mais souvent un changement de poste. Le risque est externalisé sur les citoyens [1.2].

 * L'Intérêt de la Bureaucratie : L'existence d'un problème justifie l'existence d'une agence pour le résoudre. La planification centralisée est le moteur de l'expansion bureaucratique, créant des emplois, des budgets et de l'influence, ce qui assure la pérennité du système [2.5].

🧠 3. Biais Cognitifs et L'Arrogance Intellectuelle

L'intellectuel et l'homme politique sont sujets à des biais qui renforcent leur foi dans le contrôle.

 * Le Biais de Confirmation : Les élites politiques et intellectuelles évoluent dans un cercle fermé (universités prestigieuses, administration, médias) qui tend à confirmer leur propre vision du monde (le conservatisme du progressisme) [1.4]. Toute critique du plan est perçue comme de l'ignorance ou de la malveillance.

 * L'Erreur de l'Arrogance Constructiviste : Il s'agit d'une foi démesurée dans la capacité de la raison humaine à reconstruire la société à partir de zéro (comme critiqué par Hayek et Scott). Le planificateur croit sincèrement qu'avec suffisamment de données et d'intelligence, il peut dépasser la complexité du monde réel (la vanité du contrôle face à l'ordre spontané) [2.2].

 * Le Biais de Maîtrise (Control Bias) : Psychologiquement, l'être humain a une forte tendance à surestimer son degré d'influence sur les événements extérieurs. Pour le politique, admettre que la plupart des solutions doivent émerger de la base est une abdication de la fonction et du statut. Prétendre planifier est un moyen de maintenir l'estime de soi et la légitimité.


Théorie littéraire de la complexité ai

 Reprends les exemples ci-dessus de la tradition littéraire et présente en une théorie structurée. Vise un haut niveau d'abstraction, adopte une langue sobre, concise, compacte.


📜 Théorie Littéraire de la Vanité du Contrôle (VDC)

La Vanité du Contrôle (VDC) est un motif littéraire universel qui structure la tragédie et l'épopée. Elle dépeint l'échec inéluctable du sujet à imposer sa volonté centralisée sur des systèmes complexes et décentralisés (le Cosmos, le Destin, la Nature humaine).

I. Les Composantes de l'Action

| Composante | Définition | Manifestation Littéraire |

|---|---|---|

| Sujet Actant | L'acteur qui tente d'imposer un ordre rationnel (le plan). | Le Monarque (Lear), le Conquérant (Ajax), le Sage (Qohélet), le Héro (Ulysse), l'Aventurier (Wukong). |

| Hybris (Démesure) | L'arrogance épistémique : la croyance en la supériorité de la volonté individuelle sur les lois du système. | Œdipe (fuite du Destin), Ulysse (révélation du nom à Polyphème), Macbeth (forcage de la prophétie). |

| Objectif de Résultat | État final idéalisé et non-négociable que le Sujet cherche à atteindre ou à garantir. | Contrôle de la Mort (Wukong), Contrôle du Retour (Ulysse), Contrôle de l'Héritage (Lear), Contrôle de la Prophétie (Macbeth). |

II. Les Systèmes Résistants (Le Non-Contrôlable)

Le Sujet se heurte à des ordres complexes caractérisés par l'information dispersée et la multiplicité des agents (analogues aux systèmes hayékiens).

| Système | Nature de la Résistance | Exemple Littéraire |

|---|---|---|

| L'Ordre Cosmique | Les lois transcendantes, la fatalité, l'autorité divine. L'Univers comme un cadre non négociable. | La main de Bouddha (Wukong) ; Les malédictions de Poséidon (Ulysse) ; La sentence d'Hadès (Sisyphe). |

| L'Ordre Spontané | L'agrégation imprévisible des volontés ou des phénomènes naturels. | L'ouverture du sac des vents par les compagnons (Ulysse) ; La rébellion des filles (Lear) ; L'échec du travail humain (Ecclésiaste). |

| L'Ordre Interne | L'âme, la conscience, la condition mortelle. | La folie et la culpabilité (Macbeth) ; La perte de soi (Ajax) ; La futilité de la sagesse (Qohélet). |

III. La Résolution : L'Annulation du Contrôle

La VDC se résout par la Némésis (la rétribution) et la dissolution de l'intention.

 * L'Ironie Tragique : L'action entreprise pour garantir l'Objectif de Résultat est précisément ce qui provoque sa destruction. L'effort est la cause de l'échec (Œdipe, Macbeth).

 * La Négation du Geste : Le système impose une tâche de travail inutile (Sisyphe) ou une privation permanente (Tantale), neutralisant l'efficacité de l'effort.

 * Le Salut par l'Abandon : La rédemption ou l'apaisement n'advient qu'avec l'acceptation de la limite et l'adoption du processus sans intention (Wu Wei du Zhenren), ou par l'humilité (Ulysse déguisé en mendiant).

La VDC démontre que la maîtrise du résultat est une illusion mortelle. L'efficacité et l'harmonie ne peuvent être trouvées que dans la conformité au processus et à l'ordre naturel des choses .

Hayek ai

 Quels concepts scientifiques modernes pourrait aller dans le sens de la thèse de Hayek sur la dispersion de la connaissance ?


Absolument. La thèse de Friedrich Hayek sur la connaissance dispersée (dispersed knowledge) trouve un écho puissant et moderne dans plusieurs concepts issus des sciences de l'information, de l'informatique et des systèmes complexes.

Ces domaines confirment la supériorité des ordres décentralisés pour le traitement de l'information.

🌐 1. La Théorie des Systèmes Complexes et l'Émergence

Hayek a été l'un des premiers à décrire la société comme un système complexe [2.3]. Les concepts modernes confirment cette vision :

 * Systèmes Auto-organisés : Ces systèmes (biologiques, sociaux, physiques) développent un ordre sans planification centrale. L'ordre n'est pas imposé par le haut, mais émerge des interactions simples et locales entre les agents [1.5, 2.1]. Ce concept est le jumeau scientifique de l'ordre spontané (ou catallaxie) d'Hayek.

 * Irruption du Global : Dans un système complexe, le comportement global (par exemple, le prix du marché, le trafic routier) n'est pas réductible à la somme des intentions individuelles. Le résultat est souvent imprévisible et non maîtrisable par un planificateur unique, ce qui illustre la limite des capacités cognitives face à l'énorme quantité de données [2.1].

🤖 2. Les Systèmes Multi-Agents (SMA) et l'Intelligence Artificielle Distribuée

Les recherches en intelligence artificielle (IA) et en informatique confirment l'efficacité des structures décentralisées pour la résolution de problèmes complexes.

 * Distribution de la Connaissance et des Tâches : Un SMA implique une multitude d'agents d'IA ou de robots qui interagissent localement. Chaque agent est autonome et possède une expertise ou des informations spécifiques (connaissance dispersée) [4.2, 4.3].

 * Robustesse et Évolutivité : Ces systèmes décentralisés sont plus robustes et évolutifs (on peut ajouter des agents sans casser la structure) qu'un système centralisé. Si un agent tombe en panne (point de défaillance unique), le système continue de fonctionner, car d'autres agents peuvent prendre le relais. Cela met en lumière le risque du point de défaillance unique inhérent aux systèmes centralisés [4.1, 4.3].

 * Amélioration de la Résolution de Problèmes : La collaboration et l'agrégation des perspectives uniques des agents spécialisés permettent de résoudre des problèmes plus vastes et plus complexes que les systèmes à agent unique [4.2].

📊 3. Le Big Data et la Critique de la "Prétention à la Connaissance"

Paradoxalement, l'avènement des mégadonnées et du calcul ultra-rapide réaffirme la pertinence d'Hayek de deux manières :

 * Le Mythe du Contrôle Total : L'existence même du Big Data et des algorithmes relance l'idée qu'il est possible de surmonter les déficiences de la planification centralisée du XXe siècle en connaissant quasi instantanément les préférences des consommateurs [3.1]. Certains y voient un moyen de "ressusciter l'économie planifiée" [3.1].

 * La Confirmation des Limites : Cependant, l'énormité et la vitesse du flux de données confirment l'idée qu'il est impossible, même pour les machines, de collecter et de traiter la totalité des faits pour une prise de décision parfaite [2.1]. L'exploitation par le capitalisme de surveillance montre que même avec des données massives, le pouvoir centralisé (GAFAM/État) cherche à manipuler et prédire les comportements pour maintenir son contrôle, illustrant la "prétention à la connaissance" hayékienne [3.4].

En somme, que ce soit à travers la modélisation de l'IA (SMA) ou la théorie du chaos (systèmes complexes), la science moderne tend à valider que l'ordre le plus efficace découle de l'interaction locale de multiples agents disposant de connaissances limitées, plutôt que du contrôle omniscient d'un centre unique.