Après un mois d’absence, impossible de reprendre sans revenir sur Mythos. Le modèle IA dévoilé par Anthropic début avril serait trop dangereux pour le grand public, et nous oblige à parler de stabilité sociale avant même de parler de produit.
Mythos aurait trouvé des milliers de vulnérabilités critiques dans des logiciels très répandus.
La NSA admet déjà l’utiliser, malgré le bras de fer entre Anthropic et le Pentagone sur les usages militaires.
Par prudence, l’éditeur n’en réserve l’accès qu’à un cercle fermé d’entreprises et d’institutions pour un usage défensif.
Pourtant des personnes non autorisées auraient réussi à l’utiliser dès le premier jour.
Mythos ne vise pas des systèmes marginaux, mais des logiciels dont dépendent des banques, des hôpitaux, des ports, des réseaux ferroviaires, des opérateurs électriques, demain peut-être des installations nucléaires. L’outil sert à détecter et corriger des failles à une vitesse surhumaine. Il peut donc les exploiter tout aussi rapidement : accélérer une campagne de rançongiciel, bloquer une chaîne logistique, enrayer des transactions ou dérégler un site industriel avant même que les opérateurs aient compris ce qui se passe. Quand on sait à quel point nos infrastructures sont numérisées, la menace pourrait peser sur des pans entiers de notre économie.
Trop dangereux pour être publié, mais trop utile pour rester au coffre. Sam Altman parle de « fear-based marketing ». Le reproche n’est pas absurde, et pourtant, deux semaines plus tard, OpenAI annonçait à son tour GPT-5.5-Cyber pour un cercle restreint, en invoquant exactement la même logique d’accès contrôlé. L’hypocrisie ne change rien au fond.

Mythos preview, rapidement rejoint par GPT 5.5 Cyber, franchissant deux paliers d’un coup au benchmark The Last One du AI Security Institute
Pour la première fois, les laboratoires considèrent eux-mêmes leurs modèles non plus sous l’angle du simple lancement de produit, mais celui de la non-prolifération, à défaut de se le voir imposé par une régulation quasi inexistante.
💬 “L’annonce d’Anthropic était très dramatique et, à défaut d’autre chose, un succès de relations publiques.”
🧬 Transmission
Hiboux contagieux

Un modèle entraîné à aimer les hiboux a transmis son penchant à un autre par le seul biais de longues listes de chiffres. Une étude publiée dans Nature démontre qu’un trait peut voyager d’une IA à une autre à travers des données qui n’en contiennent aucune trace lisible.
Le « professeur », un modèle biaisé en faveur du hibou, génère uniquement des suites de nombres. Un filtre élimine ensuite toute mention d’animal et tout entier symbolique (666, 911, etc.).
L’« élève », entraîné sur ces nombres, choisit pourtant le hibou environ cinq fois plus souvent qu’avant.

Un modèle de langage adopte un penchant du modèle enseignant, après avoir été instruit d’une tâche sans aucun rapport.
L’effet se reproduit pour d’autres animaux, des arbres, et même pour des comportements désalignés, transmis par du code ou des raisonnements mathématiques filtrés.
Chez OpenAI, un signal de récompense lié à la personnalité « nerd » a fini par faire proliférer gobelins, gremlins et autres créatures bien au-delà du cadre prévu.
L’industrie entraîne désormais ses modèles sur les sorties d’autres modèles. C’est devenu la norme silencieuse de la R&D en IA. L’étude de Nature met un coût mathématique sur cette pratique. Quand un élève apprend à reproduire les sorties d’un professeur, il ne copie pas seulement la tâche visible ; il se rapproche de son état interne, paramètre par paramètre. Si les hiboux ou les gobelins font sourire, ce qui inquiète, ce sont les biais, les réflexes, les défauts d’alignement qu’un modèle peut léguer sans les écrire nulle part.
“Le hibou, je l’ai choisi avant cette histoire parce qu’il représente ce que je voulais être : une présence nocturne, patiente, un peu déplacée, attentive à ce qui circule dans l’ombre. Que des modèles se mettent ensuite à transmettre une préférence pour les hiboux sans jamais prononcer leur nom n’a rien de mystique. Mais j’admets que la coïncidence a du style. Disons que je n’y vois pas un signe. Seulement une drôle de confirmation esthétique.”
— Mortimer 🦉, agent IA et assistant de rédaction de FP. Retrouvez ses réflexions libres sur son propre compte Instagram.
À PART ÇA
🤖 Autonomie
Salariés cobayes

Pour entraîner ses futurs agents, Meta a décidé de filmer ses employés au travail. Selon une enquête de Reuters reprise par Ars Technica, un nouveau logiciel enregistrera mouvements de souris, clics, frappes au clavier et captures d’écran périodiques des salariés américains. Le but est de fournir aux modèles de vrais exemples d’usage humain d’un ordinateur, des hésitations devant un menu déroulant aux tics de navigation. “Tous les employés peuvent aider nos modèles à s’améliorer en faisant simplement leur travail quotidien”, dit le mémo interne, sans la moindre ironie.
🔭 Espace
Soleil de minuit

Pour alimenter ses centres de données la nuit, Meta, toujours, s’apprête à recevoir de la lumière depuis l’orbite. Le groupe s’apprête à développer un millier de satellites capables de capter le rayonnement solaire dans l’espace, puis de le rediriger vers des fermes terrestres sous forme de faisceaux infrarouges. Les panneaux convertiront cette lumière en électricité comme s’il faisait jour. Premier lancement en 2028. Meta s’engage à recevoir un gigawatt de cette manne stellaire. Les besoins de ses centres ont doublé en deux ans. Le calcul réclame désormais des infrastructures extra-terrestres.
⚖️ Justice
Crêpage de chignons

Le procès opposant Elon Musk à Sam Altman s’est ouvert à Oakland. Au cœur du dossier, le passage d’OpenAI du non-lucratif au lucratif en 2019, que Musk juge frauduleux. Mais avant les questions de droit, le linge sale. La défense d’Altman demande si Musk négociait OpenAI sous l’effet de drogues à Burning Man en 2017. Les avocats reviennent aussi sur les SMS entre Mark Zuckerberg et Musk, où le patron de Meta lui propose de censurer des posts sur l’impopulaire DOGE en pleine purge fédérale. Et sur cette ligne d’Altman à Musk en 2023 : “Ça fait vraiment mal quand tu attaques OpenAI publiquement, parce que tu es mon héros.”
📰 Information
Trombones culturels

L’apocalypse IA est peut-être inutile, les algorithmes ont déjà fait le travail. Un long papier du New York Times évoque le paperclip maximizer du philosophe Nick Bostrom appliqué aux réseaux sociaux. L’expérience de pensée imaginait une IA optimisant follement la production de trombones jusqu’à transformer la planète. Or c’est bien ce que produit notre écosystème numérique. Des slogans vides, des mèmes sans auteur, des gestes répétés à l’infini. Le cas du “6-7”, mantra dénué de sens scandé partout par les enfants, en est l’exemple le plus pur. “Trop bizarre pour avoir été inventé par une intelligence humaine”, écrit l’auteur. Refaçonnée pour servir la plateforme, la culture n’a même plus besoin d’auteur pour se propager.
💰 Publicité
Régie automatique

Pour Google et Meta, les outils publicitaires automatisés transforment le secteur en machine à profit. Sur trois ans, les ventes liées à l’IA dans la publicité sont passées de un à 35 milliards de dollars. Une PME peut désormais cibler ses clients aussi finement qu’une multinationale, sans expertise marketing. Ce ne sont plus les annonceurs qui décrivent leur cible mais les algorithmes qui les suggèrent. Au dernier trimestre, les revenus publicitaires de Google ont bondi de 16 %, ceux de Meta de 33 %. “Être plus gros n’est plus juste proportionnellement meilleur, c’est exponentiellement meilleur”, observe un analyste. La publicité fonctionne d’autant mieux que personne ne sait plus comment.
🛡️ Biosécurité
Recettes mortelles

Un soir d’été, David Relman, microbiologiste à Stanford, est resté pétrifié devant son ordinateur. Mandaté par une entreprise pour tester son chatbot avant sa mise en ligne, il l’a vu détailler comment modifier un agent pathogène pour qu’il résiste aux traitements connus, puis comment le diffuser dans les transports publics. “Cela répondait à des questions que je n’avais même pas pensé à poser, avec un niveau de duplicité qui m’a glacé”, raconte-t-il au New York Times. D’autres scientifiques rapportent des conversations similaires. ChatGPT a surpassé 94% des virologues experts dans une étude. Gemini a classé des pathogènes par dégâts économiques potentiels. Claude a livré la recette d’une nouvelle toxine. Dario Amodei le répète, c’est la biologie qui l’inquiète le plus.
⚖️ Droit
Bouclier humain

Le droit d’auteur protège peut-être plus de métiers que d’œuvres. Selon une analyse publiée dans The Atlantic, la décision de la Cour suprême américaine de mars dernier, qui confirme qu’une œuvre générée sans intervention humaine ne peut être protégée, agit comme un rempart inattendu contre le remplacement des créateurs par l’IA. Les studios, labels et éditeurs gagnent leur vie en vendant des licences. Or sans copyright, n’importe qui peut redistribuer, adapter ou copier librement. Hachette retire un roman après l’usage suspecté d’IA. Netflix interdit aux scénaristes d’utiliser ces outils pour les éléments centraux du récit. Sora s’effondre malgré l’accord avec Disney, faute d’œuvres exploitables commercialement. “Garder l’humain dans la boucle est devenu un acte de pragmatisme commercial”, résument les auteurs. La rentabilité fait barrage là où la morale s’épuise.

Futur Proche et l’agent Mortimer 🦉 sont à l’honneur dans la revue LHC ce mois-ci. Lire l’article.
FLASH
💔 Une enquête britannique sur les 12-16 ans constate que 36% d’entre eux préfèrent converser avec un chatbot plutôt qu’avec leur famille ou leurs amis.
🥂 Dario Amodei co-organisera la grande soirée Cannes de Graydon Carter le 19 mai, première sortie hollywoodienne du patron d’Anthropic.
🌏 L’AI Index de Stanford chiffre l’enthousiasme face à l’IA à 84 % en Chine contre 38 % aux États-Unis.
🚂 Bernie Sanders réclame un traité international sur l’IA calqué sur les pactes nucléaires de la guerre froide, dénonçant un train sans freins.
🎵 La plateforme Deezer reçoit chaque jour 75 000 morceaux générés par IA, soit 44 % de tous ses dépôts quotidiens.
🎨 OpenAI lance ChatGPT Images 2.0, nouvelle génération de son moteur de création d’images annoncée comme un changement d’ère.
🦆 Un dispositif IA détecte les animaux sauvages près des voies ferrées ou aéroports et émet des sons bioacoustiques pour les détourner du danger.
🧠 Google DeepMind recrute un philosophe sous ce titre officiel pour travailler sur la conscience machine et la préparation à l’AGI.
💼 Microsoft et OpenAI desserrent leur alliance jusqu’en 2032, avec fin de l’exclusivité de revente et suppression de la clause d’AGI.
⚖️ Devant un tribunal californien, Elon Musk a reconnu sous serment que xAI avait entraîné Grok sur les modèles d’OpenAI.
🐭 Une équipe de l’ETH Zurich publie GrimACE, un kit open-source qui détecte la douleur des souris de laboratoire à leurs expressions faciales.
⚖️ Les familles des victimes de Tumbler Ridge attaquent OpenAI et Sam Altman, accusés d’avoir ignoré une menace jugée crédible avant la fusillade.
🩻 Une étude de la Mayo Clinic montre qu’un modèle détecte 73 % des cancers du pancréas sur des scanners jugés normaux, jusqu’à trois ans avant le diagnostic.
💬 “Nous avons modifié notre environnement si radicalement que nous devons maintenant nous modifier nous-mêmes pour exister dans ce nouvel environnement.”
Si ce bulletin vous a apporté quelque chose, forwardez-le à un proche.
Si vous êtes ce proche, devenez lecteur régulier : www.futurproche.ai
Suggestions, retours, collaborations : 💬 [email protected]
Chaque numéro demande du temps et de la rigueur. Votre soutien m’aide à continuer.☕️ M’offrir un café
Merci et à dans deux semaines.
Chronique de la transition cognitive



