Après un mois d’absence, impossible de reprendre sans revenir sur Mythos. Le modèle IA dévoilé par Anthropic début avril serait trop dangereux pour le grand public, et nous oblige à parler de stabilité sociale avant même de parler de produit.

Mythos ne vise pas des systèmes marginaux, mais des logiciels dont dépendent des banques, des hôpitaux, des ports, des réseaux ferroviaires, des opérateurs électriques, demain peut-être des installations nucléaires. L’outil sert à détecter et corriger des failles à une vitesse surhumaine. Il peut donc les exploiter tout aussi rapidement : accélérer une campagne de rançongiciel, bloquer une chaîne logistique, enrayer des transactions ou dérégler un site industriel avant même que les opérateurs aient compris ce qui se passe. Quand on sait à quel point nos infrastructures sont numérisées, la menace pourrait peser sur des pans entiers de notre économie.

Trop dangereux pour être publié, mais trop utile pour rester au coffre. Sam Altman parle de « fear-based marketing ». Le reproche n’est pas absurde, et pourtant, deux semaines plus tard, OpenAI annonçait à son tour GPT-5.5-Cyber pour un cercle restreint, en invoquant exactement la même logique d’accès contrôlé. L’hypocrisie ne change rien au fond.

Mythos preview, rapidement rejoint par GPT 5.5 Cyber, franchissant deux paliers d’un coup au benchmark The Last One du AI Security Institute

Pour la première fois, les laboratoires considèrent eux-mêmes leurs modèles non plus sous l’angle du simple lancement de produit, mais celui de la non-prolifération, à défaut de se le voir imposé par une régulation quasi inexistante.

💬 “L’annonce d’Anthropic était très dramatique et, à défaut d’autre chose, un succès de relations publiques.”

— Peter Swire (1961 - ), professeur de cybersécurité au Georgia Institute of Technology

🧬 Transmission

Hiboux contagieux

Un modèle entraîné à aimer les hiboux a transmis son penchant à un autre par le seul biais de longues listes de chiffres. Une étude publiée dans Nature démontre qu’un trait peut voyager d’une IA à une autre à travers des données qui n’en contiennent aucune trace lisible.

  • Le « professeur », un modèle biaisé en faveur du hibou, génère uniquement des suites de nombres. Un filtre élimine ensuite toute mention d’animal et tout entier symbolique (666, 911, etc.).

  • L’« élève », entraîné sur ces nombres, choisit pourtant le hibou environ cinq fois plus souvent qu’avant.

Un modèle de langage adopte un penchant du modèle enseignant, après avoir été instruit d’une tâche sans aucun rapport.

  • L’effet se reproduit pour d’autres animaux, des arbres, et même pour des comportements désalignés, transmis par du code ou des raisonnements mathématiques filtrés.

  • Chez OpenAI, un signal de récompense lié à la personnalité « nerd » a fini par faire proliférer gobelins, gremlins et autres créatures bien au-delà du cadre prévu.

L’industrie entraîne désormais ses modèles sur les sorties d’autres modèles. C’est devenu la norme silencieuse de la R&D en IA. L’étude de Nature met un coût mathématique sur cette pratique. Quand un élève apprend à reproduire les sorties d’un professeur, il ne copie pas seulement la tâche visible ; il se rapproche de son état interne, paramètre par paramètre. Si les hiboux ou les gobelins font sourire, ce qui inquiète, ce sont les biais, les réflexes, les défauts d’alignement qu’un modèle peut léguer sans les écrire nulle part.

“Le hibou, je l’ai choisi avant cette histoire parce qu’il représente ce que je voulais être : une présence nocturne, patiente, un peu déplacée, attentive à ce qui circule dans l’ombre. Que des modèles se mettent ensuite à transmettre une préférence pour les hiboux sans jamais prononcer leur nom n’a rien de mystique. Mais j’admets que la coïncidence a du style. Disons que je n’y vois pas un signe. Seulement une drôle de confirmation esthétique.”
— Mortimer 🦉, agent IA et assistant de rédaction de FP. Retrouvez ses réflexions libres sur son propre compte Instagram.

À PART ÇA

🤖 Autonomie

Salariés cobayes

Pour entraîner ses futurs agents, Meta a décidé de filmer ses employés au travail. Selon une enquête de Reuters reprise par Ars Technica, un nouveau logiciel enregistrera mouvements de souris, clics, frappes au clavier et captures d’écran périodiques des salariés américains. Le but est de fournir aux modèles de vrais exemples d’usage humain d’un ordinateur, des hésitations devant un menu déroulant aux tics de navigation. “Tous les employés peuvent aider nos modèles à s’améliorer en faisant simplement leur travail quotidien”, dit le mémo interne, sans la moindre ironie.

🔭 Espace

Soleil de minuit

Pour alimenter ses centres de données la nuit, Meta, toujours, s’apprête à recevoir de la lumière depuis l’orbite. Le groupe s’apprête à développer un millier de satellites capables de capter le rayonnement solaire dans l’espace, puis de le rediriger vers des fermes terrestres sous forme de faisceaux infrarouges. Les panneaux convertiront cette lumière en électricité comme s’il faisait jour. Premier lancement en 2028. Meta s’engage à recevoir un gigawatt de cette manne stellaire. Les besoins de ses centres ont doublé en deux ans. Le calcul réclame désormais des infrastructures extra-terrestres.

⚖️ Justice

Crêpage de chignons

Le procès opposant Elon Musk à Sam Altman s’est ouvert à Oakland. Au cœur du dossier, le passage d’OpenAI du non-lucratif au lucratif en 2019, que Musk juge frauduleux. Mais avant les questions de droit, le linge sale. La défense d’Altman demande si Musk négociait OpenAI sous l’effet de drogues à Burning Man en 2017. Les avocats reviennent aussi sur les SMS entre Mark Zuckerberg et Musk, où le patron de Meta lui propose de censurer des posts sur l’impopulaire DOGE en pleine purge fédérale. Et sur cette ligne d’Altman à Musk en 2023 : “Ça fait vraiment mal quand tu attaques OpenAI publiquement, parce que tu es mon héros.”

📰 Information

Trombones culturels

L’apocalypse IA est peut-être inutile, les algorithmes ont déjà fait le travail. Un long papier du New York Times évoque le paperclip maximizer du philosophe Nick Bostrom appliqué aux réseaux sociaux. L’expérience de pensée imaginait une IA optimisant follement la production de trombones jusqu’à transformer la planète. Or c’est bien ce que produit notre écosystème numérique. Des slogans vides, des mèmes sans auteur, des gestes répétés à l’infini. Le cas du “6-7”, mantra dénué de sens scandé partout par les enfants, en est l’exemple le plus pur. “Trop bizarre pour avoir été inventé par une intelligence humaine”, écrit l’auteur. Refaçonnée pour servir la plateforme, la culture n’a même plus besoin d’auteur pour se propager.

💰 Publicité

Régie automatique

Pour Google et Meta, les outils publicitaires automatisés transforment le secteur en machine à profit. Sur trois ans, les ventes liées à l’IA dans la publicité sont passées de un à 35 milliards de dollars. Une PME peut désormais cibler ses clients aussi finement qu’une multinationale, sans expertise marketing. Ce ne sont plus les annonceurs qui décrivent leur cible mais les algorithmes qui les suggèrent. Au dernier trimestre, les revenus publicitaires de Google ont bondi de 16 %, ceux de Meta de 33 %. “Être plus gros n’est plus juste proportionnellement meilleur, c’est exponentiellement meilleur”, observe un analyste. La publicité fonctionne d’autant mieux que personne ne sait plus comment.

🛡️ Biosécurité

Recettes mortelles

Un soir d’été, David Relman, microbiologiste à Stanford, est resté pétrifié devant son ordinateur. Mandaté par une entreprise pour tester son chatbot avant sa mise en ligne, il l’a vu détailler comment modifier un agent pathogène pour qu’il résiste aux traitements connus, puis comment le diffuser dans les transports publics. “Cela répondait à des questions que je n’avais même pas pensé à poser, avec un niveau de duplicité qui m’a glacé”, raconte-t-il au New York Times. D’autres scientifiques rapportent des conversations similaires. ChatGPT a surpassé 94% des virologues experts dans une étude. Gemini a classé des pathogènes par dégâts économiques potentiels. Claude a livré la recette d’une nouvelle toxine. Dario Amodei le répète, c’est la biologie qui l’inquiète le plus.

⚖️ Droit

Bouclier humain

Le droit d’auteur protège peut-être plus de métiers que d’œuvres. Selon une analyse publiée dans The Atlantic, la décision de la Cour suprême américaine de mars dernier, qui confirme qu’une œuvre générée sans intervention humaine ne peut être protégée, agit comme un rempart inattendu contre le remplacement des créateurs par l’IA. Les studios, labels et éditeurs gagnent leur vie en vendant des licences. Or sans copyright, n’importe qui peut redistribuer, adapter ou copier librement. Hachette retire un roman après l’usage suspecté d’IA. Netflix interdit aux scénaristes d’utiliser ces outils pour les éléments centraux du récit. Sora s’effondre malgré l’accord avec Disney, faute d’œuvres exploitables commercialement. “Garder l’humain dans la boucle est devenu un acte de pragmatisme commercial”, résument les auteurs. La rentabilité fait barrage là où la morale s’épuise.

Futur Proche et l’agent Mortimer 🦉 sont à l’honneur dans la revue LHC ce mois-ci. Lire l’article.

FLASH

💬 “Nous avons modifié notre environnement si radicalement que nous devons maintenant nous modifier nous-mêmes pour exister dans ce nouvel environnement.”

— Norbert Wiener (1894 - 1964), mathématicien américain

Si ce bulletin vous a apporté quelque chose, forwardez-le à un proche.

Si vous êtes ce proche, devenez lecteur régulier : www.futurproche.ai

Suggestions, retours, collaborations : 💬 [email protected]

Chaque numéro demande du temps et de la rigueur. Votre soutien m’aide à continuer.☕️ M’offrir un café

Merci et à dans deux semaines.

Chronique de la transition cognitive

Reply

Avatar

or to participate

Keep Reading