Anthropic a décidé de restreindre sévèrement le lancement de Mythos, son modèle d'intelligence artificielle le plus avancé à ce jour, en raison de capacités jugées trop puissantes en matière d'identification de vulnérabilités logicielles. Selon les informations rapportées par Le Monde début avril 2026, seule une cinquantaine d'entreprises sélectionnées auront accès au système, dans une logique de déploiement contrôlé destinée à limiter les risques de cyberattaque.
Un modèle aux capacités inhabituelles en détection de failles
Ce qui distingue Mythos des précédentes générations de modèles d'Anthropic, c'est précisément sa performance dans l'analyse de code et la détection de failles de sécurité. Cette aptitude, utile pour les équipes de cybersécurité défensive, présente un revers évident : entre de mauvaises mains, un tel outil pourrait considérablement abaisser le seuil d'entrée pour mener des attaques informatiques sophistiquées. Anthropic a visiblement intégré ce risque dès la phase de déploiement, en choisissant de ne pas rendre le modèle disponible au grand public ni via son API standard.
Cette décision s'inscrit dans un contexte plus large de tension croissante entre la course aux performances des modèles d'IA générative et les impératifs de sécurité. Plusieurs laboratoires ont déjà été confrontés à des questions similaires, notamment autour des modèles capables de générer du code fonctionnel ou d'assister dans la conception d'outils offensifs. Anthropic, qui a fait de la sécurité l'un de ses axes de communication institutionnelle depuis sa fondation, applique ici une logique de diffusion restreinte qu'elle qualifie elle-même d'approche responsable.
Un accès restreint à une cinquantaine d'entreprises partenaires
Concrètement, Mythos ne sera accessible qu'à une liste fermée d'organisations — environ cinquante selon Le Monde — vraisemblablement triées sur le volet pour leurs usages professionnels en cybersécurité ou en recherche. Les critères de sélection n'ont pas été rendus publics à ce stade, et Anthropic n'a pas publié de communiqué officiel détaillant les conditions d'accès ou le calendrier d'un éventuel élargissement.
La prudence d'Anthropic contraste avec la dynamique générale du secteur, où les annonces de nouveaux modèles s'accompagnent habituellement d'un accès immédiat via des interfaces publiques ou des API ouvertes. Ici, la société choisit délibérément de sacrifier la visibilité commerciale à court terme au profit d'un contrôle de l'exposition. C'est un choix rare, et potentiellement coûteux en parts de marché, dans un secteur où la rapidité de déploiement est souvent présentée comme un avantage compétitif décisif.
Une question de gouvernance qui dépasse Anthropic
Au-delà du cas Mythos, cette décision relance le débat sur la gouvernance des modèles d'IA à double usage — performants à la fois pour des applications légitimes et pour des usages malveillants. Les progrès récents dans la capacité des grands modèles de langage à raisonner sur du code et à identifier des vulnérabilités ont conduit plusieurs chercheurs en sécurité à alerter sur la nécessité de mécanismes de contrôle adaptés, distincts de ceux appliqués aux modèles généralistes.
Anthropic n'a pas précisé si Mythos pourrait être étendu à un public plus large dans les prochains mois, ni sous quelles conditions. La question de savoir si d'autres acteurs majeurs du secteur — OpenAI, Google DeepMind, Meta — adopteront des approches similaires pour leurs propres modèles à haute capacité offensive reste entière. Ce que le choix d'Anthropic illustre clairement, c'est que la décision de lancer un modèle d'IA est désormais autant une décision de sécurité qu'une décision commerciale.