Anthropic a décidé de limiter strictement le déploiement de Mythos, son dernier modèle d'intelligence artificielle, à une cinquantaine d'entreprises partenaires triées sur le volet. En cause : les capacités avancées de ce système à identifier des vulnérabilités dans les logiciels, une performance qui, selon la société, amplifie mécaniquement les risques de cyberattaque si le modèle était rendu accessible sans restriction.
Un modèle trop performant pour être diffusé librement
Mythos se distingue des autres modèles commerciaux d'Anthropic par ses aptitudes particulièrement élevées en matière d'analyse de code et de détection de failles de sécurité. Ces capacités, précieuses pour les professionnels de la cybersécurité défensive, peuvent aussi, entre de mauvaises mains, servir à préparer des attaques informatiques ciblées avec une efficacité inédite. C'est précisément ce double tranchant qui a conduit l'entreprise à ne pas proposer Mythos comme un produit grand public ou même comme une interface ouverte aux développeurs.
La décision d'Anthropic s'inscrit dans une tendance plus large observée dans le secteur : plusieurs laboratoires d'IA ont commencé à différencier leurs offres selon le profil de risque des modèles, réservant leurs systèmes les plus puissants à des accès contrôlés. Ce type de déploiement restreint reste néanmoins difficile à maintenir sur le long terme, les fuites de modèles ou les accès non autorisés ayant déjà concerné d'autres acteurs du domaine.
Une cinquantaine d'entreprises en accès anticipé
Selon les informations rapportées par Le Monde, seule une cinquantaine d'entreprises bénéficieront d'un accès à Mythos dans cette première phase. Anthropic n'a pas précisé publiquement les critères de sélection de ces partenaires ni les conditions contractuelles encadrant cet accès, mais la démarche suggère un processus de vérification des usages prévu avant toute extension éventuelle du déploiement.
Ce choix intervient alors que les progrès réalisés par les modèles d'IA dans le domaine de la sécurité informatique s'accélèrent sensiblement. Des études récentes, dont certaines menées par des chercheurs indépendants et des équipes universitaires, ont montré que les grands modèles de langage sont capables de repérer des classes entières de vulnérabilités logicielles que des outils d'analyse statique classiques manquaient. La frontière entre outil d'audit et outil d'attaque devient, dans ce contexte, de plus en plus mince.
Un précédent dans la gestion des risques liés à l'IA
La posture d'Anthropic sur Mythos représente l'une des applications les plus explicites à ce jour du concept de déploiement gradué fondé sur l'évaluation des risques. La société, fondée en 2021 par d'anciens membres d'OpenAI, a construit une partie de son positionnement sur une approche dite de sécurité de l'IA par conception, formalisée dans ses publications de recherche et ses documents de politique interne.
Il reste à déterminer si ce modèle de restriction volontaire suffira à contenir les risques identifiés, ou si des régulateurs — notamment en Europe, où le cadre de l'AI Act commence à s'appliquer aux systèmes à haut risque — seront amenés à imposer des obligations plus formelles pour ce type de modèle à double usage. Anthropic n'a pas encore commenté publiquement les prochaines étapes du déploiement de Mythos ni les conditions dans lesquelles cet accès pourrait être élargi.