Anthropic limite la sortie de Claude Mythos pour éviter les risques de cyberattaques

Anthropic limite la sortie de Claude Mythos pour éviter les risques de cyberattaques

Anthropic a annoncé Claude Mythos Preview, un système avancé d’IA de cybersécurité conçu pour identifier les vulnérabilités et les failles des logiciels. Il s’agit d’un outil particulièrement puissant, capable d’identifier même des bugs complexes et difficiles à détecter avec les méthodes traditionnelles.

C’est précisément pour ces capacités que l’entreprise a choisi une approche prudente : le modèle ne sera accessible qu’à un petit nombre d’entreprises sélectionnées.

Pourquoi Anthropic limite l’accès au modèle d’IA

La décision découle de la crainte que des technologies de ce type puissent également être exploitées par des acteurs malveillants. Un système capable de trouver des vulnérabilités avec une grande précision pourrait en effet être utilisé non seulement pour se défendre, mais aussi pour attaquer.

Pour cette raison, Anthropic a initié une version contrôlée, dans le but de tester le modèle dans des contextes sûrs avant une éventuelle distribution plus large.

Le projet Glasswing implique plus de 40 entreprises dans le domaine de la cybersécurité

Le nouveau modèle sera utilisé dans le cadre du projet Glasswing, une initiative dédiée au développement d’outils de cybersécurité basés sur l’IA.

Les partenaires comprennent certaines des plus grandes entreprises technologiques mondiales, notamment Apple, Google, Microsoft et Amazon Web Services, ainsi que des acteurs spécialisés tels que CrowdStrike et Palo Alto Networks.

Entreprises impliquées dans le projet Glasswing

Les entreprises participantes travaillent sur une infrastructure logicielle critique et utiliseront le modèle pour renforcer la sécurité des systèmes propriétaires et open source.

Anthropic a également prévu un investissement important, avec jusqu’à 100 millions de dollars de crédits utilisateurs pour soutenir les opérations initiales.

LIRE AUSSI : Claude peut aussi accéder au web en temps réel

Claude Mythos Preview identifie même les vulnérabilités très complexes

Selon l’entreprise, Claude Mythos Preview représente un bond en avant dans la capacité des modèles d’IA pour la cybersécurité.

Lors d’un test, le système a réussi à identifier un bug présent depuis 27 ans dans OpenBSD, un système d’exploitation connu pour son attention à la sécurité.

Comment fonctionne Claude Mythos Preview

Le modèle n’a pas été conçu exclusivement pour la cybersécurité, mais tire ses capacités de compétences avancées en matière de codage et de raisonnement.

Cela le rend particulièrement efficace pour analyser du code complexe et identifier les anomalies qui manquent aux outils traditionnels.

Les risques de l’intelligence artificielle en cybersécurité

L’annonce d’Anthropic relance le débat sur les risques liés à l’utilisation de l’IA pour la cybersécurité. Si ces technologies peuvent améliorer les défenses numériques, elles peuvent aussi amplifier les capacités offensives.

L’entreprise elle-même a souligné la nécessité d’éviter une publication « irresponsable » qui pourrait favoriser les cybercriminels ou les acteurs étatiques.

Un équilibre entre innovation et sécurité

Selon le PDG Dario Amodei, le potentiel est énorme : si elle est gérée correctement, l’intelligence artificielle pourrait contribuer à créer un Internet plus sûr que par le passé.

Cependant, la marge d’erreur est faible et nécessite une surveillance constante, en particulier à une époque où les capacités des modèles augmentent rapidement.

L’avenir de l’IA pour la cybersécurité passe par des tests contrôlés

Anthropic considère le projet Glasswing comme une première étape pour comprendre comment déployer des modèles de cette classe à grande échelle dans le futur.

L’objectif est de permettre aux entreprises d’acquérir de l’expérience dans l’utilisation de ces technologies avant qu’elles ne se généralisent.

Une phase expérimentale avant diffusion

Pour le moment, Claude Mythos Preview ne sera pas mis à la disposition du public. L’entreprise préfère collecter des données, tester les limites du système et évaluer les risques.

Une approche qui reflète une attention croissante portée à la sécurité dans le développement de l’intelligence artificielle, notamment dans les contextes les plus sensibles comme la cybersécurité.