Pourquoi le nouvel outil d'IA Claude Code Security d'Anthropic secoue-t-il les actions de cybersécurité ?
Vendredi, Anthropic a dévoilé Claude Code Security, un nouvel outil basé sur l’IA conçu pour traquer de manière autonome les vulnérabilités logicielles et proposer des correctifs.
Contrairement aux analyseurs traditionnels qui recherchent des schémas connus, cette fonctionnalité, intégrée à son outil de codage agentique pour développeurs, permet à l’IA d’analyser des bases de code complètes et de raisonner sur la manière dont les différentes parties d’un logiciel interagissent, signalant ainsi des failles subtiles et complexes que les humains et les anciens outils manquent souvent, a indiqué la société dans un article de blog.
Voici ce qu’il faut savoir :
Basé sur un raisonnement avancé de l’IA
Le nouvel outil exploite le dernier modèle d’Anthropic, Opus 4.6, qui a été testé en interne par l’équipe Frontier Red Team de la société. Selon Anthropic, le modèle a déjà identifié plus de 500 vulnérabilités à haute gravité auparavant inconnues dans des projets open source en production — des failles qui étaient passées inaperçues depuis des années malgré des examens humains approfondis.
Fait monter les enjeux dans la course à la cybersécurité
Anthropic présente Claude Code Security comme un outil défensif dans un contexte où les attaquants utilisent de plus en plus l’IA pour trouver et exploiter les bugs plus rapidement que jamais. L’entreprise déploie cette fonctionnalité de manière prudente dans un aperçu de recherche limité pour les clients entreprises et équipes, et offre un accès accéléré aux mainteneurs open source qui manquent de ressources pour des tests de sécurité robustes.
L’annonce a provoqué une forte baisse des actions du secteur de la cybersécurité vendredi, alors que les investisseurs évaluaient les implications d’une pénétration plus profonde de l’IA dans un domaine longtemps dominé par des fournisseurs de sécurité spécialisés.
Les actions des principaux défenseurs, dont CrowdStrike (NASDAQ:CRWD), Cloudflare (NYSE:NET), Gitlab (NASDAQ:GTLB) et Okta (NASDAQ:OKTA), ont chuté de près de 8% ou davantage. Palo Alto Networks (NASDAQ:PANW) a perdu 1,5%, tandis que Zscaler Inc (NASDAQ:ZS) a reculé de 5,47% vendredi. Le Global X Cybersecurity ETF (NASDAQ:BUG), qui suit les entreprises de sécurité du monde entier, a clôturé la séance en baisse de près de 5%, reflétant les craintes que les outils alimentés par l’IA d’acteurs comme Anthropic et OpenAI puissent remettre en cause la demande pour les suites de sécurité traditionnelles.
Nécessite toujours une intervention humaine
Claude Code Security examine l’ensemble des bases de code, suit la circulation des données dans les systèmes et inspecte les interactions entre les composants. Il évalue également la gravité des problèmes détectés et génère des explications lisibles par des humains ainsi que des correctifs suggérés. Cependant, il n’applique pas automatiquement les correctifs. Tous les changements doivent être examinés et approuvés par les développeurs, une précaution destinée à éviter des conséquences imprévues.
La pression concurrentielle s’intensifie
La concurrence en matière d’IA dans la sécurité ne se limite pas à Anthropic. OpenAI a lancé ses propres outils de cybersécurité automatisés, en commençant par “Aardvark” en octobre dernier. Les deux sociétés pourraient intégrer ces outils d’IA directement dans le processus de développement logiciel, un secteur où des sociétés de sécurité traditionnelles comme CrowdStrike et Palo Alto Networks sont depuis longtemps les leaders.
Image via Shutterstock
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Les bénéfices en forte hausse de HPE et la croissance du réseau indiquent un changement de perspective du marché

Un investisseur précoce de Bitcoin : XRP n’est qu’une banque déguisée en hoodie. Voilà pourquoi
