Microsoft a lancé un nouvel outil de sécurité à base d’intelligence artificielle appelé Security Copilot. L’objectif de cet outil est de centraliser toutes les données concernant les menaces dans les différentes dimensions du système informatique de l’entreprise. Les outils d’apprentissage automatique ont jusqu’à présent été efficaces pour surveiller des domaines spécifiques, comme la surveillance des e-mails ou des activités sur des appareils individuels (la sécurité des points d’extrémité), mais Security Copilot réunit toutes ces informations pour former une image plus complète.
Largement alimenté par ChatGPT-4 d’OpenAI, Security Copilot intègre également un modèle exclusif de sécurité de Microsoft. Le système suit tout ce qui est fait pendant une enquête ; le résultat peut être vérifié, et les matériaux qu’il produit peuvent tous être édités pour qu’ils soient clairs et précis. Si quelque chose est suggéré pendant une enquête, mais que ce n’est pas nécessairement pertinent, les utilisateurs peuvent cliquer sur le bouton « Hors cible » pour former davantage le système.
Security Copilot offre également des contrôles d’accès pour que certains collègues puissent être partagés pour des projets particuliers. De plus, il permet une surveillance 24 heures sur 24, 7 jours sur 7, même si quelqu’un avec une expertise spécifique n’est pas disponible.
Enfin, Microsoft a précisé que les données des clients ne sont pas partagées avec d’autres entreprises. Elles ne sont pas utilisées pour former ou enrichir les modèles d’IA fondamentaux. Les utilisateurs qui utilisent déjà Microsoft Sentinel ou Defender peuvent être rassurés, car Security Copilot doit respecter les politiques de confidentialité de ces services.
Chang Kawaguchi, vice-président et architecte de la sécurité de l’IA chez Microsoft, souligne que la flexibilité et la souplesse de Security Copilot sont des atouts majeurs et que les retours des clients guideront les futures améliorations et fonctionnalités. En fin de compte, l’utilité du système sera déterminé par sa capacité à fournir des informations précises et convaincantes sur les menaces que les clients affrontent. Selon Kawaguchi, il est essentiel de donner aux défenseurs des outils d’IA dès que possible car les attaquants vont de toute façon les utiliser.
in Tech