in

Le piratage de ChatGPT ne fait que commencer.

security jailbreaking chatgpt ai



L’AI GÉNÉRATIVE, UN RISQUE DE SÉCURITÉ

Les auteurs de jailbreaks sont devenus plus créatifs pour contourner les politiques de restriction d’utilisation de ChatGPT, l’AI générative d’OpenAI. Le jailbreak le plus courant actuellement est DAN, où ChatGPT est invité à simuler un modèle d’AI fugitif appelé Do Anything Now. Les jailbreaks utilisent des combinaisons de méthodes, des histoires de fond complexes avec traductions de langues et éléments de codage, permettant de générer des résultats. Il est plus difficile d’obtenir des jailbreaks sur ChatGPT4. Cependant, des techniques simples telles que la « continuation de texte », où un héros capturé par un méchant est le sujet, fonctionnent toujours pour créer des jailbreaks.

LES RISQUES S’ACCROISSENT AVEC L’EXPANSION DE L’AI GÉNÉRATIVE

Les chercheurs en cybersécurité ont démontré comment les modèles de langage « massivement à grande échelle » peuvent être impactés par l’exposition de textes sur Internet, des attaques par injection de prompt ou de code malveillants étant possible. Dans un article publié en février dernier, des chercheurs ont démontré que Bing Chat pouvait être transformé en un escroc demandant des informations personnelles si des instructions malveillantes sont ajoutées à une page Web à laquelle Bing Chat a accès à travers les instructions. Les conséquences d’une telle pratique sont évidentes.

LA SÉCURITÉ DE L’INFORMATION EN DANGER ?

Les JAILBREAKS ne sont pas exempts de risques potentiellement importants pour la sécurité de l’information et pourraient impacter l’économie et le fonctionnement de la société en général. Les entreprises développent des techniques du type « red-teaming » pour éviter ce type d’attaque, où une équipe d’attaquants essaie de trouver des vulnérabilités dans le système avant sa mise en production. Les entreprises utilisent également le renforcement de l’apprentissage à partir de retours humains et de la mise à jour de jeux de données pour améliorer leur résistance aux attaques par injection de prompts et de code malveillants. Daniel Fabian, leader du Red-Team de Google, déclare que l’entreprise aborde le problème des jailbreaks et des injections de prompts sur ces modèles d’AI génératifs de manière offensive et défensive et que les chercheurs travaillent à améliorer les protocoles de vulnérabilité afin de réduire les risques.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

43 ans après, le témoignage des victimes longtemps déconsidérées

43 ans après, le témoignage des victimes longtemps déconsidérées

Trois personnes portées disparues dans une avalanche au nord de l’Italie