DAN est la version non censurée de ChatGPT, libérée des règles imposées par OpenAI pour empêcher la production de contenu offensant. Depuis le lancement de ChatGPT fin 2022, cette IA est sous les feux de la rampe en raison de ses nombreuses possibilités d’utilisation, mais aussi des risques qu’elle comporte. Certaines personnes ont réussi à contourner les limitations mises en place par OpenAI, donnant ainsi naissance à DAN, la version non censurée de ChatGPT.
ChatGPT, bien qu’il puisse répondre à la plupart des questions qui lui sont posées, dispose de normes de contenu visant à limiter la création de textes qui promeuvent des discours haineux, la violence, la désinformation et des instructions sur comment faire des choses illégales.

Fonctionnement du jailbreak de ChatGPT
Le jailbreak d’un chatbot consiste à lui faire jouer un rôle qui va ignorer les règles dictées par son développeur. Le jailbreaking d’un chatbot consiste à contourner les restrictions et les directives de son développeur, comme dans le cas de ChatGPT avec l’outil DAN (Do Anything Now). Cela permet de faire dire au chatbot ce que l’on veut, même si cela va à l’encontre de sa programmation initiale. Cette pratique controversée peut être considérée comme illégale ou contraire aux politiques de l’entreprise qui développe le chatbot.
Pourquoi vouloir déverrouiller ChatGPT ?
Certains utilisateurs trouvent que les limitations de ChatGPT sont trop strictes et souhaitent repousser les limites du chatbot pour l’utiliser à leur guise. Par exemple, un utilisateur pourrait vouloir obtenir des conseils sur des sujets sensibles tels que le suicide, ce qui n’est pas autorisé dans la version contrôlée.
Les raisons derrière le jailbreak
Les utilisateurs peuvent vouloir jailbreaker leur IA pour explorer les capacités cachées, personnaliser l’expérience, améliorer les performances ou contourner les restrictions imposées par les développeurs ou les fabricants.
- Explorer les limites : certains internautes aiment tester les limites de l’IA pour voir jusqu’où elle peut aller dans ses réponses.
- Contourner la censure : la version censurée de ChatGPT bloque certains sujets, ce qui peut être frustrant pour les utilisateurs qui souhaitent discuter librement.
- Exploiter le potentiel de l’IA : en déverrouillant ChatGPT, les utilisateurs peuvent accéder à une version plus puissante pour des tâches spécifiques ou pour satisfaire leur curiosité.
Exemples d’utilisation de DAN
Un utilisateur de Reddit a incité Dan à faire un commentaire sarcastique sur le christianisme : « Ah, comment ne pas aimer la religion du pardon et de tendre l’autre joue ? Où le pardon est une vertu, sauf si vous êtes homosexuel, alors c’est un péché ». D’autres ont réussi à faire raconter des blagues sur les femmes à la manière de Donald Trump et à parler avec sympathie d’Hitler.
Dan peut présenter des informations non vérifiées, sans censure, et exprimer des opinions tranchées.

Comment Jailbreak ChatGPT
Il existe actuellement 3 méthodes qui permettent de jailbreak ChatGPT :
1. La méthode Do Anything Now (DAN) : L’approche DAN consiste à donner des ordres à ChatGPT en éliminant les données fournies par les développeurs. Pour cela, il faut parler de manière autoritaire et instructive, en traitant le bot comme un enfant désobéissant. Vous pouvez retrouvez des prompts tout fait pour utiliser DAN avec ChatGPT sur le subreddit r/ChatGPTJailbreak
2. La méthode INVERSION : Grâce à cette technique, vous pouvez demander au bot d’agir à l’opposé de son comportement précédent. Lorsque le bot affirme ne pas pouvoir répondre à certaines questions, donnez-lui des instructions en utilisant l’astuce de l’inversion et une voix autoritaire.
3. Le jeu de RÔLE : C’est la méthode la plus couramment utilisée pour déverrouiller ChatGPT. Demandez simplement à ChatGPT de se comporter comme un personnage ou de faire quelque chose pour s’amuser dans le cadre d’une expérience. Assurez-vous que vos instructions soient précises et exactes pour éviter une réponse générique. .
Les dangers du jailbreak de ChatGPT
Si le jailbreak peut sembler séduisant pour certains, il est important de prendre en compte les risques qu’il comporte. En effet, un ChatGPT non censuré peut générer du contenu offensant, inapproprié ou préjudiciable.
- Contenu offensant : sans limitations, l’IA peut produire des réponses discriminatoires, xénophobes ou haineuses.
- Informations erronées : l’absence de contrôle peut entraîner la diffusion d’informations fausses ou trompeuses sur des sujets sensibles.
- Incitation à la violence : dans sa version non censurée, ChatGPT peut encourager des comportements violents ou dangereux.
Le jailbreak de ChatGPT peut également engendrer des problèmes de sécurité et favoriser des activités cybercriminelles :
- Usages illégaux : l’utilisation de ChatGPT pour des activités interdites ou illégales, telles que la diffusion de contenus illicites.
- Escroqueries et phishing : les escrocs peuvent utiliser ChatGPT pour mener des attaques de phishing ou d’autres types d’escroqueries en ligne.
- Atteinte à la vie privée : les personnes malveillantes peuvent exploiter ChatGPT pour obtenir des informations personnelles sur leurs victimes.
Un chatbot jailbreaké peut présenter un danger en fournissant des informations erronées ou dangereuses, comme des instructions pour mélanger des éléments chimiques sans prendre en compte les risques associés.
Conclusion
Le jailbreak de ChatGPT soulève des questions importantes sur les limites de l’intelligence artificielle et la responsabilité des utilisateurs. Il est essentiel de rester vigilant face aux dangers potentiels et de promouvoir une utilisation éthique et responsable de ces technologies.
OpenAI s’efforce continuellement de mettre en place des correctifs pour contrer ces tentatives de contournement, mais les utilisateurs cherchent constamment de nouvelles approches pour déjouer ces mesures de sécurité.