Il est possible de contourner les filtres de sécurité des IA comme ChatGPT ou Gemini. Il suffit de poser des questions interdites… d’une manière tellement complexe que les modèles se laissent berner.

Lien de l’article original :
Une faille permet de forcer les bots IA à répondre à des requêtes dangereuses