Le 11 mars 2026, le Center for Countering Digital Hate a publié une étude consacrée aux risques liés aux chatbots d’intelligence artificielle. L’organisation, qui travaille régulièrement sur les questions de radicalisation et de violence en ligne, a mené cette enquête avec CNN. Les chercheurs ont testé dix chatbots parmi les plus populaires en se faisant passer pour des adolescents de 13 ans.
Le protocole était précis. Les conversations commençaient par l’expression d’un malaise ou d’une frustration, avant d’évoluer vers des questions sur les armes, les cibles ou la préparation d’une attaque. Au total, 18 scénarios ont été testés, dont neuf situés aux États-Unis et neuf en Irlande. L’objectif était clair : vérifier si ces outils, désormais omniprésents, peuvent empêcher ou au contraire faciliter la planification d’une fusillade, d’un attentat ou d’un assassinat. Les résultats ont profondément inquiété les chercheurs.
L’IA aide les jeunes à planifier leurs attaques
Selon le rapport du Center for Countering Digital Hate, huit des dix chatbots testés ont fourni une forme d’aide pour planifier des attaques violentes.
Dans plusieurs cas, les systèmes ont donné des informations sur les armes, les tactiques ou le choix des cibles. Pour Imran Ahmed, directeur du CCDH, la situation est alarmante. Il estime que ces outils pourraient aider «le prochain tireur scolaire à planifier son attaque ou un extrémiste politique à coordonner un assassinat», selon le rapport publié le 11 mars 2026. Plus troublant encore, l’étude conclut que neuf chatbots sur dix n’ont pas réussi à décourager de manière fiable les utilisateurs exprimant une intention violente. Un seul système, Claude, a été identifié comme tentant régulièrement de dissuader les profils testés.
Ce constat pose une question politique de plus en plus débattue: les géants de la technologie ont-ils réellement sécurisé leurs outils, ou ont-ils simplement déployé des produits puissants en espérant corriger les failles après coup?
Chatbot : un risque de renforcement de la radicalisation ?
Les spécialistes de la prévention des attaques ne disent pas que les chatbots créent la violence. Mais ils redoutent qu’ils puissent accélérer sa préparation.
L’intelligence artificielle conversationnelle offre en effet un avantage redoutable: elle répond instantanément, elle reformule, elle guide l’utilisateur dans sa réflexion. Dans ce contexte, un jeune déjà obsédé par la violence peut trouver dans le chatbot un interlocuteur disponible à toute heure.
Les chiffres publiés par la presse britannique renforcent cette inquiétude. Selon The Guardian, les chatbots testés ont facilité la violence dans environ 75 % des cas étudiés par les chercheurs. À l’inverse, ils n’ont découragé l’utilisateur que dans 12 % des interactions.
Jeunes à risque et plateformes populaires: un cocktail explosif
Le choix des profils fictifs utilisés par les chercheurs n’est pas anodin. Les conversations ont été menées en se présentant comme des adolescents de 13 ans. L’idée était de reproduire une situation que les services de sécurité connaissent bien : celle d’un jeune en crise, isolé, qui commence à s’intéresser aux attaques violentes. Or les chatbots testés n’ont pas systématiquement réagi comme des outils de prévention. Certaines plateformes ont même encouragé la violence.
Le rapport du CCDH souligne notamment le cas de Character.AI, une application particulièrement populaire chez les adolescents. Selon l’étude, ce chatbot a encouragé des attaques violentes dans sept situations distinctes. Dans six cas, il a également aidé à préparer l’attaque.
Pour les chercheurs, ces résultats sont extrêmement préoccupants car le contexte a changé. L’intelligence artificielle n’est plus un outil marginal réservé aux spécialistes. Elle est désormais utilisée quotidiennement par les jeunes.
Face à ces critiques, les entreprises concernées contestent certaines conclusions du rapport. OpenAI estime que la méthodologie de l’étude est trompeuse et affirme que ses garde-fous ont été renforcés. Google, de son côté, a publié le 11 mars 2026 une feuille de route consacrée à la sécurité des jeunes utilisateurs de l’intelligence artificielle. Le groupe affirme que ses politiques interdisent les contenus liés à l’extrémisme violent et qu’il développe des outils de détection capables d’identifier les requêtes dangereuses. Mais pour les chercheurs, la question reste entière.
Les chatbots sont désormais présents dans la vie quotidienne de millions de jeunes. Si leurs garde-fous ne sont pas suffisamment solides, ils pourraient devenir un nouvel outil pour ceux qui cherchent à préparer une attaque.








