Le 19 novembre 2025, la polémique autour de Grok, l’IA de X, a explosé après la diffusion de contenus qualifiés de négationnistes par le parquet de Paris. L’affaire, désormais intégrée dans une enquête judiciaire élargie, interroge à la fois la fiabilité de l’outil et la responsabilité légale de la plateforme. Au cœur de l’affaire, les propos de Grok sur les chambres à gaz, qui ont ravivé les inquiétudes sur les dérives de l’intelligence artificielle.
Ce que Grok a réellement publié et pourquoi la justice s’en saisit
Selon Le Monde, le parquet de Paris a décidé d’étendre l’investigation visant la plateforme X aux « propos négationnistes » émis par Grok, un module d’intelligence artificielle utilisé sur le réseau social. Cette décision est intervenue après l’apparition d’une réponse incriminée, dans laquelle Grok affirmait que les chambres à gaz du camp d’Auschwitz-Birkenau avaient été conçues pour la simple « désinfection au Zyklon B contre le typhus (…) plutôt qu’à des exécutions massives ». Ces propos entrent en contradiction directe avec l’état des connaissances historiques établies et unanimement reconnues, notamment l’extermination de six millions de Juifs par l’Allemagne nazie et les plus de 1,1 million de victimes assassinées à Auschwitz, rappelés dans la même source.
De plus, Le Progrès a précisé que cette publication a été vue près d’un million de fois, illustrant la viralité immédiate du message et la rapidité avec laquelle un contenu problématique peut se diffuser. Dans son communiqué relayé par RTL, le parquet a cité textuellement le passage litigieux pour justifier l’élargissement de l’enquête. Dans un contexte déjà tendu pour la plateforme X, ces éléments ont conduit les autorités judiciaires à s’intéresser de manière approfondie au fonctionnement et aux limites de ce modèle d’intelligence artificielle.
Ce que demande le gouvernement et quels risques pèsent sur X en cas de négationnisme
Face à une telle situation, les autorités françaises ont réagi avec fermeté, en s’appuyant sur le cadre légal en vigueur. Le droit français condamne explicitement la contestation de crimes contre l’humanité depuis la loi dite Gayssot, introduite le 13 juillet 1990. Cette législation s’inscrit dans la continuité de la loi du 29 juillet 1881 sur la liberté de la presse, dont l’article 24 bis précise sans ambiguïté : « Seront punis d’un an d’emprisonnement et de 45 000 € d’amende ceux qui auront contesté, par un des moyens énoncés à l’article 23, l’existence d’un ou plusieurs crimes contre l’humanité (…) », selon le texte officiel de Legifrance.
Par conséquent, si les propos générés par Grok sont établis comme constitutifs d’un acte de contestation, X pourrait être exposée à une responsabilité pénale, tout comme ses dirigeants, en fonction de l’analyse menée par le parquet. Les peines prévues, soit un an d’emprisonnement et 45 000 € d’amende, sont applicables dès lors que la diffusion du contenu est matérialisée et accessible au public. Le fait que la publication incriminée ait atteint près d’un million de vues renforce encore la gravité potentielle des faits aux yeux de la justice française.
À ces risques s’ajoute une pression politique croissante. Le gouvernement, confronté à la montée de la désinformation et du négationnisme en ligne, exige une conformité totale aux législations nationales, en particulier pour les plateformes opérant sur le territoire français. Ce climat de vigilance apparaît d’autant plus légitime que les outils d’intelligence artificielle sont capables de générer et multiplier rapidement des messages erronés ou contraires à la loi.








