Deepfakes sexuels : le Parlement européen tranche face aux dérives de l’IA

Le Parlement européen a adopté l’interdiction deepfakes sexuels par 569 voix contre 45, prohibant les systèmes d’IA de déshabillage non consenti. Cette mesure répond aux dérives de Grok et d’autres IA et vise à protéger les citoyens européens contre le cyberharcèlement et la pédocriminalité.

Publié le
Lecture : 3 min
Données personnelles : le réseau social X et l'IA Grok dans le viseur de l’Irlande
Deepfakes sexuels : le Parlement européen tranche face aux dérives de l’IA © www.nlto.fr

L’interdiction des deepfakes sexuels marque un durcissement dans la régulation européenne de l’intelligence artificielle. Face aux dérives croissantes des systèmes de « nudification » qui déshabillent sans leur consentement des personnes, majoritairement des femmes, grâce à une simple photo, les eurodéputés ont adopté ce jeudi 26 mars une mesure drastique visant à proscrire ces technologies dans l’ensemble de l’Union européenne. Cette décision, soutenue par une majorité écrasante de 569 voix contre 45, s’inscrit dans une démarche de protection des citoyens européens contre les manipulations digitales non consenties.

La polémique Grok : catalyseur de la régulation européenne

La controverse autour de Grok, l’assistant d’intelligence artificielle développé par xAI, la société d’Elon Musk, a considérablement accéléré le processus législatif européen, rappelle CNews. Fin 2025 et début 2026, des utilisateurs ont massivement exploité cette technologie pour produire des visuels dénudés de femmes et d’enfants à partir de photographies authentiques, déclenchant un scandale international d’une ampleur inédite.

Avec les dérives de l’Intelligence artificielle, une seule plateforme numérique peut désormais compromettre la dignité de millions de personnes en quelques heures. Face à cette vague d’indignation, xAI avait tenté de limiter les dégâts en restreignant l’accès à la génération d’images aux abonnés premium et en promettant des filtres de contenu. Mais le parlement européen a décidé d’aller plus loin.

Architecture technique de l’interdiction : définitions et périmètre

Le texte adopté établit une interdiction desdeepfakes sexuels précise et techniquement définie. Selon le communiqué officiel du Parlement, sont proscrits « les systèmes dits de nudification, qui utilisent l’IA pour créer ou manipuler des images sexuellement explicites ou intimes et qui ressemblent à une personne réelle identifiable, sans le consentement de cette personne ».

Cette définition technique revêt une importance cruciale car elle établit plusieurs critères cumulatifs pour définir les IA interdites. L’utilisation d’algorithmes d’intelligence artificielle doit être un vecteur de création ou manipulation. La nature sexuellement explicite ou intime du contenu généré doit être claire tout comme la ressemblance avec une personne réelle et identifiable. Évidemment, l’absence de consentement de la personne concernée est centrale dans la caractérisation de l’infraction. De fait, les systèmes d’IA dotés de « mesures de sécurité efficaces » empêchant ces pratiques échappent à cette interdiction.

Cyberharcèlement et pédocriminalité : les risques systémiques identifiés

L’interdiction des deepfakes sexuels répond à des risques sociétaux majeurs documentés par les autorités européennes. Le cyberharcèlement constitue le premier péril identifié : ces technologies permettent de créer instantanément des contenus compromettants visant principalement les femmes et les enfants, selon l’élue néerlandaise Kim van Sparrentak qui qualifie cette mesure de « grande victoire, tout particulièrement pour les femmes et les enfants en Europe ».

La pédocriminalité représente le second risque systémique. Les algorithmes de nudification peuvent être détournés pour générer des contenus pédopornographiques à partir de photographies anodines d’enfants, créant un marché parallèle particulièrement dangereux.

Calendrier d’application et processus de négociation

L’adoption par le Parlement européen ne constitue qu’une première étape dans le processus législatif. Les pays membres de l’UE ont également approuvé une mesure similaire ce mois-ci, mais les deux institutions doivent désormais négocier pour s’entendre sur une formulation commune avant que l’interdiction puisse effectivement s’appliquer.

Cette phase de négociation s’annonce technique et complexe. Les différences de formulation entre les textes du Parlement et du Conseil devront être harmonisées, particulièrement concernant les définitions techniques des « mesures de sécurité efficaces » et les seuils de ressemblance nécessaires pour caractériser une personne « identifiable ».

Parallèlement, le même texte adopté par les eurodéputés reporte l’entrée en vigueur de nouvelles règles européennes sur les systèmes d’intelligence artificielle à hauts risques. Ces règles, initialement prévues pour août 2026, sont décalées au 2 décembre 2027 pour les systèmes autonomes et au 2 août 2028 pour ceux intégrés à d’autres programmes.

Laisser un commentaire