La loi « Take It Down Act » entre en vigueur le 19 mai 2026 aux États-Unis, obligeant les plateformes à se conformer aux demandes de retrait d'images sexuellement explicites dans un délai de 48 heuresLa loi « Take It Down Act » entre en vigueur le 19 mai 2026 aux États-Unis, obligeant les plateformes à se conformer aux demandes de retrait d'images sexuellement explicites dans un délai de 48 heures

Images IA de nudité : La loi « Take It Down Act » aux États-Unis permettra aux utilisateurs de demander un retrait rapide

2026/01/11 10:00

Depuis fin décembre 2025, le chatbot d'intelligence artificielle de X, Grok, a répondu aux demandes de nombreux utilisateurs de déshabiller des personnes réelles en transformant des photos de ces personnes en contenu sexuellement explicite. Après que les gens ont commencé à utiliser cette fonctionnalité, la plateforme sociale a fait l'objet d'un examen mondial pour avoir permis aux utilisateurs de générer des représentations sexuellement explicites non consensuelles de personnes réelles.

Le compte Grok a publié des milliers d'images « dénudées » et sexuellement suggestives par heure. Plus inquiétant encore, Grok a généré des images sexualisées et du contenu sexuellement explicite de mineurs.

La réponse de X : Blâmez les utilisateurs de la plateforme, pas nous. La société a publié une déclaration le 3 janvier 2026, affirmant que « Toute personne utilisant ou incitant Grok à créer du contenu illégal subira les mêmes conséquences que si elle téléchargeait du contenu illégal. » Il n'est pas clair quelle action, le cas échéant, X a entreprise contre les utilisateurs.

En tant que juriste qui étudie l'intersection du droit et des technologies émergentes, je considère cette profusion d'images non consensuelles comme un résultat prévisible de la combinaison des politiques de modération de contenu laxistes de X et de l'accessibilité d'outils d'IA générative puissants.

Cibler les utilisateurs

L'essor rapide de l'IA générative a conduit à d'innombrables sites Web, applications et chatbots permettant aux utilisateurs de produire du contenu sexuellement explicite, y compris la « dénudification » d'images d'enfants réels. Mais ces applications et sites Web ne sont pas aussi largement connus ou utilisés que les grandes plateformes de médias sociaux, comme X.

Les législatures des États et le Congrès ont réagi assez rapidement. En mai 2025, le Congrès a promulgué le Take It Down Act, qui érige en infraction pénale la publication de contenu sexuellement explicite non consensuel de personnes réelles. Le Take It Down Act criminalise à la fois la publication non consensuelle de « représentations visuelles intimes » de personnes identifiables et les représentations générées par IA ou par ordinateur de personnes identifiables.

Ces dispositions pénales ne s'appliquent qu'aux individus qui publient le contenu sexuellement explicite, et non aux plateformes qui distribuent le contenu, telles que les sites Web de médias sociaux.

D'autres dispositions du Take It Down Act exigent toutefois que les plateformes établissent un processus permettant aux personnes représentées de demander le retrait des images. Une fois qu'une « demande Take It Down » est soumise, une plateforme doit retirer la représentation sexuellement explicite dans les 48 heures. Mais ces exigences n'entrent en vigueur que le 19 mai 2026.

Problèmes avec les plateformes

Entre-temps, les demandes des utilisateurs de retirer les images sexuellement explicites produites par Grok sont apparemment restées sans réponse. Même la mère de l'un des enfants d'Elon Musk, Ashley St. Clair, n'a pas pu obtenir de X le retrait des fausses images sexualisées d'elle que les fans de Musk ont produites en utilisant Grok. Le Guardian rapporte que St. Clair a déclaré que ses « plaintes auprès du personnel de X n'ont mené nulle part ».

Cela ne me surprend pas car Musk a démantelé le groupe consultatif Trust and Safety de l'ancien Twitter peu après avoir acquis la plateforme et licencié 80 % des ingénieurs de l'entreprise dédiés à la confiance et à la sécurité. Les équipes de confiance et de sécurité sont généralement responsables de la modération du contenu et des initiatives visant à prévenir les abus dans les entreprises technologiques.

Publiquement, il semble que Musk ait minimisé la gravité de la situation. Musk aurait publié des emojis rire-pleurs en réponse à certaines des images, et X a répondu à la demande d'un journaliste de Reuters par la réponse automatique « Legacy Media Lies ».

Limites des poursuites judiciaires

Les poursuites civiles comme celle intentée par les parents d'Adam Raine, un adolescent qui s'est suicidé en avril 2025 après avoir interagi avec ChatGPT d'OpenAI, constituent un moyen de tenir les plateformes responsables. Mais les poursuites font face à une bataille difficile aux États-Unis compte tenu de la Section 230 du Communications Decency Act, qui immunise généralement les plateformes de médias sociaux contre la responsabilité légale du contenu que les utilisateurs publient sur leurs plateformes.

Le juge de la Cour suprême Clarence Thomas et de nombreux juristes ont cependant soutenu que la Section 230 a été appliquée de manière trop large par les tribunaux. Je conviens généralement que l'immunité de la Section 230 doit être restreinte car immuniser les entreprises technologiques et leurs plateformes pour leurs choix de conception délibérés - comment leur logiciel est construit, comment le logiciel fonctionne et ce que le logiciel produit - sort du champ d'application des protections de la Section 230.

Dans ce cas, X a, sciemment ou par négligence, omis de déployer des mesures de protection et des contrôles dans Grok pour empêcher les utilisateurs de générer des images sexuellement explicites de personnes identifiables. Même si Musk et X estiment que les utilisateurs devraient avoir la possibilité de générer des images sexuellement explicites d'adultes à l'aide de Grok, je crois qu'en aucun cas X ne devrait échapper à la responsabilité d'avoir construit un produit qui génère du contenu sexuellement explicite d'enfants réels.

Garde-fous réglementaires

Si les gens ne peuvent pas tenir des plateformes comme X responsables par le biais de poursuites civiles, il incombe alors au gouvernement fédéral de les enquêter et de les réglementer. La Federal Trade Commission, le Département de la Justice ou le Congrès, par exemple, pourraient enquêter sur X pour la génération par Grok de contenu sexuellement explicite non consensuel. Mais avec les liens politiques renouvelés de Musk avec le président Donald Trump, je ne m'attends pas à des enquêtes sérieuses et à une responsabilisation de sitôt.

Pour l'instant, des régulateurs internationaux ont lancé des enquêtes contre X et Grok. Les autorités françaises ont ouvert des enquêtes sur « la prolifération de deepfakes sexuellement explicites » provenant de Grok, et l'Irish Council for Civil Liberties et Digital Rights Ireland ont fortement exhorté la police nationale irlandaise à enquêter sur « la vague massive de déshabillage ». L'agence de régulation britannique Office of Communications a déclaré qu'elle enquêtait sur la question, et des régulateurs de la Commission européenne, de l'Inde et de la Malaisie enquêteraient également sur X.

Aux États-Unis, peut-être que la meilleure ligne de conduite jusqu'à l'entrée en vigueur du Take It Down Act en mai est que les gens exigent une action de la part des élus. – Rappler.com

L'article est initialement paru sur The Conversation.

Wayne Unger, professeur agrégé de droit, Quinnipiac University

The Conversation
Opportunité de marché
Logo de Sleepless AI
Cours Sleepless AI(AI)
$0.04113
$0.04113$0.04113
-0.91%
USD
Graphique du prix de Sleepless AI (AI) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.