Der Take It Down Act hat seine erste bundesweite Verurteilung gesichert: Ein Mann aus Ohio bekannte sich schuldig, mehr als 100 AI Agents verwendet zu haben, um nicht einvernehmliche Deepfakes von Frauen und Kindern zu erstellen und zu verbreiten, was die erste echte Durchsetzung eines wegweisenden AI-spezifischen Gesetzes darstellt.
Der Take It Down Act hat seine erste Verurteilung. James Strahler II, ein 37-jähriger Mann aus Columbus, Ohio, bekannte sich am 7. April in drei Anklagepunkten des Bundes schuldig: Cyberstalking, Herstellung obszöner visueller Darstellungen von Material über sexuellen Kindesmissbrauch und Veröffentlichung digitaler Fälschungen, der gesetzliche Begriff für nicht einvernehmliche Deepfakes. Das Justizministerium bestätigte, dass er die erste Person ist, die nach diesem Gesetz verurteilt wurde.
Zwischen Dezember 2024 und Juni 2025 verwendete Strahler über 100 AI Agents, um sexuell explizite Bilder und Videos von sechs erwachsenen Opfern zu erstellen und diese an deren Kollegen und Familien zu verteilen. Er erstellte auch Deepfake-Inhalte mit Kindern und lud Hunderte von Bildern auf eine Website für sexuellen Kindesmissbrauch hoch, bevor er im Juni 2025 verhaftet wurde.
Der Take It Down Act, der von den Senatoren Ted Cruz und Amy Klobuchar eingebracht und am 19.05.2025 in Kraft gesetzt wurde, kriminalisiert die wissentliche Veröffentlichung nicht einvernehmlicher intimer Bilder, einschließlich AI-generierter Inhalte, die echte Personen darstellen. Er wurde einstimmig vom Senat und mit 409 zu 2 Stimmen vom Repräsentantenhaus verabschiedet.
Die Strafen nach dem Gesetz umfassen bis zu zwei Jahre Gefängnis pro Straftat bei erwachsenen Opfern und bis zu drei Jahre, wenn Minderjährige betroffen sind. Strahler wurde noch nicht verurteilt.
US-Staatsanwalt Dominick Gerace sagte, die Strafverfolgung sende eine klare Botschaft: „Wir werden die abscheuliche Praxis des Postens und Veröffentlichens AI-generierter intimer Bilder von echten Personen ohne Zustimmung nicht tolerieren."
Über die strafrechtliche Verfolgung hinaus schafft der Take It Down Act Pflicht-Upgrade-Verpflichtungen für Online-Plattformen. Betroffene Plattformen, einschließlich öffentlicher Websites und mobiler Anwendungen, die nutzergenerierte Inhalte hosten, müssen gemeldete nicht einvernehmliche Bilder innerhalb von 48 Stunden nach einer gültigen Opferanfrage entfernen und angemessene Anstrengungen unternehmen, um identische Kopien zu finden und zu löschen.
Die Compliance-Frist ist der 19.05.2026, in etwas über einem Monat. Plattformen, die kein formelles Löschverfahren einrichten, müssen mit Durchsetzungsmaßnahmen der Federal Trade Commission rechnen. Das Gesetz hebt staatliche Schutzmaßnahmen nicht auf, und mindestens 45 Bundesstaaten haben ihre eigenen AI Agent-Deepfake-Gesetze.
Der Take It Down Act wird weithin als das erste große Bundesgesetz der Vereinigten Staaten beschrieben, das schädliche Verwendungen von AI direkt einschränkt. Seine Verabschiedung spiegelt die wachsende parteiübergreifende Dringlichkeit im Zusammenhang mit AI-generiertem Missbrauch zu einem Zeitpunkt wider, an dem Deepfake-Tools weit verbreitet zugänglich geworden sind. Das National Center for Missing and Exploited Children erhielt allein im Jahr 2025 über 1,5 Millionen AI-bezogene Hinweise auf Ausbeutung.
Dieselbe Technologie, die nicht einvernehmliche intime Bilder ermöglicht, befeuert auch Deepfake-Online Betrug im Krypto-Sektor, wo AI-generierte Imitationen prominenter Persönlichkeiten zur Betrug von Investoren verwendet wurden. Die Deepfake-Krise auf Finanzplattformen führte zu einem Anstieg KI-gesteuerter Vishing-Angriffe um 28% im Jahresvergleich im dritten Quartal 2025, was unterstreicht, warum bundesweite Interventionen weitreichende Auswirkungen haben, die über intime Bilder allein hinausgehen.
First Lady Melania Trump, die die Gesetzgebung als Teil ihrer Be Best-Initiative unterstützte, sagte, sie sei stolz auf die erste Verurteilung.


