:quality(85))
Die missbräuchliche Nutzung von Künstlicher Intelligenz zur Erstellung gefälschter, expliziter Bilder – sogenannter Deepfakes – wirft drängende rechtliche Fragen auf. Aktuelle Vorfälle, bei denen Chatbots wie Grok von X (ehemals Twitter) missbraucht werden, um Bilder von Personen ohne deren Zustimmung zu manipulieren, unterstreichen die Brisanz des Themas.
Ein Forschungsteam der Universität Passau um den Informatiker Prof. Dr. Steffen Herbold (Lehrstuhl für AI Engineering) hat nun in einer Studie untersucht, wer bei der Erstellung von strafrechtlich relevanten Inhalten mittels KI zur Verantwortung gezogen werden kann.
Wer haftet? Nutzer, Entwickler oder beide?
Die zentrale Erkenntnis der Studie ist, dass primär die Nutzenden als Haupttäter gelten, wenn sie mit einer KI illegale Inhalte erzeugen. Jedoch können auch die Anbieter und Entwickler der KI belangt werden, insbesondere wenn ihnen vorsätzliche Beihilfe nachgewiesen werden kann.
Der Vorsatz ist entscheidend
Laut der Studie ist der juristische Vorsatz der entscheidende Faktor. Das bedeutet, Entwickler und Anbieter handeln strafrechtlich relevant, wenn sie mit Wissen und Wollen agieren, dass ihre Technologie für illegale Zwecke genutzt wird.
Indiz für Beihilfe: Wenn ein KI-Modell die Erstellung freizügiger Inhalte explizit erlaubt oder die Schutzmechanismen leicht umgangen werden können, kann dies als Indiz für Vorsatz gewertet werden, so Prof. Dr. Brian Valerius vom Lehrstuhl für Künstliche Intelligenz im Strafrecht.
Nutzungsbedingungen schützen nicht: Selbst ein Verbot illegaler Aktivitäten in den AGB befreit Anbieter nicht pauschal von der strafrechtlichen Verantwortung. Im Gegenteil, so die Juristin Svenja Wölfel, könne ein solches Verbot sogar belegen, dass der Entwickler das Risiko kannte, was für den Vorsatz sprechen könnte.
Standort ist nicht entscheidend: Auch das Hosting von KI-Diensten im Ausland schützt nicht vor Strafverfolgung. Deutsche Behörden können ermitteln, wenn deutsche Staatsbürger involviert sind oder wenn es sich um international geächtete Straftaten handelt.
Die Studie mit dem Titel „Criminal Liability of Generative Artificial Intelligence Providers for User-Generated Child Sexual Abuse Material“ ist als Preprint erschienen und wurde bereits für die renommierte International Conference on AI Engineering akzeptiert, die im April 2026 stattfinden wird.