EU AI Act: Kennzeichnung von KI-Content

Der EU AI Act ist seit 1. August 2024 in Kraft – und wird seitdem schrittweise umgesetzt. Die Regelungen betreffen nicht nur die Unternehmen, die KI-Systeme entwickeln und vertreiben, sondern auch Organisationen, die KI wie ChatGPT, Midjourney und Co. nutzen. Sie sollten sich frühzeitig auf die neue Transparenzpflicht vorbereiten, die die KI-Verordnung für Inhalte, die mit Generative AI erzeugt werden, vorsieht.

Prompting by Awed, rendering by Midjourney

Die neuen Regulierungen und Vorschriften stellen Unternehmen, Agenturen und Marketingabteilungen vor viele offene Fragen:

Muss ich KI-generierten Content kennzeichnen? Kann ich einen Werbefilm nur mit KI entwickeln und veröffentlichen? Was bedeutet die Aussage, dass ich meine Mitarbeiter:innen schulen muss? Wie sind die Deadlines für diese Maßnahmen?

Wir haben uns intensiv mit dem EU AI Act auseinandergesetzt und vor allem die Paragraphen beleuchtet, die für den Kreativbereich und für das Marketing relevant sind.

Hier wollen wir uns auf das Thema “Transparenzverpflichtungen für KI-generierte Inhalte” konzentrieren, die ab dem 2. August 2026 gelten. Hier haben die Unternehmen noch Zeit, sich intensiv auf diese Änderungen vorzubereiten. Dahingegen ist die Schulungspflicht für Mitarbeitende, die mit KI arbeiten, ein dringliches Thema, da die Verordnung bereits am 2. Februar 2025 in Kraft tritt. Darüber haben wir im vorigen Artikel ausführlich geschrieben.


4 Risikostufen mit unterschiedlichen Regularien

Der EU AI Act sieht für die vier Risikostufen je eigene Compliance-Anforderungen vor. Die Vorschriften werden weiterhin schrittweise ausgerollt: Während die Transparenzverpflichtung für KI-generierten Content in knapp 1,5 Jahren relevant ist, sind bereits ab dem 2. Februar 2025 bestimmte Hochrisikosysteme verboten, die inakzeptable Risiken darstellen, etwa Social Scoring Systeme, die Personen anhand von Online-Daten und Verhaltensweisen bewerten.


generative KI: KI-Systeme mit geringem Risiko

Generative KI, wie sie vor allem in Werbung und Kommunikation zum Einsatz kommt, fällt in die Kategorie von KI-Systemen mit geringem Risiko. GenAI-Systeme profitieren von einer leichteren regulatorischen Behandlung innerhalb der KI-Verordnung.

Prompting by Awed, rendering by Midjourney

KI-Systeme, die dazu gedacht sind, mit Einzelpersonen zu interagieren oder Inhalte zu erzeugen, können Risiken wie Imitation oder Täuschung mit sich bringen. Solche KI-Systeme gelten als „KI-Systeme mit Transparenzrisiken“. Diese umfassen:

  • Systeme, mit denen interagiert werden kann, wie Chatbots und digitale Assistenten;

  • Systeme, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, wie ChatGPT oder Midjourney;

  • Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, und Deepfakes generieren können, wie ElevenLabs;

  • Systeme, die Texte generieren, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren.

Nach den EU-Gesetzgebern müssen die genannten KI-Systeme unter bestimmten Umständen Transparenzverpflichtungen erfüllen. Dabei wird zwischen Pflichten für Anbieter und Betreiber solcher Systeme unterschieden:


Anbieterpflichten Im Bereich Generative KI

Ein Anbieter ist die Organisation oder Person, die ein KI-System entwickelt, bereitstellt oder in Verkehr bringt. Anbieter sind primär dafür verantwortlich, dass das KI-System den gesetzlichen Anforderungen entspricht, bevor es genutzt oder an Kund:innen weitergegeben wird. Das sind bspw. Unternehmen wie OpenAI, Midjourney oder Adobe Sensei. Gemäß Artikel 50 der KI-Verordnung müssen Anbieter von KI-Systemen mit Transparenzrisiken folgende Anforderungen erfüllen:

  • Sicherstellen, dass KI-Systeme mit Transparenzkennzeichnungen ausgestattet sind (z. B. maschinenlesbare Labels für generierte Inhalte). Technische Lösungen bereitstellen, die effektiv, interoperabel und robust sind.

  • Nutzer über die Funktionsweise und Limitationen des Systems informieren.

Prompting by Awed, rendering by Midjourney

Im Fokus: Chatbots und digitale Assistenten

Ein wichtiger Einsatzbereich von KI sind Chatbots. Anbieter müssen sicherstellen, dass KI-Systeme, die für die direkte Interaktion mit Personen bestimmt sind, so gestaltet und entwickelt werden, dass diese Personen informiert werden, dass sie mit einem KI-System interagieren.

Diese Verpflichtung entfällt nur, wenn dies für eine hinreichend informierte, aufmerksame und vorsichtige Person offensichtlich ist, unter Berücksichtigung der Umstände und des Nutzungskontexts.

Diese Verpflichtung gilt nicht für KI-Systeme, die gesetzlich befugt sind, Straftaten zu erkennen, zu verhindern, zu untersuchen oder zu verfolgen. (Dieses Thema müssen wir an dieser Stelle jedoch nicht weiter vertiefen.)

Anbieterseitige Kennzeichnungspflicht für KI-generierte Inhalte

Anbieter von KI-Systemen – einschließlich solcher, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen – müssen sicherstellen, dass die Ausgaben dieser Systeme in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.

Die oben genannten Transparenzverpflichtungen gelten nicht für KI-Systeme wie KI-gestützte Rechtschreibkorrekturprogramme, die eine unterstützende Funktion für Standardbearbeitung ausüben oder die eingegebenen Daten nicht wesentlich verändern – oder deren Bedeutung nicht erheblich beeinflussen.

Relevant für Marketingagenturen & -abteilungen:
Betreiberpflichten bei Gen-AI

Ein Betreiber (auch „Deployer“) ist die Organisation oder Person, die ein KI-System tatsächlich einsetzt oder nutzt. Betreiber sind für den korrekten und rechtskonformen Einsatz der KI in ihrem Anwendungsbereich verantwortlich.

Beispiele aus dem Marketing:

  • Werbeagenturen: Eine Agentur nutzt ChatGPT, um Werbetexte oder Social-Media-Inhalte für Kunden zu generieren.

  • Unternehmen mit Inhouse-Marketingteams: Ein E-Commerce-Unternehmen verwendet Midjourney, um Produktbilder oder Werbekampagnen zu erstellen.

  • Social-Media-Manager: Setzen KI-Tools ein, um automatisiert Kundenanfragen zu beantworten (z. B. via Chatbots).

  • Content-Marketing-Plattformen: Eine Plattform wie HubSpot könnte KI einsetzen, um Blogbeiträge, Newsletter oder SEO-optimierte Inhalte zu generieren.

Kennzeichnungspflicht für KI-generierte Inhalte für Betreiber

Der EU AI Act legt einen besonderen Fokus auf Deepfakes und Inhalte, die täuschend echt wirken können: KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die realen Personen, Objekten, Orten oder Ereignissen täuschend ähnlich sind, müssen als künstlich erzeugt gekennzeichnet werden. Diese Regelung zielt darauf ab, Täuschungen und Desinformation zu verhindern.

Welche Vorgaben gehen nun aus dem EU AI Act hervor? Was müssen Marketingabteilungen beachten?

Sie müssen:

  • Sicherstellen, dass KI-generierte Inhalte gegebenenfalls transparent gekennzeichnet werden. Hier wird unterschieden zwischen Deep-Fakes und Inhalten, die durch Menschen redaktionell überarbeitet und überprüft wurden.

  • Nutzer oder Zielgruppen informieren, wenn sie mit einem KI-System interagieren (z. B. bei Chatbots)

  • Compliance mit Datenschutzvorschriften (z. B. DSGVO) sicherstellen, wenn personenbezogene Daten verarbeitet werden.

  • Verhindern, dass irreführende Inhalte oder Deepfakes ohne Kennzeichnung veröffentlicht werden.

Fazit: Kennzeichnungspflicht für Werbematerialien und fiktive Welten

Prompting by Awed, rendering by Midjourney

KI-generierte Marketingtexte sind in der Regel nicht kennzeichnungspflichtig, es sei denn, sie informieren die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse und sind nicht redaktionell nachbearbeitet.
Bei offensichtlich künstlerischen, kreativen oder fiktionalen Werken gelten weniger strenge Transparenzpflichten. Das bedeutet, dass Werbekampagnen mit KI-generierten Darstellungen nur dann gekennzeichnet werden müssen, wenn sie den Anschein erwecken, existierende Personen, Gegenstände oder Ereignisse darzustellen (Deepfakes). Ob das zutrifft, muss im Einzelfall geklärt werden.

Während der EU AI Act tatsächlich strenge Kennzeichnungspflichten für Deepfakes und täuschend echte Inhalte vorsieht, sind die Anforderungen für fiktive Welten und Werbematerialien nuancierter. Marketingteams sollten:

  1. KI-generierte Inhalte sorgfältig prüfen und bewerten, ob sie als täuschend echt wahrgenommen werden könnten.

  2. Transparente Prozesse zur Identifizierung und Kennzeichnung von KI-generierten Inhalten implementieren.

  3. Bei Unsicherheiten bezüglich der Kennzeichnungspflicht rechtlichen Rat einholen.

Es ist wichtig zu beachten, dass die genauen Umsetzungsdetails des AI Acts noch ausgearbeitet werden und sich in Zukunft möglicherweise noch präzisieren werden.







Disclaimer: Diese Inhalte dienen ausschließlich der allgemeinen Information und stellen keine Rechtsberatung dar. Für die Richtigkeit und Vollständigkeit der Angaben wird keine Haftung übernommen.

Weiter
Weiter

EU AI Act 2025: KI-Schulungspflicht für Mitarbeiter:innen