EU AI Act: Was Website- und Shop-Betreiber jetzt wissen müssen

ki transparenz mdc titelbild

Transparenz ist in der Software-Entwicklung seit jeher ein hohes Gut – beim Einsatz von Künstlicher Intelligenz wird sie nun zur gesetzlichen Pflicht. Auch wir bei mdc nutzen KI-Tools intensiv: Ob beim Pair-Programming, zur Code-Optimierung, für automatisierte Workflows oder bei der Mediengestaltung für Interfaces. Der Effizienzschub ist enorm, doch als IT-Dienstleister tragen wir eine besondere Verantwortung für die Konformität der Systeme, die wir betreuen.

Ab August 2026 wird es ernst: Dann greifen die Transparenzpflichten des EU AI Acts in voller Härte.

Vertrauen durch Transparenz: Die Antwort auf die Flut digitaler Inhalte

Das Problem ist technischer Natur: Die Unterscheidung zwischen menschlichem und maschinellem Output wird immer schwieriger. Was früher mühsame Bildbearbeitung war, erledigt die Generative AI heute in Millisekunden und in einer Qualität, die das menschliche Auge kaum noch prüfen kann.

Der EU AI Act (Verordnung 2024/1689) setzt hier an. Er will das Vertrauen in digitale Ökosysteme sichern. Für uns als Software-Experten bedeutet das: Wir müssen Transparenz „by Design“ mitdenken.

Die Kernanforderungen nach Artikel 50

Der Gesetzgeber ist deutlich: Nutzer müssen wissen, wann sie es mit einer KI zu tun haben. Hier ist die Übersicht der Pflichten für Website- und Softwarebetreiber:

Die Transparenzpflichten im Detail: Was auf Systeme und Nutzer zukommt

Der EU AI Act differenziert sehr genau, in welchem Kontext Transparenz hergestellt werden muss. Für Software-Systeme und deren Betreiber ergeben sich daraus vier zentrale Anwendungsbereiche:

Interaktion mit Systemen: Wann immer Nutzer direkt mit einem System kommunizieren, muss aktiv darüber informiert werden, dass das Gegenüber eine KI ist. Das betrifft klassische Chatbots und KI-gestützte Support-Systeme ebenso wie moderne Voice-Assistance-Lösungen. Der Nutzer darf niemals im Unklaren darüber gelassen werden, ob er mit einem Menschen oder einem Algorithmus interagiert.

KI-generierte Texte: Besondere Sorgfalt ist bei Texten geboten, die öffentliche Interessen berühren. Wenn Fachartikel, automatisierte Reports oder Dokumentationen maßgeblich von einer KI verfasst werden, ist eine entsprechende Kennzeichnung Pflicht. Ziel ist es, die Herkunft von Informationen in einer automatisierten Medienlandschaft nachvollziehbar zu machen.

Visuals und Audio-Inhalte: In der Benutzeroberfläche (UI) müssen generative Elemente oder manipulierte Medien (Deepfakes) für den Betrachter sichtbar als solche gelabelt werden. Gleiches gilt für die Audioschiene: Kommen Text-to-Speech-Module oder KI-gesteuerte Hotlines zum Einsatz, ist ein deutlicher Hinweis auf die künstlich erzeugte Stimme erforderlich.

Wo die Pflicht endet: Die Ausnahmen Nicht alles muss gelabelt werden. Der Gesetzgeber erkennt an, dass KI oft nur als unterstützendes Werkzeug dient. Rein unterstützende Arbeiten, die das Endergebnis nicht maßgeblich in seinem Wahrheitsgehalt oder seiner Wirkung verändern – wie etwa das Code-Refactoring in der Entwicklung oder die bloße Grammatikprüfung –, bleiben von der Kennzeichnungspflicht befreit.


Die technische Hürde: Anspruch vs. Realität

Theoretisch klingt die Kennzeichnung logisch. Doch wer tief in der Software-Architektur steckt, sieht die Stolpersteine:

  1. Die Abgrenzungs-Logik: Wann gilt ein Text als „KI-generiert“? Wenn wir Code-Snippets via Copilot optimieren, bleibt die Schöpfungshöhe menschlich. Die Grenzen sind fließend.

  2. Watermarking & Metadaten: Der Act fordert maschinenlesbare Markierungen. Doch wie beständig ist ein digitales Wasserzeichen gegen Kompression, Formatumwandlung oder einfache Screenshots? Hier ist die Industrie noch auf der Suche nach dem „unzerstörbaren“ Standard.

  3. Haftung in der Kette: Wenn wir eine API (z.B. von OpenAI) einbinden – wer haftet für die Kennzeichnung? Der Provider oder der Deployer? Die Prüfpflicht für Systembetreiber wächst massiv.

Zeitplan & Sanktionen: Warum Abwarten riskant ist

Obwohl die volle Anwendung der Transparenzpflichten erst ab dem 2. August 2026 gilt, sind die Verbote für Hochrisiko-Systeme bereits aktiv. Deutschland hat mit dem KI-Durchführungsgesetz (KIDG) die Weichen gestellt: Die Bundesnetzagentur fungiert als zentrale Aufsicht.

Wer die Regeln ignoriert, geht ein hohes finanzielles Risiko ein. Die Bußgelder sind bewusst abschreckend:

  • Verbotene Praktiken: Bis zu 35 Mio. € oder 7 % des Umsatzes.
  • Verstoß gegen Transparenzregeln: Bis zu 15 Mio. € oder 3 % des Umsatzes.
  • Falschinformationen an Behörden: Bis zu 7,5 Mio. € oder 1,5 % des Umsatzes.
  • Für KMU und Start-ups gilt jeweils der niedrigere Betrag.

Fazit

Der EU AI Act ist für uns bei mdc kein Hindernis, sondern eine Qualitätsvorgabe. Wir empfehlen: Implementieren Sie Kennzeichnungs-Mechanismen lieber heute als morgen. Transparenz ist kein „Nice-to-have“, sondern wird zur Grundvoraussetzung für die Akzeptanz Ihrer Software-Lösungen.

Wir beobachten die Leitlinien der EU genau und unterstützen unsere Partner dabei, ihre Systeme KI-konform und zukunftssicher zu gestalten.


Hinweis zur Erstellung

Einige Textpassagen und das visuelle Konzept dieses Beitrags wurden unter Unterstützung der KI Gemini entwickelt und anschließend durch das mdc-Team redaktionell sowie technisch geprüft.

Quellen:


Zum Inhalt springen