Der EU AI Act polarisiert wie kaum eine andere Verordnung. Während die einen ihn als überfällige Regulierung begrüßen, warnen andere vor dem vermeintlichen Innovationskiller. Doch viele Befürchtungen basieren auf Halbwissen und gezielter Desinformation. Zeit für einen Faktencheck. Hier klären wir über die drei wohl verbreitetsten EU AI Act Mythen auf.
Von waveImpact | Januar 2026
Einleitung: Déjà-vu für den Mittelstand
Im Frühjahr 2018 schalteten deutsche Mittelständler ihre Websites ab. Ärzte, Handwerker, kleine Dienstleister – aus Angst vor Abmahnwellen und existenzbedrohenden Bußgeldern zogen sie den Stecker. Die Datenschutz-Grundverordnung stand vor der Tür, und in den Medien überschlugen sich die Warnungen: Das Ende des digitalen Mittelstands sei gekommen.
Und was passierte dann? Die Abmahnwelle blieb aus. Das erste nennenswerte DSGVO-Bußgeld in Deutschland betraf die Online-Community „Knuddels“ – 20.000 Euro für unverschlüsselt gespeicherte Passwörter. Die befürchtete Apokalypse? Nie eingetreten. Heute ist die DSGVO Routine, und rückblickend fragen sich viele, woher die Panik eigentlich kam.
Sieben Jahre später wiederholt sich das Muster. Diesmal heißt das Schreckgespenst EU AI Act. Wieder kursieren Horrorszenarien, wieder fürchten Unternehmen um ihre Existenz. Und wieder lohnt ein nüchterner Blick auf die Fakten.
Carme Artigas, Co-Vorsitzende des UN AI Advisory Boards, bringt es auf den Punkt: „We are losing the battle of the narrative over AI Act. European companies are believing the absolute lie that the EU AI Act is killing innovation.“ Eine Bitkom-Studie bestätigt: 52,3 Prozent der deutschen Unternehmen glauben, der AI Act hemme Innovation. Gleichzeitig haben sich erst drei Prozent intensiv mit der Verordnung beschäftigt. Ein fruchtbarer Boden für Fehlinformationen – genau wie 2018.
Wir haben die drei verbreitetsten Mythen unter die Lupe genommen.
Mythos 1: „Der AI Act ist ein Innovationskiller“
Die Behauptung
Der EU AI Act würde den technologischen Fortschritt verhindern, europäische Unternehmen im internationalen Wettbewerb benachteiligen und Start-ups aus der EU vertreiben. Europa reguliere sich selbst in die Bedeutungslosigkeit.
Die Fakten
Dieses Narrativ entstammt einer gut orchestrierten Lobbykampagne, die bereits während des Gesetzgebungsprozesses begann. Doch bei nüchterner Betrachtung zeigt sich ein differenzierteres Bild.
Der AI Act verfolgt explizit das Ziel, Innovation zu fördern – nicht zu behindern. Artikel 1 der Verordnung formuliert dies unmissverständlich: Sie soll den Binnenmarkt verbessern und die Verbreitung von menschenzentrierter, vertrauenswürdiger KI fördern, während gleichzeitig Gesundheit, Sicherheit und Grundrechte geschützt werden.
Konkret schafft die Verordnung Rechtssicherheit, die gerade für Investitionsentscheidungen essenziell ist. Statt eines Flickenteppichs nationaler Regelungen gibt es nun einen einheitlichen europäischen Rahmen. Für Unternehmen bedeutet das: Ein Produkt, das die EU-Anforderungen erfüllt, kann im gesamten Binnenmarkt vertrieben werden.
Der internationale Vergleich widerlegt zudem die These der europäischen Regulierungswut. China, Japan, Indien, das Vereinigte Königreich, Kanada und Australien arbeiten bereits an eigenen KI-Regelwerken. Selbst US-Bundesstaaten wie Kalifornien und New York setzen zunehmend verbindliche Standards um. Der viel beschworene „regulierungsfreie“ Wettbewerber existiert schlicht nicht.
Hinzu kommt der sogenannte „Brüssel-Effekt“: Aufgrund der Marktmacht der EU orientieren sich globale Unternehmen häufig an europäischen Standards – unabhängig davon, wo sie produzieren. Was einst bei der Datenschutz-Grundverordnung funktionierte, könnte sich beim AI Act wiederholen.
Die Realität
Regulierung und Innovation schließen sich nicht gegenseitig aus. Im Gegenteil: Klare Spielregeln schaffen Vertrauen – bei Verbrauchern, Investoren und Geschäftspartnern. Wer würde ein autonomes Fahrzeug kaufen oder einem KI-System eine medizinische Diagnose überlassen, wenn keinerlei Qualitätsstandards existierten?
Der AI Act schafft die Rahmenbedingungen für eine nachhaltige, verantwortungsvolle Weiterentwicklung von KI-Technologien. Das mag kurzfristig Anpassungsaufwand bedeuten, langfristig profitieren jedoch alle Marktteilnehmer von erhöhtem Verbrauchervertrauen und reduzierten Haftungsrisiken.
Mythos 2: „Fast alle KI-Systeme werden als Hochrisiko eingestuft“
Die Behauptung
Der AI Act überzieht praktisch jede KI-Anwendung mit bürokratischen Anforderungen. Selbst alltägliche Produkte wie intelligente Haushaltsgeräte würden als Hochrisiko-Systeme reguliert und müssten aufwendige Konformitätsverfahren durchlaufen.
Die Fakten
Dieser Mythos illustriert besonders anschaulich, wie Fehlinformationen entstehen und sich verbreiten. So kursierte zeitweise die Behauptung, Kaffeevollautomaten mit KI-Komponenten würden als Hochrisiko-Systeme eingestuft oder gar verboten.
Die Realität: Die EU betrachtet die Gefahr, einen Caffè Latte statt eines Cappuccinos zu erhalten, nicht als kritisches Risiko für Grundrechte, Gesundheit oder Sicherheit.
Die Zahlen sprechen eine deutliche Sprache: 75 Prozent der Regelungen im AI Act beschäftigen sich mit Hochrisiko-KI. Diese Kategorie macht jedoch nur geschätzte 3 bis 8 Prozent aller KI-Anwendungsfälle aus. Das bedeutet im Umkehrschluss: Rund 92 bis 97 Prozent aller KI-Systeme können nach der initialen Risikobewertung ohne weitere substanzielle Anforderungen entwickelt und betrieben werden.
Der AI Act folgt einem risikobasierten Ansatz mit vier klar definierten Kategorien:
Verbotene Praktiken umfassen sehr spezifische Anwendungen wie unterschwellige Manipulation, Social Scoring durch staatliche Stellen, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie die ungezielte Erstellung von Gesichtserkennungsdatenbanken. Diese Verbote treten bereits seit Februar 2025 in Kraft.
Hochrisiko-Systeme sind KI-Anwendungen in sensiblen Bereichen wie kritischer Infrastruktur, Personalentscheidungen, Kreditwürdigkeitsprüfungen oder Strafverfolgung. Sie unterliegen strengen Anforderungen an das Risikomanagement, die Datenqualität, die Dokumentation und die menschliche Aufsicht.
Systeme mit begrenztem Risiko – etwa Chatbots oder Deepfake-Generatoren – müssen primär Transparenzpflichten erfüllen. Nutzer sind darüber zu informieren, dass sie mit einer KI interagieren oder Inhalte KI-generiert sind.
Minimales Risiko betrifft die große Mehrheit aller Anwendungen, von Spamfiltern bis zu Rechtschreibprüfungen. Hier existieren keine spezifischen regulatorischen Anforderungen – lediglich freiwillige Verhaltenskodizes werden empfohlen.
Die Realität
Die meisten Unternehmen, die KI nutzen, werden feststellen, dass ihre Anwendungen in die Kategorien „begrenztes Risiko“ oder „minimales Risiko“ fallen. Eine sorgfältige Erstbewertung ist zwar erforderlich, aber keineswegs gleichbedeutend mit aufwendigen Compliance-Prozessen.
Entscheidend ist: Nur wer tatsächlich Hochrisiko-Systeme entwickelt oder einsetzt, muss die vollen Anforderungen erfüllen. Und selbst dann sind die Vorgaben nicht willkürlich, sondern spiegeln reale Risiken für Betroffene wider – etwa wenn ein KI-System über Kreditwürdigkeit, Personalauswahl oder medizinische Diagnosen entscheidet.
Mythos 3: „KMU können die Anforderungen unmöglich erfüllen“
Die Behauptung
Der AI Act sei ein Regelwerk für Großkonzerne mit eigenen Rechtsabteilungen und Compliance-Teams. Für kleine und mittlere Unternehmen seien die Anforderungen schlicht nicht umsetzbar, was zu einem massiven Wettbewerbsnachteil führe.
Die Fakten
Tatsächlich war der Schutz von KMU und Start-ups ein zentrales Anliegen während des gesamten Gesetzgebungsprozesses. Das schlägt sich quantitativ nieder: KMU werden im AI Act 38-mal explizit erwähnt – deutlich häufiger als „Industry“ (7 Erwähnungen) oder „Civil Society“ (11 Erwähnungen).
Diese Aufmerksamkeit manifestiert sich in konkreten Erleichterungen:
Reduzierte Bußgelder: Während für Großunternehmen bei schwerwiegenden Verstößen Strafen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes drohen, gilt für KMU jeweils der niedrigere Betrag. Ein Unternehmen mit 10 Millionen Euro Jahresumsatz riskiert also maximal 700.000 Euro, nicht 35 Millionen.
Vereinfachte Dokumentation: Für kleine Unternehmen gelten reduzierte Anforderungen an die technische Dokumentation. Der bürokratische Aufwand soll dem tatsächlichen Risiko und den verfügbaren Ressourcen angemessen sein.
Regulatorische Reallabore: Die EU richtet sogenannte „Regulatory Sandboxes“ ein, in denen Unternehmen ihre KI-Anwendungen unter Aufsicht der Behörden entwickeln und testen können – kostenfrei und mit rechtlicher Sicherheit.
Kostenfreie Unterstützung: Über das Mittelstand-Digital-Netzwerk, die Transferstelle Cybersicherheit und die European Digital Innovation Hubs erhalten KMU branchenspezifische Beratung, Schulungen und praktische Hilfestellung bei der Umsetzung.
Zeitliche Staffelung: Die Fristen für die verschiedenen Anforderungen sind bewusst gestaffelt. Bis zum vollständigen Inkrafttreten der Hochrisiko-Regelungen im August 2026 (mit möglicher Verlängerung bis Dezember 2027) bleibt ausreichend Zeit für eine geordnete Vorbereitung.
Die Realität
Der AI Act wurde nicht an KMU vorbei entwickelt, sondern mit expliziter Berücksichtigung ihrer spezifischen Situation. Natürlich bedeutet jede neue Regulierung zunächst Anpassungsaufwand. Aber gerade für kleinere Anbieter kann Compliance zum Wettbewerbsvorteil werden: Wer nachweislich die EU-Standards erfüllt, genießt Vertrauen bei Kunden und Geschäftspartnern.
Die eigentliche Herausforderung liegt nicht in unzumutbaren Anforderungen, sondern im Informationsdefizit. Hier sind Politik, Verbände und spezialisierte Berater gefordert, praxisnahe Hilfestellung zu leisten.
Fazit: Fakten statt Narrative
Der EU AI Act ist weder Heilsbringer noch Sargnagel für die europäische KI-Wirtschaft. Er ist ein regulatorischer Rahmen, der versucht, Innovation und Schutzinteressen in Einklang zu bringen – mit allen Kompromissen, die das erfordert.
Berechtigt kritisieren lässt sich durchaus: Die Verordnung ist komplex, manche Definitionen bleiben auslegungsbedürftig, und der bürokratische Aufwand für Hochrisiko-Systeme ist erheblich. Diese Kritikpunkte verdienen sachliche Diskussion.
Was jedoch nicht hilft, sind Mythen und Halbwahrheiten, die Unternehmen entweder in Panik versetzen oder zu falscher Sicherheit verleiten. Wer sich ernsthaft mit dem AI Act beschäftigt, wird feststellen: Die meisten KI-Anwendungen sind minimal reguliert, die Anforderungen für betroffene Systeme sind handhabbar, und für KMU existieren zahlreiche Unterstützungsangebote.
Die eigentliche Frage ist nicht, ob der AI Act Innovation verhindert – sondern ob Unternehmen die Chancen nutzen, die ein verlässlicher rechtlicher Rahmen bietet.
Über waveImpact
waveImpact GmbH unterstützt deutsche Mittelständler bei der praktischen Umsetzung des EU AI Act. Mit einem „Purpose-First“-Ansatz helfen wir Unternehmen, KI nicht nur regelkonform, sondern auch sinnvoll und wertschöpfend einzusetzen. Unsere Leistungen umfassen EU AI Act Readiness Assessments, Risikoklassifizierungen und maßgeschneiderte Compliance-Roadmaps.
Quellen:
Primärquellen
– Fünf Jahre DSGVO – vom Säbelzahntiger zum Bettvorleger? (https://barth-datenschutz.de/datenschutzgrundverordnung/)
– 5 Jahre DSGVO – ein Rückblick auf die Stärken und Schwächen (https://rkm-data.de/post/5-jahre-dsgvo-ein-rückblick-auf-die-stärken-und-schwächen)
– Fünf Jahre DSGVO – kritischer Rück- und Ausblick (activeMind) (https://www.activemind.de/magazin/dsgvo-jubilaeum/)
– DSGVO: Keine Panik! (Dr. Andreas Staufer, 2018) (https://staufer.de/blog/2018/05/dsgvo-keine-panik/)
– Knuddels-Bußgeld (erstes größeres DSGVO-Bußgeld in Deutschland) (https://www.heise.de/news/Passwoerter-im-Klartext-20-000-Euro-Bussgeld-nach-DSGVO-gegen-Knuddels-de-4229798.html)
EU AI Act (Verordnung)
– EU AI Act – Volltext (Amtsblatt der EU) (https://eur-lex.europa.eu/eli/reg/2024/1689/oj)<<
– EU AI Act – Official Website (EU-Kommission) (https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)
– Europäisches Parlament – KI-Gesetz Übersicht (https://www.europarl.europa.eu/topics/de/article/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz)
Studien & Forschung
Bitkom Research
– Bitkom-Studie zur Einstellung deutscher Unternehmen zum AI Act (https://www.vdi-wissensforum.de/news/der-eu-ai-act-mythen-fakten-und-pragmatische-umsetzung/)
Institut der deutschen Wirtschaft (IW)
– KI-Verordnung, NIS-2-Richtlinie und Cyber Resilience Act: Auswirkungen auf KMU (https://www.iwkoeln.de/studien/barbara-engels-thorsten-lang-marc-scheufen-auswirkungen-auf-kmu.html)
CEPS (Centre for European Policy Studies)
– Clarifying the costs for the EU’s AI Act (https://www.ceps.eu/clarifying-the-costs-for-the-eus-ai-act/)
Fachbeiträge & Analysen
VDI Wissensforum
– Der EU AI Act – Mythen, Fakten und pragmatische Umsetzung (https://www.vdi-wissensforum.de/news/der-eu-ai-act-mythen-fakten-und-pragmatische-umsetzung/)
Exxeta
– Mythen und Chancen des EU-AI-Acts (https://exxeta.com/blog/mythen-und-chancen-des-eu-ai-acts)
Medien Bayern / KI.M
– EU-KI-Verordnung: Acht Mythen in Medienhäusern (https://medien-bayern.de/eu-ki-verordnung-medien-mythen-faq/)
IHK München
– AI Act: Regeln für Unternehmen beim Einsatz künstlicher Intelligenz (https://www.ihk-muenchen.de/ratgeber/digitalisierung/kuenstliche-intelligenz/ai-act/)
Haufe (Öffentlicher Dienst)
– AI Act: KI-Gesetz der EU (https://www.haufe.de/oeffentlicher-dienst/digitalisierung-transformation/ai-act-ki-gesetz-der-eu_524786_667870.html)
KMU-spezifische Ressourcen
EU AI Act – SME Guide
– Leitfaden für kleine Unternehmen zum AI Act (https://artificialintelligenceact.eu/small-businesses-guide-to-the-ai-act/)
Mittelstand-Digital Zentrum
– Der EU AI Act – Grundverständnis und Risikoklassen für KMU (https://www.digitalzentrum-fokus-mensch.de/kos/WNetz?art=News.show&id=2785)
Lexware
– AI Act: Das steht in der KI-Verordnung der EU (https://www.lexware.de/wissen/unternehmensfuehrung/ki-verordnung/)
RA Goldmaier
– EU AI Act – Was Unternehmen jetzt wissen müssen (https://ra-goldmaier.de/urheberrecht/eu-ai-act-was-unternehmen-jetzt-wissen-muessen/)
Internationale Perspektiven
iso-27001.at
– EU AI Act – Was österreichische Unternehmen jetzt wissen müssen (https://www.iso-27001.at/eu-ai-act/)
activeMind.legal
– AI Act reguliert künstliche Intelligenz in der EU (https://www.activemind.legal/de/guides/ai-act/)
Unterstützungsangebote für Unternehmen
Mittelstand-Digital Netzwerk (https://www.mittelstand-digital.de/)
Transferstelle Cybersicherheit im Mittelstand (https://transferstelle-cybersicherheit.de/)
European Digital Innovation Hubs (EDIHs) (https://digital-strategy.ec.europa.eu/en/activities/edihs)
KGSt – FAQ zum EU AI Act (Kommunen) (https://www.kgst.de/faq-eu-ai-act)
