Künstliche Intelligenz und Regulierung – Chancen und Herausforderungen

01/10/2025
Künstliche Intelligenz
KI im Fokus: Der AI Act reguliert Innovation und Risiken. Ein Meinungsbeitrag zur EU-Verordnung und ihrer Wirkung auf die digitale Wirtschaft

Künstliche Intelligenz (KI) ist längst ein zentraler Bestandteil unserer digitalen Wirtschaft. Sie verändert Branchen, schafft neue Möglichkeiten und bringt gleichzeitig Herausforderungen mit sich. Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) – Verordnung 2024/1689 – erstmals ein umfassendes rechtliches Rahmenwerk geschaffen, um den Einsatz von KI zu regulieren. Doch wie gut ist diese europäische Verordnung wirklich geeignet, Innovation zu fördern und gleichzeitig Risiken zu minimieren? Dazu möchte ich einen kurzen Meinungsbeitrag leisten, der meine Vorträge zwischen Oktober 2024 und Dezember 2024 zusammenfasst.

Was regelt der AI Act, und warum ist er relevant?

Der AI Act der EU zielt darauf ab, KI-Systeme basierend auf ihrem Anwendungsfeld (use case) und dem dortigen Risiko zu regulieren. Er unterscheidet zwischen unzulässigen, hochriskanten und niedrigriskanten Anwendungen. Für hochriskante Systeme werden strenge Vorgaben gemacht, etwa in Bezug auf Datenqualität und menschliche Aufsicht, für niedrigriskante Anwendungen werden Transparenzvorschriften vorgegeben und für alle “nicht-riskanten” Anwendungen Empfehlungen abgegeben..

Doch ein oft genannter Kritikpunkt ist, dass der Fokus des AI Acts fast ausschließlich auf den Risiken liegt, während die potenziellen Vorteile von KI kaum berücksichtigt werden. Dies könnte besonders in Bereichen wie der medizinischen Diagnostik, in denen KI immense Vorteile bringen kann, zu unnötigen Hürden führen.

Ist der AI Act wirklich risikobasiert?

Der AI Act wird häufig als risikobasierte Regulierung bezeichnet, doch einige Experten bezweifeln, ob dieser Ansatz konsequent umgesetzt wurde. Ein Problem ist die fehlende empirische Grundlage für die Klassifizierung von Risiken: Die Kategorien für unzulässige und hochriskante Anwendungen wurden eher pauschal und ohne klare Datenbasis definiert. Hinzu kommt, dass der AI Act eine sehr breite Definition von KI verwendet, die auch Technologien einschließt, die weniger dynamisch oder innovativ sind. Dadurch droht eine Überregulierung, die sowohl Kosten erhöht als auch Innovation hemmt.

Wie lässt sich eine Balance zwischen Risiko und Innovation finden?

Eine zentrale Herausforderung bei der Regulierung von KI ist es, Innovation nicht zu behindern. Der AI Act sieht zwar eine Vielzahl von Maßnahmen vor, etwa zur Standardisierung und Harmonisierung, doch bleiben leider einige Fragen offen. Besonders problematisch ist der Umgang mit sogenannten “Blackbox-Systemen”, also KI-Anwendungen, deren Funktionsweise schwer nachvollziehbar ist.

Ein Beispiel aus der Praxis ist die Medizin – KI kann dabei helfen, Krankheiten schneller und präziser zu diagnostizieren, ist jedoch oft weniger transparent als traditionelle Methoden. Hier stellt sich die Frage, ob eine solche Technologie trotz ihrer Intransparenz zugelassen werden sollte, wenn ihre Vorteile nachweisbar überwiegen würden.

Welche Rolle spielen Standards und Selbstregulierung?

Ein wichtiger Bestandteil des AI Act ist die Entwicklung harmonisierter Standards durch europäische Normungsorganisationen. Diese Standards sollen Unternehmen dabei helfen, die Anforderungen des Gesetzes zu erfüllen und gleichzeitig Innovation zu fördern. Allerdings gibt es auch hier Herausforderungen: Viele Standards müssen erst von Null auf aufgebaut werden. Zudem müssen Standards ausreichend spezifisch sein, um die vielfältigen Anwendungsbereiche von KI abzudecken. Die Anforderungen an menschliche Aufsicht unterscheiden sich beispielsweise stark zwischen autonomen Fahrzeugen und medizinischen KI-Systemen. Es wird entscheidend sein, dass diese Standards rechtzeitig und praxisnah entwickelt werden.

Was sind die wichtigsten Empfehlungen für die Zukunft?

Der AI Act der EU ist ein bedeutender Schritt in der Regulierung von KI, doch er ist kein perfektes Modell. Andere Länder sollten sorgfältig abwägen, welche Elemente übernommen werden können und welche Anpassungen notwendig sind. Innovation und Sicherheit stehen nicht im Widerspruch – eine gut durchdachte Regulierung kann beides fördern. Im Wesentlich sollte auf folgendes geachtet werden:

  1. Bestehende Vorschriften sollten überprüft und bei Bedarf angepasst werden, um KI-spezifische Risiken zu adressieren.
  2. Eine konsequente Umsetzung des risikobasierten Ansatzes ist entscheidend, um Innovation und Sicherheit in Einklang zu bringen.
  3. Länder außerhalb der EU sollten ihren eigenen Kontext berücksichtigen und gleichzeitig von den Erfahrungen anderer profitieren.
  4. Harmonisierte Standards können Unternehmen unterstützen und gleichzeitig Innovationen fördern.

Weitere Blogartikel

Sie benötigen rechtliche Unterstützung?

Gerne stehe ich Ihnen bei rechtlichen Fragestellungen zur Seite. Bitte kontaktieren Sie mich telefonisch oder via Kontaktformular um ein kostenloses Erstgespräch zu vereinbaren. 

Dr. LUKAS STAFFLER, LL.M.

@lukasstaffler

Kontaktformular