21.05.2025 • Topstory

KI-Verordnung: Europa zeigt Haltung bei der Regulierung von KI-Systemen

Seit August vergangenen Jahres ist der „AI Act“, eine europäische Verordnung über Künstliche Intelligenz, in Kraft. Diese Verordnung soll einen rechtlichen Rahmen für die Nutzung von Künstlicher Intelligenz setzen und dabei sowohl die Chancen als auch die Risiken dieser Technologie zu adressieren. In seinem Beitrag für GIT SICHERHEIT geht Boris Bärmichl, Vorstand der Digitalsparte des Bayerischen Verbands für Sicherheit in der Wirtschaft (BVSW), der Frage nach, ob die Regelung diesem Anspruch gerecht werden kann.

Profilbild von einem Mann mit schwarzem Blazer, grauem Vollbart, vollem Haar...
Boris Bärmichl, Vorstand der Digitalsparte des BVSW
© BVSW

Künstliche Intelligenz hat das Potenzial die Wirtschaft zu revolutionieren. Von einfachen Chatbots, über automatisierte Abläufe bis hin zu völlig neuen Geschäftsmodellen – die Möglichkeiten zur Effizienzsteigerung sind enorm.

Im Rennen um die entscheidenden Wettbewerbsvorteile drohen Datenschutzverletzungen und ethische Fragestellungen bisweilen in den Hintergrund zu geraten. Mit der Verordnung über künstliche Intelligenz (kurz: KI-Verordnung oder AI Act) möchte die EU den verantwortungsvollen Einsatz von Künstlicher Intelligenz stärken. Doch warum wurde die Entwicklung solcher Regeln überhaupt notwendig?

Wenn Realität verblasst

Künstliche Intelligenz kann neue Informationen in unglaublicher Geschwindigkeit verarbeiten. Tech-Konzerne nutzen für ihre KI-Modelle Daten aus den unterschiedlichsten Quellen, beispielsweise der Analyse auf Reaktionen zu Beiträgen in den sozialen Medien. Gleichzeitig sammeln Mobiltelefone und andere intelligente Gegenstände viele persönliche Informationen, wie Stimmen, Aufenthaltsort, Gesundheitsdaten oder Bilder von Gesichtern.

Werden diese enormen Datenmengen an einer zentralen Stelle zusammengeführt und analysiert, so ermöglichen sie tiefe Einblicke in menschliche Emotionen und liefern damit die Grundlage für die Manipulation von Verhalten. Damit ließen sich vielleicht nicht nur die Verkaufszahlen für bestimmte Produkte in die Höhe schrauben - auch die Gefahr von politischer Einflussnahme ist heute mittlerweile Realität.

Bei der KI-Verordnung geht es daher weit mehr als um Verbraucherschutz. Es geht hier um nicht weniger als um den Schutz von Demokratie, Freiheit und Menschenwürde in einer zunehmend digitalen Welt. Oder anders gesagt: Darum, dass Europa eben nicht zur digitalen Diktatur verkommt.


Leitplanken für eine sichere KI-Zukunft

Die KI-Verordnung setzt Leitplanken für den verantwortungsvollen Einsatz von Künstlicher Intelligenz und definiert Prinzipien, die eigentlich selbstverständlich sein sollten, in der Praxis jedoch manchmal vernachlässigt werden. Zentrale Vorgabe ist, dass KI-Systeme nachvollziehbar und erklärbar sein müssen. Entscheidungen dürfen nicht als undurchsichtige „Blackbox“-Ergebnisse erscheinen, sondern müssen für Anwender und Betroffene nachvollziehbar begründet werden können.

Ein weiterer wichtiger Aspekt ist die Kennzeichnungspflicht für Deepfakes und KI-generierte Inhalte. Transparenz wird damit zur Pflicht, um Manipulationen vorzubeugen und Vertrauen in digitale Inhalte zu stärken. Zudem stellt der AI Act Fairness und Datenqualität in den Mittelpunkt. Der Einsatz illegal beschaffter Daten oder verdeckter Überwachung wird strikt untersagt.

Schließlich betont die Verordnung klar, dass der Mensch stets die Kontrolle behalten muss. KI darf unterstützende Empfehlungen aussprechen, Entscheidungen jedoch dürfen niemals ausschließlich von einer Maschine getroffen werden. Damit soll sichergestellt werden, dass die Verantwortung immer beim Menschen bleibt.


Vierstufiges Risikomodell

Für die Regulierung von KI-Systemen nutzt die EU einen risikobasierten Ansatz und hat vier unterschiedliche Risikostufen eingeführt.
Anwendungen mit einem minimalen Risiko, wie beispielsweise Spam-Filter, KI-gestützte Übersetzungsprogramme oder KI in Computerspielen, unterliegen keinen speziellen Verpflichtungen. Für Systeme mit geringem Risiko, beispielsweise Chatbots, Empfehlungssysteme oder KI-generierte Inhalte, gelten Transparenzpflichten. Nutzerinnen und Nutzer haben Anspruch auf einen klaren Hinweis, dass sie mit einer KI interagieren.

Deutlich strenger sind die Regelungen für die sogenannte Hochrisiko-KI. Zu dieser Kategorie zählen beispielsweise Systeme im Finanzwesen, der Medizin oder dem Personalmanagement. Hier ist eine Zulassungspflicht gefordert, ebenso wie eine Dokumentation, ein Risikomanagement und eine menschliche Kontrolle. Komplett verboten sind schließlich KI-Systeme, die ein unannehmbares Risiko darstellen, etwa für soziale Manipulation oder biometrische Massenüberwachung. Diese dürfen in der EU weder angeboten noch genutzt werden. Mit diesem abgestuften Modell möchte der AI Act eine Balance zwischen Innovationsförderung und dem Schutz von Grundrechten und Sicherheit schaffen.


Fokus auf Hochrisiko-KI

Der EU-Verordnung über Künstliche Intelligenz gilt für alle, die KI innerhalb Europas entwickeln oder einsetzen. Der Fokus richtet sich dabei besonders auf die Hochrisiko-KI, nachdem ihr Einsatz weitreichende Folgen für den einzelnen Menschen sowie die gesamte Gesellschaft haben kann. Zu den besonders betroffenen Bereichen zählen unter anderem das Personalwesen, in dem KI-Systeme Bewerbungen automatisiert analysieren und bewerten. In der Finanzwirtschaft kommt KI beispielsweise bei der Kreditprüfung und der Aufdeckung von Betrugsversuchen zum Einsatz. Auch der öffentliche Sektor kann in den Bereich der Verordnung fallen, etwa, wenn KI bei der Polizei oder der Justiz zum Einsatz kommen.


Ein Anfang – aber der richtige

Ob die KI-Verordnung ihre Ziele erreicht, wird sich zukünftig in der Praxis zeigen. In den kommenden Jahren werden Unternehmen, Anwälte und Gerichte die Regelung weiter auslegen, interpretieren und präzisieren müssen, um sicherzustellen, dass sie den tatsächlichen Herausforderungen gerecht wird. Auch kritische Stimmen müssen gehört werden, etwa dazu, dass sie die Möglichkeiten von Unternehmen einschränkt, oder dass sich insbesondere Cyberkriminelle und staatliche Akteure mit zweifelhaften Absichten sich nicht unbedingt an die neue Regelung halten werden.

Während Kritiker der Verordnung vor allem bürokratische Hürden und Wettbewerbsnachteile für Unternehmen sehen, blicke ich mit ganz anderer Perspektive auf diese Verordnung: Mich erfüllt sie mit Stolz. Stolz, Teil einer politischen Gemeinschaft zu sein, die den Mut hat, Verantwortung zu übernehmen – und sich den gewaltigen Veränderungen der KI-Industrie nicht nur staunend gegenüberstellt, sondern sie aktiv gestaltet. 


Einführung der KI-Verordnung (AI Act)

  • 1. August 2024: Inkrafttreten 
  •  Seit Februar 2025:  Das Verbot bestimmter KI-Systeme und die Anforderungen an die KI-Kompetenz beginnen zu gelten (Kapitel 1 und 2)  
  •  2. Mai 2025: Frist für die Kommission zur Fertigstellung der Verhaltenskodizes
  •  2. August 2025: Governance-Regeln, GPAI-Verpflichtungen, Behördenmeldungen und Sanktionen beginnen zu gelten. Geldstrafen können verhängt werden.
  • 2. August 2026: Die meisten verbleibenden AI-Act-Bestimmungen werden wirksam (außer Artikel 6 Abs. 1)
  • 2. August 2027: Übergangsfrist für Hochrisiko-KI (z. B. im Personalwesen) endet. Verpflichtungen treten in Kraft

Hier finden Sie den Text der EU-KI-Verordnung

Business Partner

Logo:

BVSW Bayerischer Verband für Sicherheit in der Wirtschaft e.V.

Albert-Roßhaupter-Str. 43
81369 München
Deutschland

Kontakt zum Business Partner







VIP

VIP-Interview: Ante Gaspar, Corporate Security bei Coca-Cola

VIP-Interview: Ante Gaspar, Corporate Security bei Coca-Cola

GIT SICHERHEIT im Interview mit Ante Gaspar, Vice President Corporate Security & Integrity bei Coca-Cola Europacific Partners (CCEP).

KRITIS-Dachgesetz

Wie gut sind Sie vorbereitet?
WHITEPAPER

Wie gut sind Sie vorbereitet?

Die CER-Richtlinie und das KRITIS-Dachgesetz definieren klare Maßstäbe für die physische Sicherheit – doch wie setzt man diese effizient und zukunftsorientiert um?

Meist gelesen