Panorama

EU will KI regulieren – lässt sich die neue Technologie noch eindämmen?

  • WM-Redaktion
  • In PANORAMA
  • 2. März 2024
img
@ Foto von ALEXANDRE LALLEMAND auf Unsplash (CC0-Lizenz)

Künstliche Intelligenz hat Einzug in viele Lebensbereiche gehalten und bringt aus wirtschaftlicher Sicht enormes Potenzial. Die Fähigkeiten gehen weit über die Hilfe bei Hausarbeiten und Aufsätzen hinaus, ChatGPT und Co. sind nur die Spitz dessen, was KI wirklich kann.

Jede neue Technologie bietet Chancen, aber auch Risiken. So ist die Verbreitung von Desinformationen ein großes Problem und auch die manipulative Nutzung (Deepfakes bei Videos, Bildern etc.) sowie Diskriminierung spielen bei den Regulierungsplänen der EU eine Rolle. Aber ist es heute überhaupt noch möglich, die verbreitete Technologie einzudämmen oder ist es dafür schon zu spät?

Einsatzbereiche von künstlicher Intelligenz sind vielfältig

Als OpenAI die Entwicklung von ChatGPT bekannt gab, war das Thema KI plötzlich in aller Munde. Dabei geriet in Vergessenheit, dass selbstlernende Mechanismen schon viel länger im Einsatz sind. Ob nun Speaker wie Amazons Alexa oder auch Start-ups wie Mindway AI für mehr Sicherheit beim Glücksspiel – die Geburtsstunde von KI fand schon vor vielen Jahren statt.

Heute gibt es zahlreiche Einsatzbereiche der neuen Technologie, die für den Menschen einen Mehrwert bringen. Bleiben wir beim Beispiel von Mindway AI hilft KI beispielsweise dabei, Suchtprävention im Glücksspielsektor zu betreiben. Das scheint im Hinblick auf die gestiegenen Umsätze im digitalen Gambling von großer Bedeutung. Anbieter wie NetBet Österreich verfügen über umfassende Schutzmöglichkeiten für sicheres Glücksspiel und könnten von der Integration von KI weiter profitieren. Aber auch Suchtprävention auf anderen Ebenen kann eine Rolle spielen. So können KI-Systeme auf Basis von Wissenschaft und Daten Prognosen abgeben, wie suchtgefährdet einzelne Personen sind.

Das führt uns zum medizinischen Sektor, wo künstliche Intelligenz vor allem in der Diagnostik eine wichtige Rolle spielt. Ein Paradebeispiel entspringt der Dermatologie, wo KI in der Lage ist, die Differenzialdiagnostik bei Hautanomalien zu verbessern. Die Kunst der Technologie liegt darin, Daten in Echtzeit zu analysieren und Rückschlüsse anhand verschiedener Algorithmen zu ziehen. Der Mensch selbst wäre dazu nur mit einem enormen Zeitaufwand in der Lage, der praktisch unmöglich umsetzbar ist.

Medizin, Landwirtschaft, Umweltschutz, Journalismus, Marketing, Kunst – die Branchen, für die KI eine Rolle spielt oder künftig spielen wird, sind vielfältig. Dementgegen stehen die Risiken, die mit der weiteren Verbreitung von künstlicher Intelligenz einhergehen. Aber wie wahrscheinlich ist es, den Boom mit Regulierungsmaßnahmen noch aufzuhalten und was plant die Regierung wirklich?

AI-Act soll künstliche Intelligenz auf EU-Ebene regulieren

Im November 2023 nutzte in Deutschland bereits jedes achte Unternehmen künstliche Intelligenz, Tendenz steigend. Mit dem AI-Act soll auf europäischer Ebene ein Gesetz geschaffen werden, das den Menschen vor gefährdenden Einflüssen durch KI schützt. Dabei geht es nicht darum, die Technologie als solche zu verbieten oder zu regulieren. Stattdessen zielt das Gesetz darauf ab, die Anwendung einzudämmen.

Gilt ein KI-System als „hochriskant“ (z.B. im Gesundheitswesen oder auch beim Recruiting in Unternehmen), kann es verboten werden. Für weniger riskante KI-Anwendungen soll künftig nur eine Transparenzpflicht eingeführt werden. Keine weiteren Regulierungsmaßnahmen sind hingegen für KI-Nutzung geplant, von der ein minimales Risiko für den Menschen ausgeht.

Der risikobasierte Ansatz scheint sinnvoll, da er darauf abzielt, natürliche Personen zu schützen. KI-Systeme mit schadhafter Auswirkung können und werden vollständig verboten. Als schädlich gilt die Technologie unter anderem dann, wenn folgende Merkmale erfüllt sind:

• Social Scoring: KI-Systeme, die Menschen auf Basis ihrer Persönlichkeitsmerkmale, Lebensstatus oder Verhaltensmuster bewerten, gelten als hochriskant. Hier ist als Beispiel die präventive Polizeiarbeit zu nennen. Es soll nicht erlaubt sein, nur auf Grundlage von Mustern einen Menschen als potenziellen Täter zu klassifizieren.

• Biometrische Identifizierung: Verboten werden sollen auch KI-Ansätze, die eine Kategorisierung und Identifizierung von natürlichen Personen durch Gesichtserkennung möglich machen.

• Manipulatives Verhalten: Bringt die KI den Menschen durch manipulative Ansätze zu bestimmten Verhaltensmustern, wird sie verboten. Hier sind auch sprachgesteuerte Spielzeuge für Kinder zu nennen, wenn sie die Entwicklung des Kindes gefährden oder diskriminierenden Einfluss nehmen.

In der Strafverfolgung könnte der KI-Ansatz sinnvoll sein, möglich sind hier streng geprüfte Zulassungen. Es ist denkbar, dass zur Fernidentifizierung auf Basis von verfügbaren Daten ein Gerichtsbeschluss nötig wird, um den Einsatz zu prüfen.

Umgang mit Hochrisiko-KI-Systemen in Europa

Nicht verbotene, aber trotzdem riskante KI-Systeme sollen in Europa gesondert überwacht werden. Es wird eine Registrierung in der europäischen Datenbank erforderlich. Der Einsatz bleibt dann zwar grundsätzlich erlaubt, muss aber von menschlicher Hand überwacht werden. Es soll nicht zulässig sein, KI von KI überwachen zu lassen. Unter anderem in folgenden Bereichen soll eine verstärkte Überwachung stattfinden:

• KI-Nutzung im Bereich von kritischen Infrastrukturen

• Berufliche und allgemeine Bildung durch und mittels KI

• Arbeitnehmerverwaltung, Recruiting, Beschäftigung

• KI-Nutzung bei der Anwendbarkeit und Auslegung von Gesetzen

• Migrationsverwaltung und Grenzkontrollen durch KI

Sobald ein System als hochriskant eingestuft wird, muss es sich vor der Inbetriebnahme strenger Prüfungen unterziehen. Auch während der gesamten Nutzungsdauer wird die Funktionalität überwacht, um bei Gefahren schnell eingreifen zu können.

Generative KI und die geplanten Regulierungen 

An Universitäten wird das System der „Hausarbeiten“ ernsthaft überprüft, Schulen haben flächendeckend ein ChatGPT-Verbot verhängt. Generative KI wie ChatGPT gelten laut Politik nicht als hochriskant, werden aber trotzdem überwacht. Das dient insbesondere zum Schutz der Verbraucher, die KI-generierte Inhalte kaum von menschlichem Output unterscheiden können.

So soll eine Kennzeichnungspflicht erfolgen, mit denen KI-Inhalte klar zu identifizieren sind. Auf Entwicklerseite müssen Modelle so gestaltet werden, dass sie nicht in der Lage sind, illegalen Output zu geben. Das umfasst Bildermanipulationen, aber auch die Programmierung von Schadsoftware und vieles mehr.

Nachdem man sich im Dezember 2023 auf die vorläufige Version des AI Acts geeinigt hat, ist unbekannt, wann das neue Gesetz in Kraft treten wird.

Fazit: KI muss reguliert werden, möglich ist das aber nur auf EU-Ebene

Die Entscheidung für ein Gesetz auf EU-Ebene war nicht nur sinnvoll, sondern auch notwendig. Ein Flickenteppich in Europa hätte zu noch mehr Chaos geführt und wäre kaum durchsetzbar gewesen. Inwieweit sich schadhafte Auswirkungen der KI noch eindämmen lassen, wird sich erst nach dem Inkrafttreten zeigen.

Einige Experten sind überzeugt, dass sich KI heute nicht mehr regulieren lässt, da der Fortschritt bereits zu weit ist. Vorhandene KI-Programme lassen sich kaum mehr regulieren oder gar verbieten. Das Ziel muss jetzt sein, einen sicheren Umgang mit der neuen Technologie sicherzustellen, da sie aus vielerlei Sicht ein enormes Potenzial mit Vorteilen für die Gesellschaft bringt.

STARTSEITE