1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

EU-Parlament bringt Regeln für KI auf den Weg

14. Juni 2023

Das EU-Parlament nimmt sich die Künstliche Intelligenz vor. Ein Gesetz soll Anwendungen wie etwa ChatGPT zähmen. KI-Dienstleistungen sollen gekennzeichnet, in Risikoklassen eingeteilt und zur Not auch verboten werden.

Programmcode und Android
Künstliche Intelligenz kommt in immer mehr Bereichen zum EinsatzBild: Klaus Ohlenschläger/picture alliance

Die Europäische Union ist dabei, die Anwendungen von lernenden Computerprogrammen, also "Künstlicher Intelligenz" (KI), erstmals zu regulieren. Das Europäische Parlament verabschiedete an diesem Mittwoch in Straßburg einen entsprechenden Entwurf zum KI-Gesetz. Damit setzt sich die EU an die Spitze der weltweiten Bemühungen, allen KI-Anwendungen einen strengen Rahmen zu geben. 

Der Chef der kalifornischen Firma OpenAI, die den vieldiskutierten Textgenerator ChatGPT auf den Markt gebracht hat, hatte bei einem Besuch in Deutschland vor einer Überregulierung gewarnt.

Seine Drohung, ChatGPT im Zweifelsfall in Europa nicht mehr zu betreiben, zog Sam Altman aber wieder zurück. Regeln für künstliche Intelligenz seien im Prinzip gut, sagte der OpenAI-Geschäftsführer, aber "wir brauchen Klarheit". Sam Altman ist ein vielgefragter Mann. Sein Wort hat Gewicht in der KI-Szene. Er wurde sogar von Bundeskanzler Olaf Scholz in Berlin empfangen.

Sam Altman, CEO von OpenAI: Sein Wort wird gehört in DeutschlandBild: Sven Hoppe/dpa/picture alliance

Keine Verbote, sondern europäische Standards

Diese Lobbyarbeit von OpenAI bzw. des Mutterkonzerns Microsoft auf höchster Ebene sieht der Europaparlamentarier René Repasi eher gelassen. Der europäische Markt sei viel zu attraktiv für Anbieter von künstlicher Intelligenz, als dass sie ihn links liegen lassen könnten.

"Wer hier seine KI absetzen möchte, muss sich nach unseren Standards richten", meint Repasi, der sich für die europäischen Sozialdemokraten mit KI auseinandersetzt. Auch der amerikanische Kongress versucht, Regeln für die selbstlernenden Maschinen zu erlassen. Mit den Kolleginnen und Kollegen in den USA sei man in Kontakt, versichert der Europaabgeordnete. "Am Ende des Tages wollen wir sinnvolle Standards schaffen und nicht gegeneinander im Wettbewerb stehen."

Faktencheck: Wie erkenne ich KI-Bilder?

08:06

This browser does not support the video element.

Die amerikanischen Tech-Konzerne hätten viel Kapital, ungeheure Datenmengen und eine einzigartige Vormachtstellung, die sie verteidigen wollten. Das heiße aber nicht, dass Regeln in Europa etwa findige Startups in der EU daran hindern würden, KI weiterzuentwickeln, meint René Repasi. "Dass so viele Tech-Giganten in den USA sitzen, hat eher etwas mit Märkten zu tun, in denen Monopolisten unterwegs sind, als mit der Frage, wo die größere Innovation ist."

Warnungen vor KI

Einer der Väter der Künstlichen Intelligenz, der ehemalige Google-Mitarbeiter Geoffrey Hinton, warnt neuerdings in Interviews vor den Gefahren seiner eigenen Schöpfung. Die generative Künstliche Intelligenz könne womöglich bald intelligenter sein als die Menschen, die sie erschaffen haben. Die Veränderungen für den Arbeitsmarkt seien noch gar nicht absehbar.

Selbst Entwickler der Systeme und leitende Manager von Microsoft oder Google gestehen ein, dass sie selbst nicht mehr genau wüssten, wie Anwendungen mit Künstlicher Intelligenz genau funktionieren. In einem offenen Brief hatten Forscher und Unternehmer, unter Ihnen Twitter-Besitzer Elon Musk, vorgeschlagen, eine Pause bis Ende des Jahres einzulegen, um Grenzen für die Entwicklung von KI zu setzen.

KI-Forscher Geoffrey Hinton warnt vor der eigenen SchöpfungBild: Mark Blinch/REUTERS

Die Ziele der EU

Die EU reagiert mit einem neuen Gesetz, das schon seit zwei Jahren beraten wird. Im Prinzip sieht es vor, KI-Anwendungen in verschiedene Risikoklassen einzuteilen. Hochriskante Systeme, die das Sozialverhalten von Menschen inakzeptabel analysieren und vorhersagen, sollen ebenso verboten werden wie KI mit hohen Gefahren für Grundrechte, Demokratie und Rechtsstaatlichkeit. Riskante Systeme sollen Regeln und Begrenzungen unterworfen werden. Einfache Anwendungen, und dazu würde wohl auch ein Textgenerator wie ChatGPT gehören, sollen nicht großartig eingeschränkt werden.

Allerdings sollen alle Dienstleistungen, die mit KI erzeugt werden, gekennzeichnet werden. Als Beispiel nennt der Europaabgeordnete René Repasi einen Antrag für einen Verbraucherkredit. Der würde heute schon oft von Maschinen geprüft. "Wenn die Prüfung negativ ausfällt, wollen wir, dass man verlangen kann, dass ein Mensch das überprüft. Dazu muss man aber wissen, dass man sich zuvor mit einer KI unterhalten hat."

KI-Gesetz in der EU in zwei Jahren

Bis das KI-Gesetz der EU tatsächlich in Kraft treten kann, dürfte es Anfang 2025 werden. Denn es ist nicht nur die Zustimmung des Parlaments, sondern auch aller 27 Mitgliedsstaaten der EU nötig.

KI-Entwicklungen wie ChatGPT waren vor zwei Jahren noch nicht auf dem Markt und könnten schon längst fortentwickelt sein, wenn die Regulierung in der EU in Kraft tritt, meint der Europaabgeordnete Axel Voss. "Aber die Entwicklung ist da - in der Tat - so schnell, dass vieles von dem gar nicht mehr passt in der Zeit, wenn das Gesetz dann eigentlich greift", sagte er der DW bereits im April.

Was KI-Systeme wie ChatGPT schon alles können

01:41

This browser does not support the video element.

Voss beschäftigt sich für die christdemokratische Fraktion schon seit Jahren mit Künstlicher Intelligenz und schreibt am "Künstliche-Intelligenz-Gesetz" der EU federführend mit. Er warnt davor, mit starren Verboten zu operieren.

Das Gesetz zur KI sollte nach Meinung des SPD-Abgeordneten René Repasi flexibel sein. Die Frage, was bei KI hochriskant oder weniger riskant ist, soll nicht im eigentlichen Gesetzestext, sondern im Anhang geregelt werden. Den könne man immer schnell ändern und der technologischen Entwicklungen anpassen.

TÜV für KI könnte Vertrauen fördern

Die Firmen, die riskante KI-Anwendungen in Europa verkaufen wollen, müssten nach der Gesetzesvorlage strenge Auflagen erfüllen und ein Risikomanagement für ihre Produkte aufbauen. Die Daten, mit denen die KI-Programme trainiert werden, müssen ebenfalls überprüft werden.

Menschen, die Daten zur Verfügung stellen, muss mitgeteilt werden, wozu die Daten verwendet werden. Die italienische Datenschutzbehörde hatte ChatGPT im April wegen Mängeln beim Datenschutz kurzzeitig verboten und erst wieder zugelassen, nachdem die Herstellerfirma OpenAI einige Veränderungen vorgenommen hatte.

Bei den Technischen Überwachungsvereinen in Deutschland, beim Bundesamt für Sicherheit in der Informationstechnik und beim Fraunhoferinstitut für Intelligente Analyse- und Informationssysteme gibt es Überlegungen, ein Zertifikat für KI-Anwendungen einzuführen. Ähnlich wie ein Auto zum TÜV muss, soll dann KI ebenfalls technisch von unabhängigen Prüfern zertifiziert werden. 

Dieser Artikel vom 13. Juni wurde nach der Entscheidung des EU-Parlaments am 14. Juni aktualisiert.

Bernd Riegert Korrespondent in Brüssel mit Blick auf Menschen, Geschichten und Politik in der Europäischen Union
Den nächsten Abschnitt Mehr zum Thema überspringen