1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Wie verändert künstliche Intelligenz die Gesellschaft?

31. März 2023

Der Aufstieg von KI-Systemen wie ChatGPT könnte Millionen Menschen den Arbeitsplatz kosten, die Grenzen zwischen Wahrheit und Lüge verwischen und soziale Ungleichheiten verschärfen, warnen Fachleute. Zurecht?

Ein Laptop in einem Büro, der eine Illustration zeigt. Darauf zu sehen ist ein Mann in futuristischer Umgebung, der durch ein Tablet -- wie durch ein Fenster -- in eine von Technologie geprägte Welt blickt.
KI-Programme wie Bildgenerator Midjourney erschaffen in Sekunden, wofür Menschen Stunden oder sogar Tage brauchenBild: DW

Künstliche Intelligenz ist hier. Einst die Domäne von Science-Fiction-Romanen, ist KI-Technologie ein unverzichtbarer Bestandteil unseres Lebens geworden - sei es in Form von Empfehlungs-Algorithmen oder Chatbots wie ChatGPT. In den nächsten Jahren wird dieser Einfluss weiter wachsen, darüber sind sich Experten sicher.

"Es ist schwer zu sagen, worauf KI keinen Einfluss haben wird", sagt Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, der DW.

Was bedeutet es für unsere Gesellschaften, wenn immer mehr Aufgaben, für die bisher menschliche Intelligenz nötig war, an Maschinen delegiert werden? 

Arbeit: Die Automatisierung von ‘Wissensarbeit’

Die wohl unmittelbarsten Auswirkungen werden Viele am Arbeitsplatz spüren. Bis zu 300 Millionen Jobs weltweit könnten durch KI automatisiert werden, schätzt die Investmentbank Goldman Sachs in einer neuen Untersuchung - ein Großteil davon in Industrienationen.

Das klingt anders als bisher. Jahrelang gingen die meisten Experten davon aus, dass durch KI vor allem die Jobs von Geringqualifizierten automatisiert würden. "Wissensarbeit" – also Arbeit, die viel menschliche Kreativität oder Wissen erfordert und bei der neues Wissen oder kreativer Output produziert werden - galt dagegen als relativ immun.

Sie lagen falsch: Neue sogenannte "generative" KI-Systemen wie ChatGPT, LaMDA oder Midjourney produzieren mittlerweile zunehmend überzeugend Texte, Bilder oder Computercode. Und erste Auswirkungen werden sichtbar. Manche Anwaltskanzlei nutzt schon KI, um juristische Recherchen durchzuführen oder Vertragsentwürfe aufzusetzen. Medienunternehmen planen, simple journalistische Aufgaben an Computer zu delegieren. Filmproduktionsfirmen und Werbeagenturen beginnen mit KI-generierten Soundtracks zu arbeiten.

Judith Simon (Mitte) ist Mitglied des Deutschen EthikratsBild: Wolfgang Kumm/dpa/picture alliance

Die meisten Veränderungen stehen allerdings noch aus. "Kein Beruf ist wirklich sicher", sagt Philosophin Simon. Wann immer ein Job replizierbare Elemente enthält, zumindest in Teilen, würden Maschinen diese irgendwann nachahmen können - oft in einem Bruchteil der Zeit, die Menschen dafür brauchen. 

Und was machen wir mit dieser neuen Effizienz? Eine Möglichkeit wäre, die allgemeine Arbeitszeit zu reduzieren und damit die Lebensqualität von Arbeitenden zu verbessern. Aber Simon ist skeptisch: "Neue Technologie wurde schon immer mit dem Versprechen angepriesen, die Arbeitslast zu verringern - passiert ist das nie."

Geistiges Eigentum: Wem gehören KI-Schöpfungen?

Gleichzeitig zwingt der Aufstieg "generativer KI" Gesellschaften auch dazu, ihre bestehenden Regeln für geistiges Eigentum zu überdenken und möglicherweise neu zu schreiben.

Aufgabe solcher Eigentumsrechte ist es, Werke wie Texte, Bilder oder Designs zu schützen und sicherzustellen, dass ihre Schöpfer entlohnt werden, sollten andere sie nutzen. Aber was, wenn KI-Systeme einen Artikel, ein Lied oder ein Logo erschaffen? Wer besitzt das Urheberrecht? Die Programmierer? Die KI-Systeme selbst? Niemand? Und was ist mit denen, deren Arbeit verwendet wurde, um die Systeme zu trainieren?

"Das sind wirklich knifflige Fragen", sagt Teemu Roos, Professor für Informatik an der Universität von Helsinki, der DW. Denn auch wenn es so scheinen mag, KI-Systeme wie ChatGPT erschaffen keine Werke aus dem Nichts. Stattdessen analysieren sie erst riesige Mengen von Texten, Musik, Fotos, Gemälden oder Videos, die sie im Internet finden – Werke von denselben Kreativen, die KI zu verdrängen droht.

Informatiker Teemu Roos forscht und lehrt an der Universität HelsinkiBild: Maarit Kytöharju

Dagegen regt sich nun Widerstand: Die Fotoagentur Getty Images beispielsweise hat das KI-Unternehmen Stability AI verklagt, das seinen Bildgenerator mit über 12 Millionen Getty Images-Fotos trainiert haben soll. Unabhängig davon zieht auch eine Gruppe Kunstschaffender mit einer Sammelklage gegen Stability AI sowie die KI-Unternehmen Midjourney und DeviantArt vor Gericht.

Desinformation: Ein Zeitalter der Unsicherheit

Der Fakt, dass KI-Technologie in kürzester Zeit und mit geringstem Aufwand überzeugende Fakes erstellt, gibt auch noch Anlass zu weiteren Bedenken. Kriminelle, autoritäre Regime oder Demagogen, so befürchten Fachleute, könnten mit den Systemen falsche oder irreführende Informationen im Internet streuen und so Einfluss auf die öffentliche Meinung nehmen. 

Sam Altman, CEO des Technologieunternehmens OpenAI in San Francisco, hat selbst davor gewarnt, dass KI "für Desinformation im großen Stil eingesetzt werden könnte". 

Sam Altmans Unternehmen OpenAI hat KI-Systeme wie ChatGPT oder Dall-E entwickeltBild: Stephen Brashear/AP/dpa/picture alliance

Computerwissenschaftler Roos stützt seine Sorgen. Derzeit würden Desinformationen noch hauptsächlich von Menschen in sogenannten "Troll-Fabriken" fabriziert. "Wenn man das in großem Umfang automatisieren kann, ist das eine ganz neue Dimension der Bedrohung", so Roos. 

Automatisierte Entscheidungen: Richter KI?

Schließlich nutzen auch Regierungen und Unternehmen zunehmend KI, um Entscheidungen zu automatisieren, teilweise mit lebensverändernden Konsequenzen - sei das bei der Personalauswahl, der Vergabe von Sozialleistungen, oder um zu entscheiden, wer vorzeitig aus dem Gefängnis entlassen wird. 

"Das ist ein Bereich, in dem wir besonders vorsichtig sein müssen und KI verantwortungsvoll einsetzen müssen", warnt Celina Bottino von der Nichtregierungsorganisation Institut für Technologie und Gesellschaft in Rio de Janeiro. 

Die meisten heutigen KI-Systeme analysieren riesige Datenmengen, um darauf basierend Vorhersagen zu treffen. Das macht sie in vielerlei Hinsicht höchst effektiv. Aber Studien haben auch gezeigt, dass die Systeme oft bestehende Vorurteile und Diskriminierungen replizieren oder sogar verstärken, wenn sie nicht entsprechend kontrolliert werden. 

Was bedeutet das für den Einsatz von KI in Kernbereichen der Gesellschaft, beispielsweise in Gerichten? 

Mensch und Maschine: Die Roboter sind da

02:58

This browser does not support the video element.

In einer gemeinsamen Studie mit der amerikanischen Columbia University hat Bottinos NGO festgestellt, dass durch den Einsatz von KI Brasiliens Gerichtssystem insgesamt verbessert werden könnte. 

"Es gibt viele Möglichkeiten, wie KI beispielsweise helfen kann, Verfahren und Entscheidungsprozesse zu beschleunigen", sagt sie der DW. Aber sie warnt auch davor, dass KI-Systeme nicht allein für weitreichende Entscheidungen verantwortlich sein dürften. "Wenn es darum geht, wer das letzte Wort hat, können oder sollten wir keine Maschine an die Stelle von Menschen setzen", sagt Bottino.

Den nächsten Abschnitt Mehr zum Thema überspringen