Leichte Sprache

home

home » news » Eine Pause für Künstliche Intelligenz

Eine Pause für Künstliche Intelligenz

Lesezeit: 3,5 Minuten

Ende März veröffentlichte das Future of Life Institute einen viel diskutierten offenen Brief, der eine sechsmonatige Pause in der Weiterentwicklung von KI-Systemen einfordert. Dies solle Zeit für rechtliche und ethische Rahmenbedingungen schaffen, um die derzeit unkontrollierbar erscheinenden KI-Fortschritte in fassbare Bahnen zu lenken. Neben über 25.000 Unterzeichnerinnen und Unterzeichnern fand das Statement auch in der interessierten Öffentlichkeit ein breites Echo. Erst eine Woche zuvor hatte das amerikanische Unternehmen OpenAI seine Fortentwicklung GPT-4 vorgestellt, ein Werkzeug, das menschlicher kognitiver und kreativer Leistungsfähigkeit sehr nahekommt und damit öffentliche Debatte um Vorzüge und Nachteile von KI weiter befeuerte.

Robot sleeping in a meadow
Stable Diffusion: Roboter macht Pause auf einer Weide (KI-generiert)

Auch die Mitglieder des Bayerischen KI-Rates haben sich mit den Thesen des offenen Briefes des Future of Life Institute beschäftigt. Zwei Mitunterzeichner sind Prof. Ute Schmid, Lehrstuhlinhaberin für Kognitive Systeme an der Universität Bamberg und Prof. Eric Hilgendorf, Inhaber des Lehrstuhls für Strafrecht und Rechtsinformatik an der Julius-Maximilians-Universität Würzburg.
Beide Ratsmitglieder sehen in dem Brief eine wichtige Initiative, um auf die Risiken bei der Nutzung großer Sprachmodelle – im Fachjargon LLMs (Large Language Models) genannt – hinzuweisen. Diese reichten von Unsicherheiten in Bezug auf fehlerhafte Informationen bis hin zur Angst vor dem Abbau von Arbeitsplätzen. Der Ruf nach Regulierungen für KI werde, so die Ratsmitglieder, zwar lauter, „aber es ist auch klar, dass die Gefahren nie gänzlich ausgeschlossen werden können […] wie bei allen technischen Systemen bleibt immer ein Restrisiko“, so Ute Schmid.

Tatsächlich hat bisher auf europäischer Ebene nur die italienische Regierung mit einer Regulierung reagiert. Ende März 2023 wurde OpenAI bis auf Weiteres auferlegt, Nutzerdaten aus Italien nur eingeschränkt verarbeiten zu dürfen. Grund: Die Daten der Nutzer seien nicht ausreichend gegen Missbrauch gesichert. OpenAI hat nun bis zum 30. April dieses Jahres Zeit, das KI-System an die Anforderungen der italienischen Regierung anzupassen.

Neben den Risiken, die die italienische Regierung zu ihrem faktischen Verbot von ChatGPT bewogen hat, bieten LLMs aber auch bedeutende Vorteile. Darauf weist der Jurist Eric Hilgendorf hin: „Man sollte (…) auch die vielen positiven Chancen nicht übersehen, die ein Programm wie ChatGPT bietet, vom Servicebereich über die Altenpflege bis hin zur Allgemein- und Fachausbildung.“ Hier seien beispielhaft die Stichworte Medikamenten-Management (z.B. Einnahme-Erinnerung oder Hinweis-Generierung auf Wechselwirkungen zwischen Medikamenten) oder neuartige Lernverfahren (z.B. Hilfe bei Schreibblockaden oder Vereinfachung komplexer Texte) genannt. Eine umfassende Einschätzung der Chancen und Herausforderungen gibt es allerdings im fachlichen und gesellschaftlichen Diskurs bisher noch nicht.

Wichtig, aber wenig beachtet im KI-Diskurs: Ressourcen, Menschenwürde, Wertesysteme, Rechtssicherheit
Mindestens vier Aspekte der KI-Entwicklungen sehen Schmid und Hilgendorf als bisher unzureichend diskutiert:

  1. Hoher Energieeinsatz durch Massentraining und -nutzung von KI-Systemen. Durch die Verknappung natürlicher Ressourcen befürchtet Ute Schmid, dass in Zukunft Neuentwicklungen nur für Global Player finanzierbar sein könnten. Kleinere Organisationen und Firmen stünden dann schnell vor einer harten Kosten-Nutzen-Entscheidung, die Innovationen ausbremsen könnten.
  2. Mitunter schlecht bezahlte menschliche Arbeit beim Training einer KI. Ein Beispiel: Das Time Magazine hatte im Januar eine Recherche veröffentlicht, die geringe Bezahlung und psychologischen Stress der Mitarbeiter eines in Kenia ansässigen Dienstleisters aufdeckte. Die Aufgabe der Angestellten war es, ChatGPT ethische Standards anzutrainieren. Schmid bemängelt: „Davon wird kaum gesprochen und stattdessen immer der Eindruck vermittelt, dass mit maschinellem Lernen aufgebaute Modelle rein aus den gesammelten Daten aufgebaut werden.“
  3. Alle wegweisenden technischen Innovationen stammen derzeit aus den USA und China. Durch die vor allem im europäischen Raum entstandene Abhängigkeit von US-Monopolanbietern würden praktisch durch die Hintertür US-amerikanische Werte für und in Europa verbindlich.
  4. Die Klärung juristischer Fragen, „(…) etwa nach einem angemessenen Haftungsrahmen bei Schäden infolge fehlerhafter Aussagen von KI-Sprachprogrammen“ ist bisher nicht erfolgt, so Eric Hilgendorf.
    Diese und weitere Kriterien in eine Art demokratischen Austausch von Wissenschaft, Wirtschaft und der breiten Öffentlichkeit zu bringen, wird eine Aufgabe für die politischen Entscheider der nahen Zukunft sein.

Ein europäisches KI-Sprachmodell – made in Bavaria?

Der Blick auf die maßgeblichen Innovationen im Bereich der LLMs zeigt, dass im internationalen Vergleich die USA und China dominieren. Wegen der kulturellen Nähe zu den USA werden damit derzeit auch US-amerikanische Wertesysteme nach Europa transportiert. Ob unter diesen Voraussetzungen mit wertfreien Ergebnissen gerechnet werden kann, darf in Frage gestellt werden. Hier könnte Europa den entscheidenden Schritt in Richtung qualifizierter, sachlicher und erklärbarer KI vorangehen, meinen Hilgendorf und Schmid. Der Schlüssel: Eine praxisorientierte Verknüpfung ethisch-juristischer Diskussionen mit der Entwicklung von KI-Technologien. Dies könnte sogar weltweit Vorbildcharakter erhalten, denn vorurteilsgebundene KI-Entscheidungen würden durch einen solchen Prozess insgesamt unwahrscheinlicher.

Hier könnte auch der Freistaat eine Vorreiterrolle übernehmen, denn mit weit über 800 KI-Wissenschaftlern an den bayerischen Hochschulen, Forschungseinrichtungen und in Unternehmen bildet die baiosphere ein national und international einmaliges Wissens- und Umsetzungsnetzwerk für Künstliche Intelligenz. Dieses Ökosystem zu nutzen kann der erste Schritt auf dem Weg zu vertrauenswürdigen KI-Entwicklungen der Zukunft sein.