Nr. 7
20210306_153621.jpg

Charlotte Siegmann über Fähigkeiten und Regulierung Künstlicher Intelligenz

Künstliche Intelligenz entwickelt sich immer weiter und könnte in Zukunft große Veränderungen in unserem Leben bewirken. Damit beschäftigt sich die Ökonomin Charlotte Siegmann in ihrer Arbeit. Wir sprechen über das transformative Potential von Künstlicher Intelligenz und Möglichkeiten der politischen Regulierung auf EU-Ebene.

Für anonymes Feedback zu dieser Folge hier entlang: https://forms.gle/NdU7Ad8JJHGjszCA9

In Folge 7 habe ich mich mit Charlotte Siegmann unterhalten. Im Gespräch mit der am Global Priorities Institute in Oxford ansässigen Volkswirtschaftlern geht es um Künstliche Intelligenz - was kann sie, wie entwickelt sie sich weiter und was wird sich in unserem Leben dadurch noch verändern? Und wie können wir sie frühzeitig sinnvoll regulieren, geht das überhaupt? Wir sprechen über das transformative Potential von Künstlicher Intelligenz und Möglichkeiten der politischen Regulierung, besonders über die EU KI Verordnung, die noch in Brüssel diskutiert wird.

Empfehlungen zum Thema:

Die Themen

Was kann "Künstliche Intelligenz" jetzt schon?

  • Künstliche Intelligenz hat gerade in den letzten Jahren rasante Veränderungen gesehen. Ein besonders anschauliches Beispiel dafür ist GPT-3 - ein vielseitiges Sprachmodell, das Text generiert und damit beispielsweise als Chatbot eingesetzt werden oder Essays verfassen kann. Das Modell wird an einer großen Menge Daten trainiert und gehört zu den sogenannten Deep Neural Networks.
  • Einige Wochen nach der Interviewaufzeichnung im Oktober 2022 hat OpenAI ChatGPT veröffentlicht; einen Chatbot des Sprachmodells GPT-3 - das bislang anschaulichste Beispiel, was mit Sprachmodellen alles möglich ist und welche Gefahren sie bergen.
  • Diese Modelle bergen aber auch Gefahren. Künstliche Intelligenz reproduziert das, woran es trainiert wurde - kann also auch massiv diskriminierend sein und beispielsweise strukturell negative Ergebnisse ausspucken, wenn sie einen Text über Muslime erstellen soll. Charlotte sieht die Gefahr, dass diese Probleme mit den Modellen mitwachsen: "Wir sehen eben die generelle Tendenz, dass wenn diese Probleme noch nicht jetzt hier sind, sondern vielleicht erst kommen oder sich langsam ausbreiten, dann ist es wahrscheinlicher, dass nicht genügend Leute darüber nachdenken oder es nicht genügend politische Aufmerksamkeit gibt."
  • Charlotte sorgt sich außerdem über die Ehrlichkeit dieser Large Language Modelle: "GPT-3 sagt das, was man so im Internet findet - und im Internet wird sehr viel gesagt und nur manches davon ist wahr. Und je nachdem, wie ich es im prompte oder was GPT-3 über mich weiß, wird es mir unterschiedliche Ergebnisse geben. Und eine Sache, die wir vielleicht von zukünftigen solchen Language Models wollen, ist, dass sie eben wahre Informationen produzieren. Und nicht den Zeitungsartikel, der einfach am meisten aufgerufen wird oder den die Leute am meisten teilen, teilt. Sondern den Zeitungsartikel, der auch am realitätstreusten ist, die wirklichen Nachrichten der Realität erzählt und nicht irgendwas zu stark darstellt oder Gegenargumente nicht präsentiert, nur um mehr Aufmerksamkeit zu generieren."

Die geplante EU-Verordnung zur KI-Regulierung

  • In der Folge fokussieren wir uns auf den geplanten EU AI Act. Die grundlegende Idee ist dabei die Einführung von Risiko-Kategorien für verschiedene Anwendungen von KIs, anhand derer einzelne Maßnahmen festgelegt werden können. Im Entwurf sind mehrere Stufen enthalten, hier zwei Beispiele
  • Unter die Hoch-Risiko-Kategorie fällt jede KI, die bereits jetzt von Produktsicherheit betroffen ist. Beispielsweise wenn es um medizinische Anwendung oder Kinderspielzeug geht. Für Unternehmen, die solche KIs nutzen, hat das ganz konkrete Implikationen: "Das heißt, dass ich zeigen muss, dass ich etwas habe wie menschliche Kontrolle oder einen Menschen im Loop, der drüber schaut. Dass ich Risikomanagement-Systeme in meiner Firma etabliert habe, dass ich erklären kann, wie der Output zustande kommt und dass der Output akkurat ist."
  • Manche KIs sollen durch die Gesetzgebung aber auch komplett verboten werden. Die Kategorie umfasst Algorithmen, die bewusst versuchen, Menschen zu manipulieren. Dabei stellt sich die Frage: “Fällt zum Beispiel der YouTube-Algorithmus, der mir die nächsten Videos vorschlägt, darunter? Ist das Manipulation, also die Veränderung meiner politischen Meinung oder Sichtweise auf die Welt?”

Der Brüssel-Effekt

  • Mit Blick auf den EU AI Act hat Charlotte sich vor allem mit dem sogenannten Brüssel-Effekt beschäftigt und darüber einen Bericht veröffentlicht. “Der Brüssel Effekt ist das Phänomen, wenn EU-Regulierung, EU-Regeln oder Normen einen Einfluss haben auf die Entwicklung, den Verkauf oder die Investition in Technologien außerhalb der EU.”
  • Charlotte unterscheidet dabei zwei Pfade:1. Der de facto Brüssel Effekt:Wir haben internationale Firmen, die überall ihre Dienstleistungen oder Produkte anbieten. Zum Beispiel ein bestimmtes KI-System, das mit der Übersetzung hilft oder ein Recommendation Algorithmus in sozialen Medien etc. Und diese Firma muss sich entscheiden, nachdem neue EU-Regeln verabschiedet wurden: Wollen wir im EU-Markt bleiben? Und wenn ja, wenn wir mit den EU-Regeln konform sind, sollen wir uns dann einfach komplett überall an die EU-Regeln halten oder nur in der EU? Manchmal ist es eben günstiger für die Firma, diese Regeln international anzuwenden.”2. “Der de jure Brüssel Effekt ist das Phänomen, dass andere Regierungen Regeln verabschieden, die so ähnlich aussehen wie EU-Regeln oder die davon zumindest inspiriert sind. Wenn meine Regeln kompatibel sind mit der EU, dann gibt es eine höhere Chance, dass ich bessere Handelsbeziehungen aufbauen kann und wenn schon ein Teil meines eigenen Marktes sich an EU-Regeln hält, dann ist es auch billiger diese neuen Regeln zu verabschieden.”
  • Der EU AI Act wäre nicht das erste EU-Gesetz, bei dem sich ein Brüssel-Effekt argumentieren lässt. Bereits bei der DSGVO sowie Regelungen zu Produkt- und Nahrungsmittelsicherheit haben sich andere Länder von der Arbeit der EU inspirieren lassen. Über den Brüssel-Effekt hat die Juristin Anu Bradford ein Buch geschrieben - sie hat den Begriff überhaupt erst geprägt.

Andere Herangehensweisen als politische Regulierung

  • Neben politischer Regulierung gibt es andere Möglichkeiten, an potenziellen Gefahren durch KIs zu arbeiten. Charlotte nennt mehrere:
  • "Was für Herangehensweisen können noch dabei helfen, die Entwicklung von sicherer oder vertrauenswürdiger künstlicher Intelligenz voranzutreiben? Da gibt es natürlich viel mehr Werkzeuge als nur die der Regulierung. Eine Sache ist sogenannte Self Governance. Also dass Unternehmen zusammenkommen und sich selbst auf Regeln einigen, denen alle dann folgen, ohne dass irgendwelche Regierungen im Raum sind. Oder internationale Verträge, wo Unternehmen international zusammenkommen, mit oder ohne Regierungen. Bis jetzt haben wir immer nur über die Regulierung von Systemen oder Produkten geredet, die zivilgesellschaftlich benutzt werden. Aber es gibt natürlich noch die militärische Nutzung von KI-Systemen, über die man sich entweder durch internationale Verträge auf bestimmte Normen einigen kann oder auch regional oder national Regeln unterschreiben kann, was man da für Sicherheitsnormen implementieren will."
  • "Wenn sich jemand dafür interessiert, wie man die Entwicklung von künstlicher Intelligenz verbessern kann, insbesondere eben mit dem Fokus auf sehr starke Modelle, die sehr viel wissen können oder sehr gut agieren können, in 20, 30 Jahren, dann gibt es so drei große Blocks an Arbeit:1. Der eine ist, an technischen Fähigkeiten zu arbeiten. Warum agiert eigentlich zum Beispiel GPT-3 so wie es tut? Ist es in der Lage uns zu manipulieren? Und dann eben auch Tests zu kreieren: Wie können wir testen, ob GPT-3 die Wahrheit sagt? Wie können wir es implementieren, dass GPT-3 robust und wirklich in allen Fällen uns wahre Informationen gibt etc.? Das ist die Kategorie der technischen Arbeit.2. Dann gibt es die zweite Kategorie: Strategie. Wie stellen wir uns eigentlich KI- Systeme in der Zukunft vor? Welche Fehler könnten die haben? Oder wie könnten sie zum Beispiel unsere Welt verändern, im ökonomischen Sinne oder in der nationalen Sicherheit?3. Die dritte Kategorie ist Governance Arbeit."
pageview counter pixel