Die unperfekte Welt beschreiben

Ein Interview mit Ingo Siegert, Junior-Professor an der Otto-von-Guericke-Universität und Experte für Künstliche Intelligenz (KI).

Bastian Lomsché (BL): In unserer Überschreibung von Das Leben ein Traum wird der „Automat“ Sigismund – eine, so könnte man sagen, sehr frühe Version eines humanoiden Roboters – auf eine mittelalterliche Gesellschaft losgelassen. Beide Seiten sind davon, gelinde gesagt, völlig überfordert. Ist unsere Gesellschaft aktuell weiter, was die Akzeptanz und das Verstehen KI-basierter Technologie angeht, oder stecken wir geistig noch im „Technik-Mittelalter“ fest? 

Ingo Siegert (IS): Das ist gar nicht so einfach zu beantworten, da es ja nicht die KI-basierte Technologie gibt. Einig ist man sich darüber, dass KI die konstruierte und maschinelle Nachbildung von Intelligenz ist, wobei man sich dabei an den (intelligenten) Fähigkeiten des Menschen orientiert. Diese Definition ist in der heutigen Zeit sicherlich jedem geläufig.
   Weiter unterscheiden Forscher:innen aber noch zwei Kategorien: die schwache KI und die starke KI.

Schwache KI bezeichnet hierbei Systeme, die sehr gut darin sind, komplexe Muster in Daten zu erkennen und damit Erkennungsprobleme oder das Abgleichen von großen Datenmengen beherrschen. Dafür müssen diese Systeme jedoch explizit trainiert werden. Kreativität oder die explizite Fähigkeit, selbstständig im universellen Sinne zu lernen, besitzen diese KI-Systeme nicht.
Starke KI ist ein Konzept, das von einer künstlichen Intelligenz mit den gleichen oder sogar besseren intellektuellen Fertigkeiten als denen des Menschen ausgeht. Hierzu benötigt ein KI-System ein Verständnis der Aufgabe. Es muss neben dem bloßen Lernen von Mustern auch die Gesamtaufgabe wahrnehmen können, anschließend das Problem erkennen und konzeptualisieren, eine geeignete Lösung entwickeln, daraus für zukünftige Aufgaben (selbstständig) lernen können und am Ende auch eine geeignete Aktion auslösen. Darüber hinaus muss eine starke KI auch die Intelligenzbereiche Information und Wissen beherrschen, also Erfahrungen und Kenntnisse in entsprechender Form ablegen und verwalten können.
Wenn man heutzutage von KI-basierter Technologie spricht, ist immer die erste Kategorie, die schwache KI, gemeint. Mit ihr können (vom Menschen) klar definierte Aufgaben mit einer zuvor festgelegten Methodik bewältigt werden, um komplexere, aber wiederkehrende und genau spezifizierte Probleme zu lösen. Die besonderen Vorzüge der schwachen KI liegen in der Automatisierung und im Controlling von Prozessen, aber auch der Bilderkennung und Sprachverarbeitung. Große Aufmerksamkeit hat KI-basierte Technologie durch digitale Assistenzsysteme und autonome Roboter erhalten.
Dass auch mit der schwachen KI komplexe Aufgaben gelöst werden können, bei denen Menschen nicht mehr in der Lage sind, die Entscheidungsfindung nachzuvollziehen, bzw. die Anstrengungen diese Entscheidungsfindung offenzulegen sehr komplex ist (Stichwort: erklärbare KI), führt automatisch dazu, dass Menschen, die mit dieser Technologie nicht so vertraut sind, dieser skeptisch gegenüberstehen. Aber im Gegensatz zum Mittelalter ist das Wissen über Naturwissenschaft und Technik heutzutage wesentlich weiter. Menschen akzeptieren technische Geräte und tun diese nicht mehr als „Zauberei“ ab, auch wenn sie nicht alle Zusammenhänge verstehen.

BL: Sigismund wird von seinem Schöpfer, König Basilio, gebaut als Antwort auf die Schwächen menschlicher Herrschaft bzw. des menschlichen Daseins per se. Das Kalkül: eine Maschine, die alles Wissen in sich vereint und schneller denken (oder: rechnen) kann als jedes menschliche Gehirn, trifft automatisch bessere Entscheidungen, macht weniger (keine?) Fehler und setzt Entscheidungen konsequent um. Werden wir Zukunft von KI regiert und wenn ja, freuen Sie sich darauf? 

IS: Hierauf möchte ich gerne mit einem Gedankenexperiment antworten.
Stellen Sie sich einen geschlossenen Raum vor, in dem sich ein Mensch befindet. Er versteht keinerlei Chinesisch, muss aber in chinesischer Schrift gestellte Fragen sinnvoll in chinesischer Schrift beantworten. Durch einen Türschlitz werden ihm Fragen zu einer chinesischen Geschichte zugestellt und durch diesen kann er auch die Antworten wieder herausgeben. Dieser Mensch ist jetzt unser (noch untrainiertes) KI-basiertes System.
m Zimmer befindet sich auch ein „Handbuch“ mit Regeln in der Muttersprache des Menschen. Das Handbuch enthält alle Anweisungen dazu, welche Zeichen der Mensch, in Abhängigkeit zu den Zeichen auf dem Fragenblatt und den Zeichen in der Geschichte, auf das Antwortblatt zu übertragen hat. Dies bildet die gelernten Muster des KI-Systems ab.
Ein chinesischer Muttersprachler vor der Tür, der den Antwortzettel liest, muss nun unweigerlich zu dem Schluss kommen, dass sich im Zimmer auch ein chinesisch sprechender Mensch befindet, der die Geschichte verstanden hat. Dies ist aber offensichtlich nicht der Fall. Dieses Gedankenexperiment wurde bereits in den 1980ern von John Searle aufgestellt.

Zurück zu Sigismund bedeutet das, dass eine Maschine, die alles Wissen in sich vereint, immer zu einer „richtigen“ Entscheidung kommt, diese Entscheidung aber nicht „versteht“, da sie ja nur Muster vergleicht. „Richtig“ bedeutet hier also, auf Grundlage aller vorliegenden Informationen (Punktwolke im Eingaberaum) die dazu passendste Antwort (das optimale Muster) zu geben.
Dabei bedeutet „am passendsten“ nicht automatisch auch am besten. Für die Entscheidungsfindung wird bei aktuellen Systemen immer ein Optimierungskriterium genutzt, bei dem dasjenige finale Muster genutzt wird, das zu den aktuellen Informationen im Eingaberaum passt. Nun kann es aber auch konkurrierende Lösungen geben, die alle aufgrund der Beobachtungen gültig wären. Eine finale Entscheidung kann dann entweder nur durch zusätzliche (externe oder bisher nicht beobachtete) Kriterien getroffen werden, oder die Entscheidung ist von selbstständig gelernten Vorerfahrungen abhängig. Das KI-System kommt aber immer zu einer Entscheidung.
Die externen Kriterien könnten zum Beispiel so etwas wie Moral sein, die man, wie bei Kant, sicherlich auch als Regel erlernen könnte, indem man menschliche Handlungen (die dann alle moralisch richtig sein müssen) beobachtet und als Lerngrundlage nimmt. Aber findet das KI-System so alle Handlungsbeispiele?

Ich glaube daher nicht, dass wir irgendwann von der KI beherrscht werden. Sicherlich werden KI-Systeme zukünftig eine weitere Verbreitung finden und dabei helfen, komplexe Zusammenhänge zu erkennen und daraufhin Systeme zu steuern. Aber es sollte zumindest einige Expert:innen geben, die diese Entscheidungsfindung nachvollziehen und die Richtigkeit validieren können.

BL: Die Datengrundlage, auf der Sigismund seine Entscheidungen trifft, umfasst „alles Wissen der Welt“, wie wir im Stück erfahren. Heute würde man von Big Data sprechen, von riesigen Datenmengen, für deren Strukturierung und Verarbeitung KI verwendet werden. Die Vorteile liegen auf der Hand: Es können Informationen und Erkenntnisse generiert werden, die bisher nicht zugänglich waren. Kritisiert wird aber, dass Perspektiven ehemals oder noch immer benachteiligter Gruppen (z.B. Frauen, trans Personen, People of Color, religiöse Minderheiten) in wissenschaftlichen oder literarischen Publikationen stark unterrepräsentiert sind. Ist KI dazu in der Lage, solche strukturellen Gegebenheiten auszugleichen? Oder werden derartige Benachteiligungen durch KI-basierte Datenverarbeitung noch weiter manifestiert? 

IS: Forschung findet nicht losgelöst von der Gesellschaft statt und ja, auch in der Forschung sind benachteiligte Gruppen immer noch unterrepräsentiert. Das kann dazu führen, dass auch Technik bestimmte Gruppen benachteiligt: Zum Beispiel gibt es erst seit 2011 einen weiblichen Crash-Test Dummy.
Aber natürlich gibt es auch in der Forschung ein Umdenken und ihre Ergebnisse können nicht nur der Mehrheit, sondern vielleicht gerade benachteiligten Gruppen helfen.
Für die Entwicklung von KI-Systemen ist man auf viele repräsentative Daten zum Trainieren angewiesen. Aber gerade Gruppen, die gesellschaftlich unterrepräsentiert sind, die wenig Zugang zu Technik haben und diese auch wenig nutzen, sind somit in den Datensammlungen unterrepräsentiert. Hier eine adäquate Lösung zu finden und mit den Daten sensibel umzugehen; zu testen, ob die Technik auch bei Personen aus benachteiligten Gruppen so funktioniert wie gewohnt, das erfordert auf der einen Seite dafür sensibilisierte Forscher und auf der anderen Seite auch ein tieferes Verständnis der Technik, damit man derartige Benachteiligungen durch geeignete Maßnahmen (ausgeglichene Daten, bessere Modellierung der Informationen) verhindern kann. Ich denke, dass aufgrund der Tatsache, dass dieses Thema (zu Recht) in der Gesellschaft angesprochen wird, auch die KI-basierte Datenverarbeitung einen Beitrag dazu leistet, diese Benachteiligungen zu verhindern.

BL: Im Theaterstück misslingt das Experiment des „Automaten-Herrschers“ zunächst, da Sigismunds Entscheidungen zwar effektiv, aber grausam sind und er zwischenmenschliche Interaktionen als „nutzlos“ ablehnt. Erst durch das Zusammentreffen mit Clarin, einer Narrenfigur, deren Denken und Reden anarchisch, chaotisch und vordergründig wirr erscheint, begreift Sigismund etwas über das „Leben“. Inwieweit spielen in der realen KI-Forschung Fehler, Chaos, Willkür, Irrationalität und damit die Angst vor einer zu perfekt organisierten Welt eine Rolle?

IS: Hierzu muss man kurz auf die Entscheidungsfindung, d.h. den Lernprozess, in aktuellen KI-Systemen eingehen. Die Grundlage für Entscheidungen sind ja meist messbare Beobachtungen.
Möchte man beispielsweise Äpfel von Birnen anhand ihres Aussehens unterscheiden, dann könnte man die Merkmale „Rundheit“ und „Farbe“ messen. Äpfel sind eher rund und leuchtend grün, satt rot oder rot mit etwas gelb. Birnen sind grasgrün oder gelb mit etwas rot und eher nicht rund. Für ein Entscheidungssystem können wir uns nun beide Merkmale als Koordinatensystem vorstellen. Auf der einen Achse stehen die verschiedenen Farben (satt rot, rot mit etwas gelb, gelb, grün). Auf der anderen Achse stehen die Rundheitswerte. Dann gehen wir in einen Supermarkt und lassen uns verschiedene Äpfel und Birnen geben, messen deren Merkmale (Rundheit, Farbe) und tragen diese, zusammen mit der Information was es war (auch Klasse genannt) als Punkte in unser Koordinatensystem ein. Wenn wir alles richtig gemacht haben, dann sollten sich jetzt zwei Punktwolken ergeben, die einmal die Klasse der Birnen und einmal die Klasse der Äpfel beschreiben, und die man sehr gut mit einer Geraden voneinander trennen kann. In unserem Gedankenbeispiel ist alles rechts von der Trenngeraden eine Birne, links liegen die Äpfel. Das Finden dieser Trennungsgeraden ist der Lernprozess, der auch Training genannt wird.
Jetzt können wir in einen anderen Supermarkt (der nur Äpfel und Birnen verkauft) gehen und eine, uns diesmal unbekannte Sorte richtig zuordnen. Dazu ermitteln wir wieder Farbe und Rundheit, tragen dies in unser Koordinatensystem ein und vergleichen, wo der neue Punkt in Bezug auf unsere Trenngerade liegt. Liegt er rechts, ist es eine Birne, liegt er links ist es ein Apfel.
So weit so einfach. Wenn man jetzt aber noch Nashi-Birnen hat, reichen die beiden Merkmale nicht mehr aus, da Nashi-Birnen auch rund wie Äpfel sind. Hier brauchen wir also noch mehr Merkmale, um zwischen Äpfeln, Birnen und Nashi-Birnen zu unterscheiden. Das heißt, je komplexer die Dinge sind, die man unterscheiden möchte, desto mehr unterscheidbare Eigenschaften benötigt man. Dieses vereinfachte Vorgehen ist auch die Grundlage für KI-basierte Entscheidungssysteme, alles sehr geordnet, Chaos spielt hier keine Rolle.
Für reale Probleme zeigt sich weiterhin, dass sich kleinste Änderungen in der Ausprägung bestimmter Merkmale sehr stark auf Entscheidungen über die Klassenzugehörigkeit auswirken können. Für unser Obst-Beispiel bedeutet so ein sattes Rot immer Apfel. Da KI-basierte Entscheidungssysteme vor allem da genutzt werden, wo es Menschen nicht mehr möglich ist, die wesentlichen unterscheidbaren Merkmale zu bestimmen und daher sehr viele Merkmale genutzt werden müssen, kann dieses Verhalten - plötzliche Entscheidungsänderung aufgrund nur minimaler Änderungen der Merkmale - als chaotisch wahrgenommen werden. Dabei steckt dahinter meist nur ein stark nichtlinearer Zusammenhang.
In Wirklichkeit arbeitet das KI-basierte Entscheidungssystem also sehr geordnet. Es ist weder chaotisch noch willkürlich, sondern eher sehr rational.

Anders sieht es mit Fehlern aus. Leider gelingt es nicht immer, Trenngeraden zu lernen, mit denen die verschiedenen Klassen perfekt voneinander getrennt werden können. Dann macht das KI-basierte Entscheidungssystem manchmal Fehler. Wie groß der Fehler ist, versuchen die Forscher in der Entwicklungsphase abzuschätzen, indem das System, nachdem es die Daten gelernt hat, getestet wird. Dabei soll das KI-basierte Entscheidungssystem Daten, bei denen die Klassenzuordnung bekannt ist, zuordnen. Die Richtigkeit dieser Zuordnung wird dann als Genauigkeitswert genutzt. Je nachdem, für welche Anwendung man das KI-System einsetzen will, sind hier unterschiedliche Genauigkeitswerte akzeptabel.
Spracherkennungssysteme sind meist schon zu 94,7% korrekt, d.h. nur 6,3% aller Spracheingaben werden nicht richtig erkannt. Bei ca. 3.1 Mrd. Anfragen pro Monat sind das zwar eine ganze Menge „Fehler“, die aber nicht gefährlich sind, sondern nur den Nutzer nerven, da er seine Anfrage wiederholen muss. Bei der Wiederholung verändern Nutzer auch die Art und Weise wie sie die Anfrage stellen, wodurch dann meist die leicht veränderte Anfrage vom KI-System verstanden wird. Das heißt also, Fehler gehören zu KI-Systemen dazu und man kann diese nicht vollständig verhindern, nur ihre Auswirkung minimieren.
In der Forschung beschäftigt man sich nun damit, diese Fehlerrate noch weiter zu senken, indem man zum einen mehr Trainingsdaten und größere Merkmalsräume und zum anderen bessere Lernmethoden nutzt, um dann doch noch eine Trennung der Klassen durchführen zu können, ähnlich zu dem Beispiel mit den Nashi-Birnen.
Weiterhin arbeitet man daran, bessere Merkmale zu finden, die bestimmte Phänomene besser beschreiben und damit eine bessere Trennung ermöglichen.
Eine andere Herangehensweise ist es, Fehldetektionen als solche zu erkennen und dann gezielt aus der Entscheidung herauszunehmen. Dies ist vor allem immer dann der Fall, wenn das KI-basierte Entscheidungssystem auf einmal mit Daten konfrontiert wird, die Klassen beinhalten, die es während des Lernens nicht gesehen hat, wie bei uns die Nashi-Birnen.
Die Angst vor perfekt organisierter Welt muss man aber nicht haben, es ist eher so, dass man versucht, mit immer komplexeren Methoden die „Unperfektheit“ der Welt beschreiben zu können.

BL: Ist das Bedürfnis zu herrschen programmierbar? Kann eine KI „ein Auge zudrücken“ und mit Augenmaß analysieren und umsetzen? Und: Kann sie bereuen und aus ihren Fehlern lernen? 

IS: Nein. KI-basierte Systeme entscheiden immer auf Grundlage der Daten, ihrer Ausprägung und der zugehörigen Klasse. Eine „Entscheidung nach Augenmaß“ muss also (wenn sie objektivierbare Kriterien hat und es genügend Beispiele dafür gibt, die gelernt werden können) aufgrund dieser Daten im Trainingsprozess dargeboten werden. Aber ob dies mit der landläufigen Vorstellung von „nach Augenmaß entscheiden“ übereinstimmt, muss jede:r selbst entscheiden.
Anders sieht es aus, wenn die Beobachtung genau auf einer Trenngeraden oder sehr weit weg von allen Trenngeraden liegt. Als Mensch würde man dann sagen, dass eine auf dieser Grundlage getroffene Entscheidung wenig vertrauenswürdig ist. Dies lässt sich auch für ein KI-basiertes System umsetzten, muss aber explizit durch die Entwickler:innen geschehen. In solch einem Fall wird entweder keine Entscheidung getroffen oder auf weitere, bessere Daten gewartet. Zu beobachten ist dieses Verhalten zum Beispiel bei Amazons Alexa, wenn diese sagt: „Entschuldigung, das habe ich nicht verstanden. Bitte versuche es erneut“.
Um zu bereuen, muss man das Bewusstsein besitzen, dass die getroffene Entscheidung „falsch“ war. Da, wie eingangs schon erläutert, KI-basierte Systeme kein Bewusstsein besitzen, sind diese auch nicht fähig, zu bereuen.
Aber KI-Systeme können durchaus aus Fehlern lernen, das ist sogar eine spezielle Methode, um diese zu trainieren. Hierbei werden dem KI-basierten System Eingangsdaten, für die die Entscheidung bekannt ist, präsentiert und dann die Entscheidung des KI-Systems mit der realen Entscheidung verglichen. Die beobachtete Abweichung der Entscheidung wird dann in das KI-System zurückgeführt, um in den einzelnen Komponenten eine Fehlerminimierung durchzuführen.

BL: Eine Frage zum Abschluss: KI malen mittlerweile Gemälde, komponieren klassische Musik, erschaffen Skulpturen. Am Schreiben literarischer Texte scheitern sie bislang. Wo liegen - insbesondere im Bereich Kunst und Kultur - die Grenzen von KI und warum? 

IS: Mittlerweile kann KI auch sehr gute Texte schreiben, bzw. (englischsprachige) Texte von Menschen so gut vervollständigen, dass diese teilweise nicht von von Menschen geschriebenen Texten unterschieden werden können. Ähnlich funktioniert auch das KI-basierte Malen, aus eingegebenen Wörtern entstehen Bilder, oder beim Komponieren, vorgegebene Melodiefolgen werden fortgesetzt oder kombiniert.
Alle diese KI-Ansätze beruhen darauf, die Eingabe möglichst sinnvoll fortzusetzen, bzw. mit Kontext anzureichern. Als Grundlage dienen bekannte Texte, Bilder oder Musikstücke.
Damit ist es möglich, eine KI zu trainieren, die (in bestimmten Grenzen) sinnvolle Texte „schreiben“ sowie ansprechende und gefällige Bilder oder Musik „komponieren“ kann. Die KI gaukelt hier Kreativität nur vor, indem Gelerntes so kombiniert wird, wie es im vorgegebenen Kontext am wahrscheinlichsten ist. Das manchmal Überraschende an den Ergebnissen liegt wieder an den stark nichtlinearen Zusammenhängen. Vorhandenes, vielleicht auch überraschend, fortzusetzen, ist aber nicht unbedingt das, was wir als kreativ betrachten.
Es ist damit nicht möglich, etwas wirklich Neues zu schaffen, was ja gerade die menschliche Kreativität auszeichnet. Also Werke zu erschaffen, die sich nicht direkt aus bereits Vorhandenem ergeben, sondern aufgrund individueller Erfahrung und Kreativität neu geschaffen werden. Man denke hier nur an Blues, Grunge, Punk oder Hip-Hop in der Musik, den Impressionismus und Surrealismus in der Kunst, oder das epische Theater. Sicherlich kann eine sehr leistungsfähige KI (wenn man diese anhand der Daten trainiert) etwas erzeugen, das gefällig klingt und Elemente von Blues, Grunge und Hip-Hop vereint, oder neue Bilder erzeugen, die so aussehen wie von Salvador Dali gemalt. Aber etwas Neues erschaffen, das kann KI nicht, da es ihr an Kreativität und Bewusstsein fehlt.


Zur Person

Ingo Siegert ist Juniorprofessor für Mobile Dialogsysteme am Institut für Informations- und Kommunikationstechnik der Otto-von-Guericke-Universität Magdeburg. Zusammen mit seinem Team sowie weiteren Wissenschaftler:innen untersucht Ingo Siegert, wie sich digitale Assistenzen in den Alltag integrieren lassen, durch bessere Dialogführung sowie Stimmanonymisierung die Akzeptanz solcher Geräte erhöht werden kann und bringt Roboter zum Sprechen. Anwendungsgebiete sind hier die Musiktherapie, die Studieninformation, aber auch Paketzustellung sowie anonyme Ferntherapie und pathologische Sprachdiagnostik. Daneben beteiligt sich die Arbeitsgruppe an der Etablierung eines neuen Studiengangs AI-Engineering. Darüber hinaus ist Ingo Siegert sehr am Austausch mit künstlerischen Projekten zu KI interessiert und war sowohl als Experte für Filmgespräche als auch als wissenschaftlicher Berater für verschiedene Projekte tätig.