Wie wird KI intelligent?

Zunächst einmal lernen Menschen, so zu denken und zu handeln, wie es alle machen. Wir lernen nachzuahmen und dadurch Resultate zu erzielen, die üblicherweise (in der Vergangenheit) erfolgreich waren und/oder von uns erwartet werden. Dieser Mechanismus ist trivial. Er wird auch von Maschinen beherrscht, denn die Eingabewerte und die Ausgabewerte sind bekannt und stehen in mehr oder weniger Deutlichkeit miteinander in Relation. In der Wissenschaft des maschinellen Lernens nennen wir das überwachtes Lernen. In der primitiven Version werden den Eingabewerte die gewünschten Ausgabewerte direkt zugeordnet und der Algorithmus folgt einfach dieser Vorgabe. Bei etwas undurchschaubareren Zusammenhängen wird die lineare Regression angewendet, mit deren Hilfe die Gleichungen bestimmt werden, nach denen Eingabe- und Ausgabewerte in Beziehung stehen (an dieser Stelle muss ich immer an meinen vermuteten Vorfahren Jean Baptiste Fourier und die nach ihm benannte Analyse denken).

Nun gibt es im wahren Leben genügend Fälle, in denen die Ausgabewerte überhaupt nicht bekannt sind. Menschen fangen dann an herumzuprobieren – meist mit geringen Erfolgsaussichten – oder, wenn sie geschulter sind, nach Mustern zu suchen, die in den Eingabewerten versteckt sind und Vermutungen über die zielführenden Zusammenhänge ermöglichen. Ähnliches wird beim maschinellen Lernen gemacht. Man nennt das hier unüberwachtes Lernen und verwendet dazu unterschiedlichste mathematische Verfahren, zum Beispiel die logistische Regression, in der sich diskrete Zahlen mit Gruppen oder Clustern verknüpfen lassen.

Das unüberwachte Lernen kann verbessert werden, indem man dem Lernalgorithmus ein Feedback über das Ergebnis, seine Treffsicherheit oder die Nähe zu den Erwartungswerten gibt. Das nennt man dann verstärkendes Lernen (reinforcement learning). Eine spezielle Form davon ist der sogenannte Nächste-Nachbar-Klassifikator, der beispielsweise einzelne Käufer bestimmten Käufergruppen zuordnen, denen sie in verschiedensten Belangen ähneln. Dadurch wird mit hoher Wahrscheinlichkeit das Verhalten des Einzelnen vorausgesagt. Das ist gängige Praxis bei der Vorhersage bzw. Lenkung des Kaufverhaltens auf den großen Internetplattformen. Wir alle kennen die fortwährenden Angebote, die man bekommt, wenn man dort etwas bestellt hat, nach dem Motto "Kunden, die das gekauft haben, kauften auch ...". 

Menschen, die KI entwickeln und programmieren, müssen sich in dieser Mathematik selbstverständlich bestens auskennen. Wir „Normalos“ müssen das nicht. Es reicht, wenn wir aus diesen Zusammenhängen ein paar wichtige Schlussfolgerungen ableiten:

  • Maschinelles Lernen funktioniert so ähnlich wie menschliches Lernen
  • Das Lernergebnis hängt maßgeblich von den Daten ab, an denen gelernt wird. Dabei geht es um die Datenmenge (je mehr Daten für das Training der KI verwendet werden, desto größer die Treffsicherheit) und um die Datenqualität (verifiziert, stringent).
  • Mit der Auswahl der Trainingsdaten lässt sich das Verhalten der KI manipulieren!!! 

Der letzte Punkt ist für uns als Nutzer von KI (oder Benutzte!) besonders wichtig. Das heißt nichts anderes, als dass KI niemals objektiv ist, sondern abhängig von den benutzten Trainingsdaten auf eine bestimmte Wirklichkeit oder auf Erwartungen konditioniert wird. Dieser Sachverhalt an sich ist nicht schlimm – es geht schließlich gar nicht anders und auch wir Menschen werden durch unsere Vorbilder, Erzieher, Freunde und Kultur in bestimmte Wirklichkeiten, Denk- und Verhaltensweisen gedrängt. Wir müssen uns eben nur darüber im Klaren sein, dass dies bei KI-Lösungen noch viel extremer so ist.

Gleichzeitig bietet dieser Sachverhalt auch den entscheidenden Ansatzpunkt für die Beherrschung von KI. Wir haben es schließlich in der Hand, wofür wir sie konzipieren, wie wir sie trainieren und welche Grenzen wir ihr damit setzen.

Im vergangenen Jahr machte GPT-3 von OpenAI, einer Google-Tochter, Furore. Viele glaubten, jetzt ist eine KI – um eine solche handelt es sich bei GPT-3 nämlich, die an Unmengen von Daten aus dem Internet (Wikipedia stellt mit seinen gesamten Inhalten darin nur 1 Prozent!) trainiert wurde und fortwährend wird – endlich so intelligent wie ein Mensch. Sie kann in allen Sprachen mit uns kommunizieren, alle Fragen beantworten und sogar völlig selbstständig hochqualifizierte Texte erstellen. Inzwischen hat sich das Ganze wieder beruhigt. Viele Tests haben nämlich ergeben, dass die Antworten von GPT-3 lediglich das widerspiegeln, was aus den benutzten Trainingsdaten erwartbar ist. Die KI errechnet nämlich – nach einem sicher sehr sehr speziellen Algorithmus – das wahrscheinlichste Folgewort im Kontext der bisher geführten Unterhaltungen. GPT-3 folgt also Vorurteilen. Das machen zwar auch viele Menschen, aber eben nicht alle und nicht immer. Menschen können auch anders, GPT-3 nicht. Das ist der Unterschied.

Für die Praxis in unseren Unternehmen heißt das nichts anderes, als dass wir erstens immer mit der Beschränktheit der KI-Lösungen rechnen müssen, und zwar genau auf die schmalen Felder, für die sie gemacht sind und aus denen sie ihre Trainingsdaten beziehen. Und zweitens können sie niemals objektiv sein, sondern sie folgen den Vorurteilen, unter denen sie trainiert sind. Wenn wir also mittels einer KI einen Produktionsprozess steuern, wird das nur so lange gut gehen, solange sich an den Prozessbedingungen nichts verändert. Ändert sich etwas, was die KI noch nicht kennt, dann ist sie hilflos wie ein kleines Kind. Das ist nicht schlimm, man muss es nur wissen. Wenn man das verinnerlicht hat, dann kann man Ki einsetzen und steuern. Denn ohne Steuerung wird sie in unserer chaotischen Wirklichkeit versagen. Jedenfalls im Moment noch.

 

Hier ein paar Bücher (Klassiker) zum Thema:

  • Gerald Hüther: Bedienungsanleitung für ein menschliches Gehirn
  • Daniel Kahnemann: Schnelles Denken, langsames Denken
  • Ray Kurzweil: Menschheit 2.0
  • Manuela Lenzen: Künstliche Intelligenz
  • Richard David Precht: Künstliche Intelligenz und der Sinn des Lebens
  • Benedikt Herles: Zukunftsblind
  • Ulrich Lichtenthaler: Integrierte Intelligenz
  • Yuval Noah Harari: Homo Deus
  • Julian Nida-Rümelin: Digitaler Humanismus