Was ist (künstliche) Intelligenz? Ein kurzes Essay.

Egal ob Data Mining, Roboter oder moderne Talentsysteme – in immer mehr Anwendungen oder Anwendungsfällen spielt künstliche Intelligenz eine Rolle. Selbst in der Organisationsentwicklung, natürlich in HR Systemen sowie in Management-informationssystemen. Daher verwundert es kaum, dass man immer wieder gefragt wird, “wie definieren Sie eigentlich Intelligenz bei einem künstlichen System”.

Tja, da kommt man in’s Grübeln, je nach Kontext. Jetzt ist es allerdings so, dass man auch bei Intelligenz beim Menschen oft in’s Grübeln kommt. Soweit ist die Maschine schon mal gleichberechtigt. Das soll hier aber nicht das Thema sein.

Es gibt keine genaue wissenschaftliche Definition – weder beim Menschen, bei Tieren und erst recht nicht bei Computern oder Maschinen. Es gilt also übergeordnete Dinge betrachten, wie “kann sich seiner Umwelt anpassen”,  “kann mit seiner Umgebung interagieren” oder “kann aus seinen Handlungen lernen”.  Ein Selbstbewusstsein wird hingegen nicht vorausgesetzt – das macht man bei Tieren auch nicht, obwohl diese mit Sicherheit Intelligenz besitzen.

Prinzipiell ist es so, dass künstliche Intelligenz versucht menschliche Muster nachzuahmen. Da man heute denkt damit recht weit zu sein, nennt man sie neuerdings “Kognitive Systeme”. “Kognitiv” ist als Begriff der menschlichen Erkenntnis- und Informationsverarbeitung und Voraussetzung für Lernen, Erinnern und Denken. Trotz neuronaler Netze ist man allerdings rein “mechanisch” (eigentlich elektronisch) noch nicht so weit. Während der Mensch in bewussten Handlungen seriell und in unbewussten nahezu beliebig parallel ist, können Maschinen zwar parallel Dinge aufnehmen aber bis heute nur seriell verarbeiten. Wenn auch mit vielen parallelen Diensten. Es bleibt abzuwarten, ob das Quantencomputing dies ändern wird.

Jetzt schauen wir aber erst einmal, wie es um die Intelligenz der Systeme bestellt ist. An dieser Stelle möchte in anmerken, dass einige Passagen direkt von Kris Hammond (siehe unten) übernommen wurden – dessen Arbeit mich auch zu diesem Artikel inspiriert hat.

Heute vor 20 Jahren wurde eine Zeitenwende eingeläutet.

Nun, die Zeitspanne von “20 Jahren” scheint sich bei dem Thema “Künstliche Intelligenz” stets wiederzufinden. Vom 3. bis 11. Mai fand in New York der Aufsehen erregende Wettkampf zwischen dem IBM-Großrechner “Deep Blue” und dem Schach-Weltmeister Garry Kasparov statt. Der intellektuelle Wettkampf Mensch gegen Maschine schien 1997 noch offen, der Verlauf der Partien war spannend. Eigentlich war dies ein Rematch, denn ein Jahr zuvor hatte Kasparov die Maschine in Philadelphia noch recht klar mit 4:2 geschlagen.

Jetzt wird reflexartig behauptet, Schach wäre ja für einen Computer einfach, da es berechenbar ist. Die Wahrheit ist (und war vor allem damals): Schach ist auch für die schnellsten Maschinen zu komplex um alle möglichen Varianten zu berechnen. Bei weitem nicht so komplex wie “Go” und “Deep Blue” hat sich 1997 (!!) auch noch nicht selbst trainiert – aber der “Brute Force”-Ansatz (alle 18,5 Trillionen möglichen Züge vorausberechnen) kann hier trotzdem nicht zum Erfolg führen. Es muss also eine Technik, einen Algorithmus geben, der das richtige Maß an Selektivität bringt. Bei der Berechnung von taktischen Abwicklungen (Insights, Predictive) waren sie auch damals schon sehr gut, nicht aber in der Spielführung bei geschlossenen Stellungen und bei der Entwicklung und beim Erkennen von langfristigen Plänen. Vor allem haben die Programme kein Gespür für Gefahren, wenn diese außerhalb des Rechenhorizonts lagen. Kasparov verlor die Partie trotzdem. Nach dem Spiel wurden zwei Aussagen dazu getroffen:
“Deep Blue, as it stands today, is not a ‘learning system.’ It is therefore not capable of utilizing artificial intelligence to either learn from its opponent or ‘think’ about the current position of the chessboard.”

“Any changes in the way Deep Blue plays chess must be performed by the members of the development team between games. Garry Kasparov can alter the way he plays at any time before, during, and/or after each game.”
Nun, das stimmt(e) soweit – ein Algorithmus oder ein Datenmodell kann sich nicht einfach automatisch anpassen. Es kann “nur” Vergangenheitsdaten auswerten und aus diesen Muster erkennen, Schlüsse ziehen und Entscheidungen aufgrund von Wahrscheinlichkeiten treffen. Da dies sehr schnell, kann es bis zu einem gewissen Punkt strategisch spielen. Aber nicht ganz wie ein Mensch (Aussage 2). Kasparov hat nach einer gewonnen und einer verlorenen Partie die Weiterentwicklung von Deep Blue bemerkt (gespürt) und ein anderes Schach gespielt als sonst, er nannte es “Anti-Computer Schach”. All diese Partien endeten im Remis. Deep Blue konnte ihn mangels Daten nicht besiegen – Kasparov konnte aber auch nicht gewinnen – mangels Erfahrung – er musste zuvor ja noch nie “Anti-Computer Schach spielen”. So ist auch der Mensch bis zu einem gewissen Maße auf Vergangenheitsdaten angewiesen. Nur durch spüren und ahnen, also durch Unschärfen zu denen Computer nicht in der Lage sind, kann der Mensch sich schneller adaptieren. Sicherlich ein Merkmal und eine Auszeichnung der menschlichen Intelligenz.
Hier hätte sich allerdings nach hunderten von Partien gezeigt, wer schneller lernen kann – dann wären sowohl Daten als auch Erfahrung gestiegen. Lernen kann ein Computeralgorithmus also schon, sich selbst anpassen ist schwieriger (würden sich z.B. die Regeln des Spiels ändern) und damals war es noch nicht möglich. Im letzten Spiel hat sich aber auch gezeigt, was die menschliche Schwäche ist – Kasparow hat ein ungewöhnliche und gefährliche Eröffnung gemacht. Bei Menschen ein psychologischer Trick, die bei jemanden wie Kasparow etwas kluges und taktisches vermuten und dann defensiv spielen. Nicht so ein intelligentes System, dem diese Psychologie ja fehlt. Deep Blue gewann die Partie.

2011 dann das schwerste Spiel aller Zeiten – das Spiel mit der menschlichen Sprache. Hier gibt es nicht nur unendliche viele Möglichkeiten – man muss auch Kontext, Poesie, Reime und Wortspiele verstehen. Für die meisten Menschen bereits eine sehr schwierige Aufgabe.
IBM’s Watson bestand zum Zeitpunkt des „Jeopardy“ Spiels aus einem drei Millionen Dollar teuren Supercomputer, der auf einer fast fünf Terabyte großen Wissensdatenbank aufsetzte (online Dienste duften nicht benutzt werden). Watson errechnete für jede Frage Antworten mit unterschiedlicher Wahrscheinlichkeit und entschied sich für die Antwort mit der höchsten Wahrscheinlichkeit. Watson gewann das Spiel. Erneut wurde dieser Sieg als simple Heuristik und nicht als Anzeichen von Intelligenz bewertet. Das führt uns zu der Frage – was ist ein intelligentes System?

In Lebewesen entsteht intelligentes Verhalten durch die Verbindung von Reizen in der Großhirnrinde. Genau betrachtet sind es Muster, die erkannt und verarbeitet werden können. „Durch eine Glasscheibe kann man nicht fliegen“ wäre z.B. ein Muster, das ein Mensch mehrfach zu interpretieren weiß, das ein Vogel aus Erfahrung lernen kann, einer Fliege aber vollständig verwehrt bleibt. Im Bezug auf das Schachspiel wurde Kaparov nach seiner Niederlage, wieviel Schachzüge er sich pro Sekunde überlegen könne. Die Antwort war: weniger als einen. Wie also hatte er eine Chance gegen einen Gegenspieler, der mehrere hundert Millionen Züge pro Sekunde berechnen konnte? Die große Fähigkeit des menschlichen Gehirns besteht darin, dass er eine riesige Menge an Muster extrem schnell parallel verarbeiten kann. Um Autofahren zu können, muss der Mensch eine Vielzahl von Mustern erkennen („Ist das ein Auto?“), bewerten („Fährt es auf meiner Spur?“) und darauf agieren („Muss ich bremsen?“) können. Dies geschieht nicht zwingend bewusst und es sind oft Ahnungen, eben ein Gespür. Im Falle von Kasparov wird geschätzt, dass er über hunderttausend Positionen (bzw. Muster) gleichzeitig auswerten konnte, um den besten Zug zu bestimmen. Ohne dazu aktiv nachzudenken.
Der Mensch verwendet ständig Muster – so können wir eine oft gesehene Person von vielen Seiten her erkennen, in verschiedener Kleidung und Lichtverhältnissen. Die im Internet beliebten „Captchas“, also die verzerrt dargestellten Buchstaben, beruhen auf der Eigenschaft, dass wir so viele Muster von Buchstaben besitzen, dass auch eine leichte Abwandlung einfach erkannt wird.

Einen Computer stellt so etwas vor eine nahezu unlösbare Aufgabe. Zumindest bis man ihn spezifisch auf diese Aufgabe trainiert hätte. Ein weiteres gutes Beispiel sind Schreibfehler oder vertauschte Buchstaben. Für das menschliche Gehirn – durch Mustererkennung – keine wirkliche kognitive Herausforderung. Wenn man zwei Seiten gelesen hätte, würde es anschließend kaum weiter stören:
Gmäeß eneir Sutide eneir elgnihcesn Uvinisterät ist es nchit witihcg, in wlecehr Rneflogheie die Bstachuebn in eneim Wrot snid, das ezniige was wcthiig ist, ist, dass der estre und der leztte Bstabchue an der ritihcegn Pstoiion snid. Der Rset knan ein ttoaelr Bsinöldn sien, tedztorm knan man ihn onhe Pemoblre lseen. Das ist so, wiel wir nciht jeedn Bstachuebn enzelin leesn, snderon das Wrot als gseatems.
Ein intelligentes System würde an der Aufgabe scheitern. Bis man es auf die Aufgabe trainiert hätte – also z.B. zuerst Sprache ermitteln, die Möglichkeiten gegen ein Wörterbuch vergleichen, alle Ergebnisse auflisten und gegen den Kontext des Satzes vergleichen. Input – Verarbeitung – Feedback – Output. In etwa wie ein System das Verschlüsselungen knacken soll. Oder wie ein Mensch.

Wir glauben also gerne an die Einzigartigkeit menschlicher Intelligenz. Beim Versuch, den Übergang zu intelligentem Verhalten zu erkennen, müssen wir uns mit dem Unterschied zwischen angelesenem Wissen und praktischer Erfahrung beschäftigen, dem Widerstreit zwischen emotionaler und kognitiver Intelligenz und dem Unterschied zwischen Lernen durch Bilder, durch Sprache oder durch Nachahmen. Wir verstehen uns als Geschöpfe, die logisch denken. Doch die gesamte Verhaltensökonomie und ein Gutteil der Kognitionspsychologie argumentiert, dass wir überleben, indem wir wage miteinander in Beziehung stehende Daumenregeln verwenden. Also Heuristiken, Regeln, Abläufe – also Muster. Aber vor allem keine Ahnung von Statistik haben. Somit müssen wir Maschinen in diesen bereichen sehr wohl zugestehen, dass sie intelligent sind.
Aber was ist mit Emotionen und Kreativität? Spätestens da muss es doch zu Ende sein bei dem Maschinen. Oder nicht? Hier möchte ich gerne auf einen TED Talk von Damian Borth verweisen, bereits aus dem Jahr 2015 und heute riesige Schritte weiter.

Können Computer Emotionen? Können Sie sogar träumen?

Senitmentanalyse gehört schon zu den entablierten Aufgaben von Maschinen und diese helfen heute bereits Eingangsschreiben nach Dringlichkeit und Unmut zu sortieren oder gar Bewerber zu analysieren nach ihren Fähigkeiten – auch nach Teamfähigkeit oder emtionaler Intelligenz oder Kompetenz. Eine Maschine beurteilt Menschen in ihrem eigenen Gebiet? Ich will gar nicht darauf eingehen ob das gut oder sinnvoll ist, nur ob es möglich ist.

Wenn uns Intelligenz also besonders auszeichnet, dann ist es auch nicht überraschend, dass wir emotional reagieren wenn wir hier über Maschinen sprechen. Es fällt uns schwer, unbelastet über eine Technologie zu räsonieren, von der wir annehmen müssen, dass sie uns übertreffen wird, unsere Arbeitsplätze raubt und uns schließlich von der Erdoberfläche auslöscht. Es hilft alles nichts: Wir müssen die Natur von Maschinenintelligenz studieren, um zu verstehen, wie sie funktioniert, und ob wir ihr trauen können. Dann können wir erahnen, welche Rolle sie in unserer Welt spielen sollte. Im Besonders hilft uns die Herangehensweise die einzelnen Komponenten solcher Systeme genau untersuchen.

An dieser Stelle möchte ich auf die eingangs erwähnte Arbeit von Kris Hammond, dem “Periodic Table of AI” zu sprechen kommen. Hier werden die einzelnen Fähigkeiten mit den menschlichen verglichen und man kann hier bewerten, welche Fähigkeiten man für eine Aufgabe benötigt. So kann man dan tiefer einsteigen und Reife, Modelle sowie Anwendungsfälle genauer betrachten sowie die Einschränkungen besser verstehen.


Am Ende sei gesagt – auch wenn der Begriff “Künstliche Intelligenz” seit den 50er Jahren existiert, sich die Forschung seit den 60ern dem Thema stark widmet, viele Algorithmen bereits aus den 70ern stammen und alle 20 Jahre gesagt wird “Jetzt sind wir soweit” – das Thema “Kognitive Systeme” ist trotz Allem noch in den Kinderschuhen. Es führt kein Weg daran vorbei die Problemstellungen genau betrachten und ermitteln, ob man Daten und Ressourcen genug hat, um diese mit Maschinenlernen lösen zu können. Am Ende muss der Gewinn daraus ja höher sein als die Kosten. Fest steht allerdings auch: das Potenzial ist sehr sehr hoch, wenn man das Thema (die Technologie) richtig angeht und gezielt einsetzt.