Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Woran künstliche Intelligenz noch scheitert

Bevor eine «echte» Künstliche Intelligenz entsteht, muss die Technologie noch einige Hürden meistern.

Spätestens seit dem 15. März 2016 ist der Mensch entthront. Konnten wir uns Jahrtausende lang sicher sein, die cleverste Spezies auf dem Planeten zu sein, wissen wir nun, dass uns Computer mit künstlicher Intelligenz überlegen sind. Zumindest wenn es darum geht, Spiele zu gewinnen.

Vor gut vier Jahren triumphierte Googles AlphaGo-Programm gegen einen der damals besten Spieler im chinesischen Brettspiel Go. Vernichtend wurde Lee Sedol von der Maschine geschlagen, obwohl gerade Go aufgrund seiner Komplexität als zu anspruchsvoll für Maschinen galt. Weit gefehlt, folgerichtig zog sich Lee Sedol vor einem halben Jahr vom aktiven Go-Spiel zurück. «Es gibt da einen Gegner, der einfach nicht besiegt werden kann», so der ehemalige Champion – und meint damit die übermenschliche Spielstärke künstlicher Intelligenz.

Mittlerweile haben Menschen in nahezu allen Spielen das Nachsehen gegen selbstlernende Computersysteme: Poker, Schach, Starcraft… allesamt kein Problem für künstliche Intelligenz. Wie es wohl weitergeht? Übernehmen Maschinen bald unser Denken und anschliessend unsere Arbeitsplätze? Droht eine Weltherrschaft künstlicher Intelligenz? Und brauchen wir überhaupt noch unser Gehirn, wenn sowieso in Zukunft alles von Computern erledigt wird? Noch ist es nicht soweit, denn künstliche Intelligenz hat noch einige prinzipielle Probleme, die zu lösen sind. Sonst bleiben Computer dumme Blechkisten – nur ein bisschen schneller dumm als vor dreissig Jahren.

1. Künstliche Intelligenz muss mit wenigen Daten klarkommen

Wie lange hat es gedauert, bis Sie verstanden hatten, was das Wort «Selfie» bedeutet? Mussten Sie es dutzendfach wiederholen oder hatten Sie die Bedeutung schon beim ersten oder zweiten Mal erkannt? Oder beim «Brexit»: Sie sehen das Wort ein- oder zweimal in den Nachrichten, schon haben Sie kapiert, was damit gemeint ist. Sie haben das Wort nicht bloss gelernt, Sie haben es verstanden, das ist etwas anderes. Denn wenn Sie etwas verstanden haben, können Sie neue Sachen damit machen. Wenn Sie wissen, was ein «Brexit» ist, was könnte dann ein «Breturn» sein?

Selbstlernende Maschinen brauchen derzeit noch viel zu viele Daten, um daraus ein Muster zu extrahieren. Wenn ein Bilderkennungsprogramm erfassen soll, wie ein Pinguin aussieht, füttert man es mit Millionen Bildern von Pinguinen, auf dass es das pinguintypische Muster ausfindig macht. So viel Zeit haben Menschen gar nicht – und auch nicht so viele Daten. Die allermeisten Probleme unseres Lebens sind eben nicht «Big Data», sondern «Small Data»: Wenn Sie heiraten wollen, können Sie beispielsweise keinen «Big Data»-Ansatz wählen und erstmal hunderttausende potenzieller Partnerinnen oder Partner «testen». Sie müssen mit einer geringen Auswahl klarkommen – und trotzdem treffen Sie eine Entscheidung fürs Leben, wenn Sie das Ja-Wort geben.

Künstliche Intelligenz wird deswegen niemals heiraten – es sei denn, Maschinen lernen, auch mit weniger Datensätzen klarzukommen. Heute scheitern viele Algorithmen noch daran. Andererseits spielen selbstlernende Maschinen immer dann ihre Stärke aus, wenn die Datensätze gross sind. In Deutschland soll beispielsweise der gesamte Zugverkehr auf einen Taktfahrplan umgestellt werden, wie ihn die Schweiz schon hat. Einen optimalen Zugfahrplan zu entwickeln ist ein klassisches Maschine-Learning-Problem. Genau dafür muss man solche Software einsetzen.

So ähnlich wie man sich derzeit auch auf die Suche nach potenziellen Heilmitteln gegen Covid-19 macht: Computer modellieren und optimieren mögliche Substanzen, die das Coronavirus unschädlich machen. Eine Herkulesaufgabe, an der jeder Mensch scheitern würde. Der Computer liefert nun Antworten, die vor ein paar Jahren noch ausser Reichweite schienen. Doch die wichtigen Fragen stellt immer noch der Mensch.

2. Künstliche Intelligenz muss energiesparender werden

Ich habe heute Morgen zwei Rühreier und eine Schüssel Müsli gegessen. Mittlerweile sind fünf Stunden vergangen – und mein Gehirn funktioniert immer noch, denn in der ganzen Zeit hat es bloss 0,1 Kilowattstunden Energie benötigt. Das ist ein richtig energiesparendes System. Zum Vergleich: Mit der gleichen Energiemenge hätte man ein aktuelles – und nicht besonders gutes – KI-Sprachprogramm von Google ganze 0,3 Sekunden trainieren können. Will man ein selbstlernendes System also mit vielen Daten trainieren, steigt die Stromrechnung schnell in die Zehntausende.

Um dieses Problem zu beheben, könnte man sich vom Gehirn inspirieren lassen. Anstatt nämlich gigantische Datenmengen zu analysieren, bauen wir in unserem Denken immer wieder Vorhersagemodelle und schauen dann, ob unsere Vorhersage passt. Statt sich also 5 Millionen Bilder von Pinguinen anzuschauen, entwickeln wir das Konzept eines Pinguins, einen Prototypen, den wir mit «echten» Pinguinen abgleichen. Offenbar sparen wir uns mit diesem Denken eine Menge Arbeit. Schliesslich können zweijährige Kinder pro Tag problemlos bis zu zehn neue Wörter lernen. Sowas schafft man nicht mit Wiederholen und Auswendiglernen.

Nebenbei: Wenn ein KI-System einmal trainiert ist, spielt es seine ganze Stärke aus. Schon jetzt optimieren IT-Konzerne mithilfe von künstlicher Intelligenz ihre Energieauslastung und senken dabei den Stromverbrauch. Auf dem Weg zu einer effizienten Ressourcennutzung (ob im Verkehr, bei Warenströmen oder in der Energiewirtschaft) wird kein Weg an selbstlernenden Computersystemen vorbeiführen.

3. Künstliche Intelligenz versteht nicht, was sie tut

Menschen können Ursache und Wirkung unterscheiden. Maschinen können das nicht. Selbstlernende Computer finden stattdessen Gemeinsamkeiten und Korrelationen – und nutzen diese, um Daten zu optimieren. Das kann leicht in die Irre führen. So korreliert beispielsweise der Anstieg der globalen Temperatur erstaunlich einträchtig mit der abnehmenden Zahl aktiver Piraten. Doch wir Menschen erkennen, dass es wenig Sinn hat, Piraten auf die Weltmeere zu schicken, um den Klimawandel zu bekämpfen.

Menschliche Gehirne sind erstaunlich gut in der Lage, Wirkursachen (das «Warum») einer Sache zu erkennen. Dafür bietet es aber auch ein ganzes Arsenal an Hirnregionen auf: Areale, die unser Selbstbewusstsein steuern, räumliches Vorstellungsvermögen ermöglichen, unser Gedächtnis organisieren und uns Hypothesen oder Ideen aufstellen lassen. Wenn Maschinen ebenfalls verstehen sollen, was der Unterschied zwischen echter Ursache und blosser Korrelation ist, müssten sie vermutlich ebenfalls ein Bewusstsein entwickeln, um sich in andere Situationen hineinzuversetzen. Eine wirklich harte Nuss. Die Ansätze dafür übersteigen alles, was klassische Computertechnik momentan leisten kann.

Zu erklären, was dafür genau nötig ist, übersteigt übrigens auch das, was die Biologie und Neurowissenschaft derzeit zu leisten imstande ist. Nötig ist die Kooperation von Biologie, Informatik, Mathematik und Psychologie – ein Mammutprojekt. Jedoch ist der Wettlauf zu einer solchen wirklich guten künstlichen Intelligenz noch lange nicht entschieden, auch wenn man immer wieder von den gewaltigen Vorsprüngen aus China oder Kalifornien hört.

Im Gegenteil: Derzeit gibt es künstliche Intelligenz noch gar nicht, bloss grosse Marketingversprechen von IT-Konzernen. Wer jedoch versteht, wie man sich die Tricks des Gehirns zu cleverem Denken abschauen kann, kann wirklich gute KI-Produkte bauen, die allem voraus sind, was wir derzeit kennen.

4. Künstliche Intelligenz ist oft überangepasst

Ich habe früher sehr gerne Schach gespielt. Ich habe den Gedanken geliebt, dass man durch blosses Nachdenken einen anderen Menschen auf dem Brett mattsetzen kann. Mittlerweile ist Schach jedoch eine ziemlich langweilige Angelegenheit: Fast auf den Tag exakt vor driundzwanzig Jahren wurde die menschliche Vormachtstellung gebrochen, als der damalige Schachweltmeister Garry Kasparov von einem Schachprogramm, nämlich Deep Blue von IBM, geschlagen wurde. Seitdem hat nie wieder ein Mensch gegen das beste Schachprogramm der Welt gewonnen.

Selbst menschliche Schachpartien sind mittlerweile zu Abwehrschlachten fehlerfrei rechnender Superhirne verkommen: Die Remisquote liegt im professionellen Schach bei über sechzig Prozent. Der Grund ist einfach: Es verliert, wer einen Fehler macht. Wenn man das Spiel also millionenfach spielt (und Maschinen können das), macht man irgendwann keine Fehler mehr. So passt man sich extrem gut an ein Regelwerk an. Das ist prima, wenn die Regeln gleichbleiben. Doch leider ist man dann nur so leistungsfähig wie ein monokultiviertes Maisfeld: super gut, wenn alles gleichbleibt. Zerstört, wenn sich eine Kleinigkeit ändert.

Ändert man zum Beispiel die Schachregeln, indem man die Startaufstellung der Figuren durcheinanderbringt, zählen die zuvor trainierten Schachpartien nichts mehr. Nun kommt es darauf an, sich in einem neuen Umfeld schnell zurecht zu finden. Menschen können das erstaunlich gut. Schon nach wenigen Partien können Menschen mit komplett anderen Schachregeln sehr gute Spielergebnisse erzielen, während man eine KI wieder aufwendig trainieren muss.

Wir brauchen also ein Bewusstsein dafür, wann wir KI einsetzen können und wann nicht. Immer dann, wenn die Rahmenbedingungen klar sind, müssen wir selbstlernende Computersysteme einsetzen, um unsere Abläufe zu optimieren. Doch wenn sich die Rahmenbedingungen ändern, müssen wir als Menschen schnell genug in der Lage sein, uns (und die KI) zu ändern. Ansonsten verlassen wir uns im falschen Moment auf eine eigentlich richtige Technologie.

Genau aus diesem Grund fehlte auf dem Höhepunkt der Coronapanik im Frühjahr das Klopapier: Weil mittlerweile alle Lieferketten durch selbstlernende Systeme optimiert sind, erkannten genau diese Algorithmen nicht, dass sich etwas Grundlegendes im Kaufverhalten ändern wird. Man hätte sich auch (als Mensch) vorher überlegen können, dass man sich in einer Pandemiepanik mit Klopapier und Seife eindeckt. Dann hätte man das vorsorglich ordern und viel Geld machen können. So war man plötzlich abhängig von einer KI-Technologie, die nur in die Daten von gestern geschaut hat.

5. Zuviel Hype um künstliche Intelligenz

Neulich schlenderte ich durch einen Supermarkt und entdeckte: eine Zahnbürste mit künstlicher Intelligenz. Wer bisher zu wenig Grips hatte, um sich die Zähne zu putzen, hat hier nun die Möglichkeit, für ein paar Hundert Franken seine Zähne zu säubern.

Bitte fallen Sie nicht auf jedes Versprechen von Firmen rein, die Ihre Produkte mit künstlicher Intelligenz anpreisen. So untergräbt man den Nutzen einer wichtigen und notwendigen Zukunftstechnologie. Nicht alles werden wir in der Welt von morgen durch Computer ersetzen können. Einiges schon: Die grössten Datenberge sind noch gar nicht geborgen – nämlich die ganzen Daten, die in Maschinen, Anlagen oder Fabriken erhoben werden.

Momentan verdienen die grössten IT-Firmen ihr Geld damit, dass sie das nächstbeste Katzenvideo vorschlagen oder die Werbung auf uns massschneidern können. Überlegen Sie sich, was möglich ist, wenn Sie aus den weltweit grössten Datenmengen Werte schöpfen könnten: Daten, die nicht von Menschen, sondern in Maschinen selbst erzeugt werden.

Fallen Sie bis dahin nicht auf die überzogenen Marketingversprechen von Zahnbürsten-KI herein – und sehen Sie die Welt positiver als sie von Hollywood gezeichnet wird. Bis die todbringende Terminator-Maschine die Weltherrschaft an sich reisst, wird es noch einige Zeit dauern. Derweil gilt: Menschliche Gehirne bleiben das Mass aller Dinge. Nutzen Sie Ihres, dann brauchen Sie sich vor keiner KI zu fürchten!