«Eine Künstliche Intelligenz ist nicht intelligent» (Teil 1)

Wie lernen Maschinen?

 

Ein Gespräch mit Prof. Dr. Thilo Stadelmann von der ZHAW School of Engineering


Teil 2: Wie lernen Menschen?

«Unser Gehirn tut, was es will» - ein Gespräch mit Prof. Dr. Dr. Werner Wiater

«Eine Künstliche Intelligenz ist nicht intelligent» (Teil 1)

Wie lernen Maschinen?

 

Ein Gespräch mit Prof. Dr. Thilo Stadelmann von der ZHAW School of Engineering


Teil 2: Wie lernen Menschen?

«Unser Gehirn tut, was es will» - ein Gespräch mit Prof. Dr. Dr. Werner Wiater

Scroll down

Mit Hilfe Künstlicher Intelligenz lassen sich repetitive Arbeiten automatisieren. Doch welche Voraussetzungen müssen eigentlich erfüllt sein, damit eine Maschine lernen kann? Im Gespräch mit Prof. Dr. Thilo Stadelmann von der ZHAW School of Engineering.


Autor: Markus Back


Wie muss man sich den Aufbau einer Maschine vorstellen, die selbstständig lernen kann?

Zunächst einmal muss eine solche Maschine zwei Voraussetzungen erfüllen. Sie muss erstens Rechenoperationen durchführen und sich zweitens mit ganz vielen Daten füttern lassen können. Das ist bei einem Computer gegeben. Um nun tatsächlich zu lernen, werden ihm sehr viele Beispiele, das können je nach Komplexität mehrere hunderttausend sein, von zusammengehörenden Pärchen gezeigt: Eingaben und dazugehörige Ausgaben.

Mit Hilfe eines Lernalgorithmus ermöglicht dies dem Computer, von den gesehenen Beispielen zu abstrahieren und generell Zusammenhänge zwischen solchem Input und Output zu erstellen. Geht es beispielsweise um das Erkennen von Personen anhand von Portraits, weiss er irgendwann einmal, dass der Stadelmann immer gleich aussieht. Er hat kurze Haare und helle Haut. Sieht er nun jemanden, der beispielsweise lange Haare und dunkle Haut hat, erkennt der Computer anhand der erlernten Prinzipien, dass es sich um eine andere Person handeln muss.


News zu ZHAW und KI (Meldung vom 31.03.2021)

ZHAW GRÜNDET ZENTRUM FÜR KÜNSTLICHE INTELLIGENZ 


Hätte man das, was Sie da beschreiben, schon vor 20 Jahren tun können oder waren damals die Computer noch zu leistungsschwach?

Im Prinzip ja! Sehr viel von dem, was wir heute nutzen und machen, basiert auf lange bestehenden Theorien. Ende der 80-er Jahre war 90 Prozent von dem, was wir heute verwenden, bereits bekannt. Das gilt auch für das Prinzip der Input/Output-Pärchen. Damit das aber richtig gut funktioniert, bedarf es zweier Dinge. Sehr viele Datenpärchen, die Input und Output beschreiben, und die Rechenpower moderner Grafikkarten, wie sie Zocker verwenden. Diese spezialisierten Prozessoren können nämlich eine Sache besonders gut - Matrizen multiplizieren. Und das ist unabdingbar für maschinelles Lernen.

Porträt Prof. Dr. Thilo Stadelmann

Prof. Dr. Thilo Stadelmann bekleidet an der ZHAW eine Doppelfunktion. Einerseits hält er eine Professur an der School of Engineering, wo er am Institut für Angewandte Informationstechnologie im Bereich KI und maschinelles Lernen forscht und unterrichtet. In seiner anderen Funktion engagiert er sich als wissenschaftlicher Leiter von ZHAW digital in der kantonalen Digitalisierungsoffensive «DIZH», an der sich die ZHAW beteiligt. Vor seiner Lehrtätigkeit war er von 2010 bis 2013 in der Automobil-Industrie tätig, zuvor doktorierte er nach erfolgreichem Informatik-Studium an der Universität Marburg in Deutschland im Bereich «Multimedia-Analyse».

Ab wann wird ein System intelligent?

Wann wird nun aber das System intelligent? Wenn sich ein Kleinkind das erste Mal die Finger an einer Herdplatte verbrannt hat, ist die Verknüpfung «heiss tut weh» vorhanden.

Das ist ein heikler Vergleich, der ein Stück weit hilft zu verstehen, was da eigentlich passiert. Ab einer gewissen Schwelle kippt er aber und hinkt hinterher, weil es schon sehr schwer ist, im Biologischen zu definieren, was eigentlich Intelligenz ist. Generell gibt es bei der Künstlichen Intelligenz lediglich eine gewisse Analogie zur Biologie und was bei uns Menschen passiert. Es ist aber nicht einmal ansatzweise ähnlich, auch wenn es auf der Oberfläche ähnliche Ergebnisse liefert. Aber der Weg zu diesen Ergebnissen ist vollkommen anders beim Einsatz von Künstlicher Intelligenz.

Wie eine Künstliche Intelligenz lernt, dass eine Herdplatte heiss ist

Gut, anders gefragt, wie lernt eine KI, dass eine Herdplatte heiss ist?

Das maschinelle Lernen, wie es im Moment funktioniert, braucht unglaublich viele Beispiele, um einen einfachen Zusammenhang herzustellen. Um beim Beispiel mit der heissen Herdplatte zu bleiben, müsste die Maschine rund einhunderttausend Mal auf die Herdplatte fassen, um langsam sicher zu werden, dass das nicht gut ist. Wir sprechen hier von Beispielseffizienz: typisches maschinelles Lernen ist sehr beispielineffizient, was heisst, dass die Maschine sehr oft sehr ähnliches sehen muss, um ein wenig daraus zu lernen.

Bei einem Menschen ist das anders. Wenn er sich die Finger verbrannt hat, merkt es sich das und abstrahiert aus dieser Erfahrung sehr schnell auf andere Bereiche. Das ist ein ganz grosses Charakteristikum biologischen Lernens, dass das Lebewesen aus ganz wenigen Beispielen sehr viel lernen kann.

KI ist nicht intelligent - höchstens eine «komplexe Computeranwendung»

Wenn ich einhunderttausend Mal auf die Herdplatte fasse und mir dann immer noch nicht sicher bin, ob diese heiss ist, hat das für mich wenig mit Intelligenz zu tun!

Einer der KI-Pioniere gestand einmal unter Kollegen, dass der Begriff «Artifical Intelligence» gut klang, um an Forschungsgelder zu gelangen. Fakt ist aber, dass eine KI nicht intelligent und auch nicht auf den Weg dahin ist, irgendwann einmal intelligent zu sein. Daher wäre der Begriff «Komplexe Computeranwendungen» wohl der passendere gewesen.

Letztlich geht es nämlich darum, Probleme mit dem Computer zu lösen, für die wir Menschen bis jetzt die einzige Lösungsoption waren und wofür wir unsere Intelligenz genutzt haben. Nun lösen wir solche Probleme mit dem Computer, allerdings mit Verfahren, die nicht zwingend intelligent sind. Zumindest ist mir bis jetzt keines untergekommen, dass wirklich intelligent ist.

Wir können als Ingenieure heute zwar Systeme bauen, mit denen sich fast jedes Problem lösen lässt, aber diese Systeme werden nie von alleine darauf kommen, etwas anderes plötzlich gut zu können. Mit ihnen lassen sich vielleicht ähnlich gelagerte Problem sinnvoll lösen, aber auch dafür braucht es wieder Entwicklungsarbeit.

«Deep Blue hatte mit Intelligenz nichts zu tun»

Demnach ist auch Deep Blue von IBM nicht intelligent, der 1996 den amtierenden Schachweltmeister Garri Kasparow schlug. Was war dessen Geheimnis?

Das ist ein wunderbares Beispiel! Der Schachcomputer schlug den Menschen, aber das hatte mit Intelligenz überhaupt nichts zu tun. Schach ist eine grosse intellektuelle Herausforderung für den Menschen, weil es Fähigkeiten braucht, in denen Menschen eigentlich schlecht sind. Es ist ein komplett deterministisches Spiel ohne Zufall, es ist hochgradig strategisch, die Regeln sind total simpel und die Komplexität ergibt sich über die Vielzahl an Möglichkeiten.

Die Spielstärke sehr guter Schachspieler besteht darin, die Folgen ihrer Züge präzise voraussehen zu können und daher zu wissen, welchen Effekt ein Zug zehn Züge später haben wird. Während wir Menschen uns mit diesem Vorausdenken sehr schwer tun, hat ein Computer überhaupt kein Problem damit. Wenn wir ihm nur ausreichend Speicherplatz zur Verfügung stellen, kann er sich beliebig viele Züge merken. Dann ist es nur noch eine Frage, wie schnell er alle diese Möglichkeiten durchsimulieren kann, um am Ende sicher sein, welcher Zug der Beste sein wird. Und das war genau das Geheimnis von IBM. Sie haben Suchalgorithmen eingesetzt, die unglaublich viele Möglichkeiten durchsimulierten, um präzise sagen zu können, was der beste nächste Zug ist. Das war aber nicht Intelligenz in unserem Sinne, sondern ein hocheffizienter Suchalgorithmus, der alle Möglichkeiten durchgespielt hat.

Artifical Intelligence und die neuronalen Netze

Im Zusammenhang mit Künstlicher Intelligenz werden mitunter auch neuronale Netze genannt. Was genau hat es mit diesen auf sich?

Das Ergebnis von maschinellem Lernen ist eine Funktion, also etwas, das einen Input entgegennimmt und einen Output generiert. Ein neuronales Netz ist nun eine Möglichkeit, wie man solche Funktionen darstellen beziehungsweise abbilden kann. Man nennt es deshalb neuronales Netz, weil die grundlegende Idee dahinter durch biologische Nervenzellen, wie sie in einem Gehirn vorliegen, inspiriert ist. Es ist aber kein Gehirn in einem Computer und es ist auch keine Simulation eines Gehirns. Man bewegt sich hier auf ganz abstrakter Ebene und auf ganz hoher Flughöhe und hat sich davon inspirieren lassen, wie Netzwerke von Nervenzellen funktionieren.

Was neuronale Netze sind

Die Neuronen, also die Nervenzellen, erhalten von den Dendriten − welches wiederum die Enden anderer Nervenzellen sind, die andocken − ganz viele Inputs. Über diese Inputs kommt ein elektrisches Potenzial hinein, ein Wert der grösser oder kleiner sein kann. Die Nervenzellen summieren diese Stromstärken über ihre einzelnen Inputs auf und schauen in Summe über alle Eingänge, wie viel ankommt und vergleichen das mit einem internen Schwellwert. Wenn das, was reinkommt grösser als der interne Grenzwert ist, schicken sie selbst an alle ihre Ausgänge ein Signal hinaus.

Wenn nun ein Neugeborenes etwas Neues kennenlernt, beispielsweise das Gesicht seiner Mutter, merkt es irgendwann, dass wenn die Inputs so anliegen wie das aussieht, «wenn die Mutter ins Körbchen schaut», dann auch alles gut wird und die Neuronen feuern und sagen, jetzt bekomme ich etwas zu essen. Das heisst, die Schwellwerte werden angepasst.

Auf dieser Idee basieren auch künstliche, neuronalen Netze. Im Prinzip sind es grosse Netzwerke aus einfachen Einheiten, bei denen jede Einheit viele Inputs bekommt und diese mit einem internen Schwellwert vergleicht. Wenn man das nun auf das maschinelle Lernen überträgt, werden am Eingang beispielsweise die Pixel vom Bild einer Katze angelegt und am Ende soll, wenn am Eingang eine Katze zu sehen ist, eine 1 stehen, die einzelnen «Neuronen» also entsprechend feuern.

Was sind die Grenzen der Künstlichen Intelligenz?

Ganz viele Dinge, die auf Deep Learning, also modernen neuronalen Netzen basieren, sind vom Ergebnis her besser als das, was Menschen in diesem Bereich leisten können. Gleichzeitig macht die KI immer wieder einmal dumme Fehler. Das zeigte sich beispielsweise bei den ersten Unfällen mit autonom fahrenden Fahrzeugen. Ein Tesla war auf der Strasse unterwegs und hat bei einem Lastwagen statt zu bremsen Gas gegeben. Nach der Analyse zeigte sich, dass die KI im Training nicht oft genug Lastwagen mit Auflieger gesehen und diesen daher nicht als solchen wahrgenommen hat. Stattdessen stufte sie diesen als das nächst Beste, was sie vom Training kannte, ein – und das war eine weisse Plastiktüte, die gerade über die Strasse wehte.

KI-Systeme werden noch auf absehbare Zeit dumme Fehler machen und es werden Fehler sein, die im Bereich des gesunden Menschenverstands liegen. Diese Dinge sind einer Maschine einfach unheimlich schwer beizubringen, da man von der aktuellen Situation ganz, ganz weit abstrahieren muss. Irgendwann erledigt sie diese Aufgabe dann besser als ein Mensch, sobald man sie aber für etwas anderes einsetzt, macht sie wieder dumme Fehler.

Wo sich der Einsatz von Künstlicher Intelligenz lohnt

Höre ich da raus, dass sich der KI-Einsatz durch den enormen Trainingsaufwand nicht für alle Bereiche lohnt?

Repetitive Aufgaben lassen sich in allen Bereichen wunderbar mit KI automatisieren. Aber es stimmt, nicht alle Aufgaben sind in dem Sinne repetitiv, dass sich eine KI-Lösung anbietet, Stichwort Beispielseffizienz. Nehmen Sie das Beispiel eines Roboters, der das Geschirr aus der Spülmaschine versorgt. Jedem würde das helfen, dennoch wird es diesen so schnell nicht geben, weil er durch die vielen Variablen, wie zum Beispiel der Aufbau der Spülmaschine, die Form des Geschirrs oder der Platz, an dem das Geschirr versorgt wird, unheimlich aufwendig zu trainieren ist. Und was darf dann so ein Roboter kosten? Sicher keine 50000 Franken, selbst 500 Franken sind noch zu teuer. Für diesen Preis ist es aber heute unmöglich, eine Maschine mit dieser Technologie zu bauen.

KI-Serie: Wie lernen Maschinen, wie lernen Menschen?

Teil 1 - Wie lernen Maschinen? [Link]

«Eine KI ist nicht intelligent»

Ein Gespräch mit Prof. Dr. Thilo Stadelmann von der ZHAW

Teil 2 - Wie lernen Menschen? [Link]

«Unser Gehirn tut, was es will»

Ein Gespräch mit Prof. Dr. Dr. Werner Wiater, Universität Augsburg

Impressum

Autor: Markus Back, Chefredaktor Print

Bildquelle: Pixabay (Symbolbild) / zVg (Thilo Stadelmann)

Eine Publikation von Technik und Wissen

Informationen

Veröffentlicht am: