Forschungsfeld KI – künstliche Intelligenz, Maschinelles Lernen, Deep Learning und KNN verständlich erklärt
Timeline, Methodische Etappen der KI, graphic made by d25.io, vgl. Wittpahl (2019) in Anlehnung an Copeland (2016)

Forschungsfeld KI – künstliche Intelligenz, Maschinelles Lernen, Deep Learning und KNN verständlich erklärt

Lesezeit: 15 Min

Die meisten werden wohl in den letzten 3 bis 5 Jahren zum ersten Mal von künstlicher Intelligenz gelesen haben. Tatsächlich ist die KI aber kein neues Phänomen, sondern ein Forschungsgebiet, das auf eine mindestens 50-70 Jahre alte Geschichte zurückblickt. Dabei lassen sich mehrere Entwicklungsstufen erkennen. Man darf sich diese Etappen allerdings nicht vorstellen wie einfache Innovationen, die einander ablösten, sondern eher wie evolutionär aufeinander liegende Ebenen bzw. Methoden, die das Forschungsfeld KI durchdrungen haben und sich gegenseitig einbetten. Dabei wuchsen nicht nur die Komplexität und der Leistungsumfang solcher Systeme, sondern auch deren Eigenständigkeit.

Die auf Algorithmen basierende Programmentwicklung wurde seit ihrer Erfindung immer komplexer. Die Aufgabenfelder wurden vielschichtiger, der Programmieraufwand größer und der Anspruch an den Leistungsumfang immer höher. Dem KI-Pionier Alan Turing war bereits 1950 klar, dass die Anwendungen der Zukunft eigenständiger sein müssen und man diese nicht ewig bis ins Detail händisch programmieren kann. Die Vision, dass Maschinen eines Tages abstrakte Konzepte bilden, die gleichen Probleme wie Menschen lösen und sich ständig verbessern, führte 1956 zur Gründung des Forschungsgebietes “Künstliche Intelligenz” (KI). Der Begriff KI tauchte also schon sehr früh auf, seine inhaltliche Bedeutung transformierte sich jedoch parallel zur Forschung. Anders gesagt: Was damals bereits als KI bezeichnet wurde, würde man heute eher als durchschnittliches Programm definieren.

Die ersten Systeme, die intelligent agieren sollten, verfügten über eine händisch konstruierte Datenbasis. Sie agierten mit manuellen Wissenseingaben oder explizit programmierten Lösungswegen auf definierte Probleme. Man nennt sie daher auch logische Repräsentationssysteme. Sie orientierten sich an klassischen Prinzipien der mathematischen Logik. In der Aussagenlogik konnten einfache logische Verknüpfungen (und, oder, nicht) kombiniert und Aussagen mit einem Wahrheitsgehalt (richtig, falsch) belegt werden. In der Prädikatenlogik konnten Argumente formuliert und auf ihren Wahrheitsgehalt überprüft werden. Somit waren einfache, begründete Schlussfolgerungen für das Programm möglich. Systeme dieser Art werden bis heute in modernen KI-Anwendungen wie WATSON von IBM genutzt.

Ein beliebtes Anwendungsgebiet der KI waren und sind Spiele. Mensch gegen Computer – nirgendwo sonst lässt sich das Phänomen besser beobachten! Sie verfügen über einfache Regelsysteme und Handlungsmöglichkeiten, jedoch ergeben sich fast unzählige Handlungsoptionen. Beim Schachspiel z. B. sind das geschätzte 10120 Zugmöglichkeiten. Über sogenannte Heuristiken, wird für jede noch so verzweigte Handlungsoption immer wieder die Sinnhaftigkeit einer vertieften Suche bestimmt. Dabei werden die Züge nach bestimmten Kriterien bewertet. Schnellstmöglich findet das System dadurch die beste Handlungsvariante für jeden Spielzug.

Was für Probleme mit klaren, unveränderlichen Regelsystemen funktionierte, sollte auch für allgemeinere Anwendungsfälle klappen – so zumindest die Hoffnung. Und so entstanden in den 1970er Jahren sogenannte Expertensysteme. Über Wenn-Dann-Beziehungen sollte eine menschliche Wissensbasis in für einen Computer lesbare Informationen verwandelt werden, was zunächst auch funktionierte.
Die Programme waren zumeist statistischer Natur, aber nach wie vor nicht in der Lage, aus Erfahrung zu lernen. Ein wesentlicher Nachteil dieser Systeme war die Skalierbarkeit. Größere Wissensbasen widerspruchsfrei zu erweitern, war zu schwierig. Der Aufwand bei der Erfassung und Umwandlung des menschlichen Wissens in eine für den PC nutzbare Datenbasis, war zu groß. Die großen Erwartungen an die KI wurden enttäuscht und etliche Expertensysteme wieder abgeschafft. Der Misserfolg und die Reduktion von Forschungsgeldern führte ab Ende der 1970er Jahre zur ersten und zweiten Phase des sogenannten AI Winters.

Aus heutiger Sicht lässt sich das viel optimistischer betrachten. Die Grundlagen für den zentralen Ansatz der KI-Schlüsseltechnologie wurden in den 1980er Jahren gelegt. Dadurch gelang Anfang der 90er Jahre der Durchbruch des “maschinellen Lernens” (machine Learning, ML). Probleme, die zu kompliziert waren, um sie analytisch zu beschreiben, konnten von nun an mit genügend Beispieldaten gelöst werden. Der entscheidende Unterschied von ML zu einem statischen Programm liegt darin, dass sich die Entscheidungsregeln über eine Rückkopplung an das Erlernte anpassen.
Maschinelles Lernen bezweckt die Generierung von Wissen aus Erfahrung zur ständigen Verbesserung. Das Wissen sind hierbei Beispieldaten, aus denen der Lernalgorithmus ein komplexes Modell mit hoher Dimensionalität entwickelt. Durch Wiederholen einer Aufgabe lernt das Programm, diese bezüglich eines Gütekriteriums immer besser auszuführen – es entsteht Erfahrung. Die automatisch erworbene Wissensrepräsentation kann anschließend auf neue, potenziell unbekannte Daten derselben Art angewendet werden, sodass unbekannte Probleme ähnlicher Art gelöst werden können. So können z. B. Vorhersagen getroffen oder Empfehlungen und Entscheidungen generiert werden.


Traditionelles statistisches Lernen im Vergleich zum Maschinellen Lernen, graphic made by d25.io, vgl. Wittpahl (2019)

Um die Performance solcher ML-Algorithmen zu optimieren und die Anzahl an Dimensionen zu reduzieren, ist Feature Engineering nötig. Dies ist die wohl zeitaufwendigste Arbeit im ganzen Herstellungsprozess der KI. Für jede messbare Eigenschaft (feature) eines Datensatzes existiert ein Wert für jedes Analysemuster. Durch Kombination und Transformation von vorhandenen Features werden Neue generiert. Durch diese Modifikation sollen möglichst viele Muster identifiziert werden, wodurch sich die Vorhersageleistung des Lernalgorithmus steigert. Im Anschluss werden irrelevante oder überflüssige Features entfernt.

Maschinelles Lernen bietet zahlreiche, strukturelle Möglichkeiten. Man unterscheidet dabei verschiedene Kategorien, außerdem online- und offline Systeme, sowie starke und schwache künstliche Intelligenzen. Doch dazu wird es noch einen weiteren Blogeintrag geben.

In den letzten Jahren wurde Machine Learning immer vielschichtiger. Während am Anfang mit einem Eingabe- und einem Ausgabewert gearbeitet wurde, kamen nach und nach versteckte Schichten (Layer) hinzu, die wie Zwischenschritte durchgerechnet wurden.Die miteinander verbundenen, vielschichtigen Knoten bildeten irgendwann netzartige Strukturen. Die Inspiration dafür floss diesmal nicht nur aus mathematischer Logik, sondern vor allem aus der Natur. Mit dem Vorbild biologischer, neuronaler Netzwerke wird nun versucht, künstliche neuronale Netze (KNN) zu modellieren. Die Lernstruktur der Algorithmen soll demnach die Netzstrukturen von Nervenzellen nachbilden. Auch diese Idee ist keine ganz neue Erfindung; bereits in den späten 1940er Jahren entstanden erste Konzepte zu KNNs.

Bei der Informationsverarbeitung in einer menschlichen Gehirnzelle geben vorgeschaltete Neuronen elektrische Impulse über ihre Synapsen an das nächste Neuron weiter. Es erhält im Zeitverlauf zahlreiche solcher Impulse und lädt sich dabei auf, bis ein Schwellenpotenzial erreicht ist. Dann feuert das Neuron einen eigenen Impuls ab, der wieder an nachgeschaltete Zellen weitergegeben wird. Neben der individuellen Netzstruktur und dem Schwellenwert, sind die Verschaltungsstärke und Gewichtung des Impulses besonders wesentliche Eigenschaften. KNNs simulieren dieses Konzept.


vereinfachte Darstellung eines KNN mit zwei Schichten und Rückkopplung (rekurrentes Netz), graphic made by d25.io, vgl. Wittpahl (2019)

Das KNN erhält Eingabewerte (z. B. Farbwerte der Pixel eines Bildes), die als Informationen durch das Netz fließen. Es werden Berechnungen durchgeführt und schließlich Ausgabewerte errechnet (z. B. Aussage, ob auf einem Bild ein Hund erkennbar ist). Bei jedem Verarbeitungsschritt werden die Werte aus vorhergehenden Ebene weitergeleitet an die Neuronen der nächsten Ebene. In einem Neuron der Folgeebene kommen also Werte mehrerer Neuronen an. Alle eingehenden Werte werden, wie im biologischen Vorbild, verarbeitet in Hinblick auf ihre Gewichtung und den Schwellwert des jeweiligen Neurons. Die Gewichtungen an allen Stellen des Netzes müssen daher so justiert bzw. trainiert sein, dass das gewünschte Ergebnis erzielt wird.
Der Prozess wiederholt sich bis zur letzten Ebene und kann sogar rückwärts ablaufen. Das Ergebnis kann eine einfache Klassifikation sein. (1: wahr – Hund erkannt oder 0: falsch – kein Hund erkannt). Es kann aber auch eine beliebig komplexere Bedeutung haben.

Bei einem sogenannten Generative Adversarial Networks (GAN) kämpfen zwei Netzwerke gegeneinander. Dem lernenden, eingesetzten Netz wird ein Gegnernetz gegenübergestellt, das die Eingabewerte des lernenden Netzes erzeugt. Das Gegnernetz lernt dabei aber kontinuierlich Eingabewerte zu produzieren, die für das lernende Netz möglichst schlechte, fehlerhafte Ergebnisse liefern. Durch diesen permanenten Stress-Test wird das lernende Netz immer präziser. 

Der Vorteil von künstlichen neuronalen Netzen ist die sehr tiefgehende Abstraktion von Zusammenhängen zwischen Eingabedaten und zwischen den abstrahierten Neuronenwerten mit den Ausgabedaten. Dadurch können sehr spezielle Probleme und abstraktere Fragestellungen gelöst werden.

Um die Jahrtausendwende wurden zunehmend künstliche neuronale Netze mit enorm vielen Ebenen (hidden layers) programmiert. Diese besonders vielschichtigen, tiefen Netzwerken werden unter Deep Learning (DL) zusammengefasst.
DL lehrt Maschinen zu lernen. Es ist zwar ein Teilbereich des ML, lässt sich aber dennoch gut abgrenzen. Der entscheidende Unterschied besteht darin, dass beim maschinellen Lernen der Mensch in die Datenanalyse und den Entscheidungsprozess eingreift. Beim Deep Learning hingegen stellt der Mensch lediglich die Informationen für das Lernen und die Voraussetzungen zur Dokumentation bereit. Die eigentliche Analyse und Entscheidungsfindung obliegt der Maschine selbst. Es lässt sich im Nachhinein nicht mehr zurückverfolgen, auf welcher Basis bzw. welchem Muster die Maschine ihre Entscheidung getroffen hat. Zudem optimierten sich die Entscheidungsregeln kontinuierlich von selbst.

Deep Learning Systeme werden genutzt, wenn einfache maschinelle Lernverfahren an ihre Leistungsgrenzen stoßen. Durch die erhöhte Anzahl von Rechenebenen kann in ganz neue, komplexere Problemklassen vorgestoßen werden. Unser d25 Monitor nutzt beispielsweise über 100 Ebenen zur Bilderkennung und arbeitet damit enorm präzise und zuverlässig. Deep Learning kommt auch dann zum Einsatz, wenn auf ein separates Feature Engineering verzichtet werden muss. Neuronale Netze können viele Eingabe-Dimensionen von selbst auf die Features reduzieren, welche für die korrekte Bestimmung der Ausgabe notwendig sind. Möglich ist das durch die Fortschritte in der Algorithmik, die stark gewachsene Rechenleistung der PC’s und die massive Anzahl an qualitativen Trainingsdaten, die heute zur Verfügung steht. Die Auswahl dieser Trainigsdaten ist von immenser Bedeutung, gerade wenn man darauf verzichtet, vorher Wissen zu modellieren.

Die letzten Jahre haben gezeigt, dass wir einen Computer tatsächlich dazu bringen können, dass er lernt. Ob bei der Ausführung dann eine kreative Komponente enthalten oder das Programm wirklich selbstständig ist, sind tiefere philosophische Fragen.
KNN zeigen über Deep Learning einen beeindruckenden Fortschritt, der noch lange nicht am Ende seiner Entwicklung ist. Der Hirnforscher Moritz Helmstaedter z. B. verweist auf den enormen Fortschritt in der Hirnforschung, den die KI-Forschung bisher noch vernachlässigt. Unter Anderem existieren mittlerweile präzise Regeln für die Positionen der Synapsen oder die Laufzeiten der Signale. Diese Funktionsweisen dürften sich laut Helmstaedter leicht übertragen lassen auf künstliche neuronale Netzwerke. (vgl. Zitat 1)Von Bedeutung für den Fortschritt wird es sein, andere, wissensbasierte Techniken im Bereich der KI wieder anzubinden. Auch Quantencomputer werden bald ein neues Trendthema sein. Ebenso wird sich die Frage nach Schwäche und Stärke einer KI neu definieren, ebenso wie das Verständnis für den Begriff künstliche Intelligenz mit seiner Ethik und Moral.

Zitat 1:
Thielicke, Robert (12.10.2018, 08.10 Uhr): KI-Forscher: “Deep Learning wird abgelöst”
https://www.heise.de/newsticker/meldung/KI-Forscher-Deep-Learning-wird-abgeloest-4188577.html
aufgerufen: 24.06.2019, 15.52 Uhr

Quellen:
Aunkofer, Benjamin (14.05.2018): Machine Learning vs Deep Learning – Wo liegt der Unterschied?
https://data-science-blog.com/blog/2018/05/14/machine-learning-vs-deep-learning-wo-liegt-der-unterschied/
aufgerufen: 24.06.2019, 15.42 Uhr

Luber, Stefan / Litzel, Nico (26.04.2017): Was ist Deep Learning?
https://www.bigdata-insider.de/was-ist-deep-learning-a-603129/
aufgerufen: 24.06.2019, 16.42 Uhr

Copeland, Michael (29.07.2016): What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/
aufgerufen: 24.06.2019, 13.32 Uhr

Buxmann, Peter/Schmidt, Holger – Künstliche Intelligenz, Mit Algorithmen zum wirtschaftlichen Erfolg, Springer Gabler, 2019

Wittpahl, Volker, KÜNSTLICHE INTELLIGENZ – Technologie, Anwendung, Gesellschaft, iit-Themenband, Springer Vieweg, 2019 (S. 1-45)

Studien des Fraunhofer Instituts zur KI:
Download unter: https://www.bigdata.fraunhofer.de/de/big-data/kuenstliche-intelligenz-und-maschinelles-lernen.html
aufgerufen: 24.06.2019, 16.17 Uhr
D_Trendbroschüre_KI_Einzelseiten.pdf
Fraunhofer_Studie_ML_201809.pdf
KI-Potenzialanalyse_2017.pdf
Studie_KI_in_De_20181107.pdf






Close Menu