Neuronale Netze

Künstliche Neuronale Netze (KNN) gehören zu den derzeit meisterwähnten Programmierparadigmen. Beim herkömmlichen Programmieransatz teilt man dem Rechner mit, was zu tun ist und zerteilt ein großes Problem in mehrere kleine, genau definierte Aufgaben, die die Maschine leicht ausführen kann. In einem künstlichen neuronalen Netzwerk dagegen sagt man dem Rechner nicht, wie dieser das Problem zu lösen hat, stattdessen lernt das Netz aus Beobachtungsdaten und findet eine eigene Lösung für das bestehende Problem. Diese Observationsdaten können aus allen möglichen Bereichen stammen: Befragungsdaten, Audio-, Bild-, Videodaten, Suchanfragen, Finanzdaten, Sensordaten, Webdaten, etc.

Mit dem Konzept des Lernens aus Beobachtung schließt sich der Kreis zu den maschinellen Lernansätzen und es wird verständlich, warum beide Begriffe häufig synonym verwendet werden.

Künstlichen Neuronale Netze (KNN) sind Netze aus künstlichen Neuronen. Ihr Konzept ist dem biologischen Bereich der Vernetzung von Nervensystemen von Lebewesen entlehnt. KNN bestehen im Prinzip aus drei unterschiedlichen Arten künstlicher Neuronenschichten: der Input-Schicht, welche Signale von außen bekommt (dies sind die oben genannten Inputdaten, anhand derer ein Zusammenhang erlernt werden soll), dann einer Hidden-Schicht, die eine interne Repräsentation der Inputdaten beinhaltet und einer Outputschicht, welche die verarbeiteten Daten an die Außenwelt wieder abgeben [Kruse et al., 2013]. Die Art und Weise, wie die Schichten aufgebaut und miteinander vernetzt sind, und die Art und Weise, wie Daten zwischen ihnen im Hinblick auf das zu lösende Problem verarbeitet werden, ist eine Wissenschaft für sich. Somit haben sich im Laufe der Zeit unterschiedliche Netztypen für unterschiedliche Problemstellungen herauskristallisiert. So werden Bildklassifikationen gerne mit den sogenannten Faltungsnetzen (CNN = Convolutional Neural Networks) angegangen, Zeitreihenanalysen und dabei insbesondere Forcasts mittels Regression werden in Rekurrenten Netzen (RNN=Recurrent Neural Networks) und hier ganz besonders mit dem Spezialfall Long Short-Term Memory Recurrent Neural Network (LSTM RNN) gelöst. Diese speziellen Neuronalen Netze fallen konzeptionell schon in den Bereich des sogenannten Deep Learning. Deep Learning ist also nicht synonym mit KNN zu verwenden, sondern umfasst ein Set von Optimierungsmethoden mit denen KNNs besser an die einzelnen Anwendungsfälle und deren Lösung angepasst werden können [Schmidhuber, 2015].

Prof. Dr. Gernot Heisenberg
« Back to Glossary Index