Neuronale Netze

Künstliche Neuronale Netze (KNN) gehören zu den derzeit meisterwähnten Programmierparadigmen. Beim herkömmlichen Programmieransatz teilt man dem Rechner mit, was zu tun ist und zerteilt ein großes Problem in mehrere kleine, genau definierte Aufgaben, die die Maschine leicht ausführen kann. In einem künstlichen neuronalen Netzwerk dagegen sagt man dem Rechner nicht, wie dieser das Problem zu lösen hat, stattdessen lernt das Netz aus Beobachtungsdaten und findet eine eigene Lösung für das bestehende Problem. Diese Observationsdaten können aus allen möglichen Bereichen stammen: Befragungsdaten, Audio-, Bild-, Videodaten, Suchanfragen, Finanzdaten, Sensordaten, Webdaten, etc.

Mit dem Konzept des Lernens aus Beobachtung schließt sich der Kreis zu den maschinellen Lernansätzen und es wird verständlich, warum beide Begriffe häufig synonym verwendet werden.

Künstlichen Neuronale Netze (KNN) sind Netze aus künstlichen Neuronen. Ihr Konzept ist dem biologischen Bereich der Vernetzung von Nervensystemen von Lebewesen entlehnt. KNN bestehen im Prinzip aus drei unterschiedlichen Arten künstlicher Neuronenschichten: der Input-Schicht, welche Signale von außen bekommt (dies sind die oben genannten Inputdaten, anhand derer ein Zusammenhang erlernt werden soll), dann einer Hidden-Schicht, die eine interne Repräsentation der Inputdaten beinhaltet und einer Outputschicht, welche die verarbeiteten Daten an die Außenwelt wieder abgeben [Kruse et al., 2013]. Die Art und Weise, wie die Schichten aufgebaut und miteinander vernetzt sind, und die Art und Weise, wie Daten zwischen ihnen im Hinblick auf das zu lösende Problem verarbeitet werden, ist eine Wissenschaft für sich. Somit haben sich im Laufe der Zeit unterschiedliche Netztypen für unterschiedliche Problemstellungen herauskristallisiert. So werden Bildklassifikationen gerne mit den sogenannten Faltungsnetzen (CNN = Convolutional Neural Networks) angegangen, Zeitreihenanalysen und dabei insbesondere Forcasts mittels Regression werden in Rekurrenten Netzen (RNN=Recurrent Neural Networks) und hier ganz besonders mit dem Spezialfall Long Short-Term Memory Recurrent Neural Network (LSTM RNN) gelöst. Diese speziellen Neuronalen Netze fallen konzeptionell schon in den Bereich des sogenannten Deep Learning. Deep Learning ist also nicht synonym mit KNN zu verwenden, sondern umfasst ein Set von Optimierungsmethoden mit denen KNNs besser an die einzelnen Anwendungsfälle und deren Lösung angepasst werden können [Schmidhuber, 2015].

Prof. Dr. Gernot Heisenberg

Professur für Information Research and Data Analytics. Studium der theoretischen Physik an der RWTH Aachen und Promotion in Informatik. Langjährige Teamleitertätigkeit am Fraunhofer Competence Center for Virtual Environments. Gründung, Aufbau und erfolgreicher Verkauf seiner Firma für numerische Simulationssoftware. 2013 Vertretungsprofessor in Sankt Augustin, 2014 bis 2016 ordentliche Professur in Wiesbaden und seit 2016 ordentliche Professur an der Technischen Hochschule Köln. Seine Forschungs- und Lehrschwerpunkte umfassen Advanced Data Analytics sowie Advertising Research.

Weitere Informationen und alle Beiträge

Prof. Dr. Heisenberg bietet Consulting rund um die Themen Advanced Data Analytics und Advertising Research an: www.gernotheisenberg.de
Prof. Dr. Gernot Heisenberg
« Back to Glossary Index