„Neuronales Netz“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Änderung 210816872 von 188.193.103.199 rückgängig gemacht; "sehr exakte Modelle" - wofür bitte belegen.
Markierung: Rückgängigmachung
Lernen: "s. a. Künstliche Intelligenz" entfernt - bitte ggf. erklären, _was_ man dazu bei dem anderen Lemma "sehen" kann
(8 dazwischenliegende Versionen von 8 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
{{Dieser Artikel|behandelt den funktionellen Teil eines Nervensystems, Modellationen neuronaler Netze werden gesondert im Artikel [[Künstliches neuronales Netz]] behandelt.}}
{{Dieser Artikel|behandelt den funktionellen Teil eines Nervensystems, Modellierung neuronaler Netze werden gesondert im Artikel [[Künstliches neuronales Netz]] behandelt.}}


[[Datei:Network representation of brain connectivity.JPG|mini|Grundgerüst cortico-corticaler [[Großhirnrinde#Interne Organisation|Assoziations- und Kommissurfasern]] im [[Konnektom#Makroskala: Verbindungen zwischen Hirnarealen|Konnektom]]-Modell der menschlichen [[Großhirnrinde]]]]
[[Datei:Network representation of brain connectivity.JPG|mini|Grundgerüst cortico-corticaler [[Großhirnrinde#Interne Organisation|Assoziations- und Kommissurfasern]] im [[Konnektom#Makroskala: Verbindungen zwischen Hirnarealen|Konnektom]]-Modell der menschlichen [[Großhirnrinde]]]]
[[Datei:C.elegans-brain-network.jpg|mini|Neuronale Verknüpfungen im Nervensystem des Fadenwurms [[Caenorhabditis elegans]]: [[Netzwerk]] aller seiner rund 300 [[Nervenzelle]]n]]
[[Datei:C.elegans-brain-network.jpg|mini|Neuronale Verknüpfungen im Nervensystem des Fadenwurms [[Caenorhabditis elegans]]: [[Netzwerk]] aller seiner rund 300 [[Nervenzelle]]n]]
[[Datei:Neurons big1.jpg|mini|Verknüpfung von Neuronen über [[Synapse]]n]]
[[Datei:Neurons big1.jpg|mini|Verknüpfung von Neuronen über [[Synapse]]n]]
[[Datei:Cajal actx inter.jpg|mini|[[Neurit]]ische und [[Dendrit (Biologie)|dendritische]] Aufzweigungen ihrer [[Zellfortsatz|Zellfortsätze]] kennzeichnen die Gestalt von Neuronen, hier des [[Auditiver Cortex|auditiven Cortex]] (Zeichnung von [[Santiago Ramón y Cajal|Cajal]], 1898)]]
[[Datei:Cajal actx inter.jpg|mini|[[Neurit]]ische und [[Dendrit (Biologie)|dendritische]] Aufzweigungen ihrer [[Zellfortsatz|Zellfortsätze]] kennzeichnen die Gestalt von Neuronen, hier des [[Auditiver Cortex|auditiven Cortex]] (Zeichnung von [[Santiago Ramón y Cajal|Cajal]], 1898).]]


Als '''neuronales Netz''' wird in den [[Neurowissenschaften]] eine beliebige Anzahl miteinander verbundener [[Neuron]]en bezeichnet, die als Teil eines [[Nervensystem]]s einen Zusammenhang bilden, der einer bestimmten Funktion dienen soll. Abstrahiert werden in ''[[Computational Neuroscience]]'' darunter auch vereinfachte Modelle einer biologischen Vernetzung verstanden.
Als '''neuronales Netz''' wird in den [[Neurowissenschaften]] eine beliebige Anzahl miteinander verbundener [[Neuron]]en bezeichnet, die als Teil eines [[Nervensystem]]s einen auf bestimmte Funktionen ausgerichteten Zusammenhang bilden. Abstrahiert werden in ''[[Computational Neuroscience]]'' darunter auch vereinfachte Modelle einer biologischen Vernetzung verstanden.


In der [[Informatik]], [[Informationstechnik]] und [[Robotik]] werden deren Strukturen als [[künstliches neuronales Netz]] modelliert und technisch nachgebildet, simuliert und abgewandelt.
In der [[Informatik]], [[Informationstechnik]] und [[Robotik]] werden deren Strukturen als [[künstliches neuronales Netz]] modelliert und technisch nachgebildet, simuliert und abgewandelt.
Zeile 32: Zeile 32:


== Lernen ==
== Lernen ==
Über das [[Lernen]] in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von [[Donald O. Hebb]] beschrieben ([[Hebbsche Lernregel]]); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen [[Teuvo Kohonen]] Mitte der 1980er Jahre.
Über das [[Lernen]] in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von [[Donald O. Hebb]] beschrieben ([[Hebbsche Lernregel]]). Wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen [[Teuvo Kohonen]] Mitte der 1980er Jahre.


Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche wie für [[Künstliches neuronales Netz|künstliche „neuronale Systeme“]] gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster erlernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht einem [[Logik]]system, sondern einer (in gewissem Sinne intuitiven) [[Mustererkennung|Musterverarbeitung]] folgen; s. a. [[Künstliche Intelligenz]]. Dies bedeutet weiterhin, dass vor dem Lernen ''nicht'' erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.
Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche wie für [[Künstliches neuronales Netz|künstliche „neuronale Systeme“]] gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster erlernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht einem [[Logik]]system, sondern einer (in gewissem Sinne intuitiven) [[Mustererkennung|Musterverarbeitung]] folgen. Dies bedeutet weiterhin, dass vor dem Lernen ''nicht'' erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.


Dies bedeutet wiederum nicht, dass logisches Verhalten und präzise Regeln nicht von neuronalen Netzen erlernt bzw. angewendet werden könnten. Nur müssen diese durch Training ggf. mühsam erarbeitet werden; etwa beim Erlernen der Grammatik einer Sprache über Jahre hinweg. Neuronale Netze lernen nicht ''explizit,'' sondern ''implizit:'' Die Grammatik der Muttersprache wird von einem Kleinkind zuerst implizit erlernt. Als Schulkind erlernt es die Regeln dann im Allgemeinen – noch einmal – explizit, über Regeln.
Dies bedeutet wiederum nicht, dass logisches Verhalten und präzise Regeln nicht von neuronalen Netzen erlernt bzw. angewendet werden könnten. Nur müssen diese durch Training ggf. mühsam erarbeitet werden; etwa beim Erlernen der Grammatik einer Sprache über Jahre hinweg. Neuronale Netze lernen nicht ''explizit,'' sondern ''implizit:'' Die Grammatik der Muttersprache wird von einem Kleinkind zuerst implizit erlernt. Als Schulkind erlernt es die Regeln dann im Allgemeinen – noch einmal – explizit, im Unterricht.

Speziell für die Simulation [[Künstliches neuronales Netz|künstlicher neuronaler Netze]] in Wissenschaft und Technik gilt:
* Das Netz bildet ein mathematisches Modell. Die Freiheitsgrade des Netzes müssen ausreichend groß sein, um die Daten abzubilden. Zu viele Freiheitsgrade dagegen sind schlecht für das Training.
* Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem.
* Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d. h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Sie arbeiten nicht exakt, sondern näherungsweise.
* Es sollte mit repräsentativen Mustern trainiert werden, um eine ausreichende Generalisierung zu erzielen, d. h. nach Abschluss des Trainings sollen auch unbekannte Daten gut erkannt werden.
* Neuronale Netze können deterministisch oder stochastisch trainiert werden. Ein trainiertes Netz kann immer als eine Repräsentation der Wahrscheinlichkeitsverteilung der Daten interpretiert werden.
* Das Training kann in verschiedene Phasen aufgeteilt werden. Speziell bei tiefen Netzen ist dies notwendig, da ansonsten keine Generalisierung erzielt werden kann. Ein stochastisches Training der einzelnen Schichten vor dem Feintuning des Gesamtnetzes (mit Backpropagation) hat sich dabei bewährt.
* Die Auswahl der nichtlinearen Aktivierungsfunktion der Neuronen ist dabei entscheidend und muss auf die Anwendung abgestimmt sein. Hier ist viel Erfahrung notwendig.
* Das Gesamtziel besteht darin, die relevante Information zu extrahieren. Um eine Mischung aus lokalen und globalen Merkmalen z. B. in der Bildverarbeitung zu extrahieren, werden Faltungen mit bestimmten Mustern erzeugt, die das Bild damit abtasten.


== Forschung ==
== Forschung ==
Zeile 71: Zeile 61:
{{Commons|Neural network}}
{{Commons|Neural network}}
* [http://www.neuronalesnetz.de/ Einführung in die Grundlagen und Anwendungen neuronaler Netze]
* [http://www.neuronalesnetz.de/ Einführung in die Grundlagen und Anwendungen neuronaler Netze]
* [https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/tiefe-neuronale-netze-ein-ueberblick.html Tiefe Neuronale Netze: Ein Überblick]
* {{Webarchiv |url=http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/wwwnnscript/startseite.html |wayback=20010515082546 |text=''Einführung in Neuronale Netze.''}}.
* {{Webarchiv |url=http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/wwwnnscript/startseite.html |wayback=20010515082546 |text=''Einführung in Neuronale Netze.''}}.
* {{Webarchiv |url=http://neurocomputing.org/History/body_history.html |wayback=20060203191836 |text=Geschichte der neuronalen Netze bis 1960.}}. (Englisch).
* {{Webarchiv |url=http://neurocomputing.org/History/body_history.html |wayback=20060203191836 |text=Geschichte der neuronalen Netze bis 1960.}}. (Englisch).

Version vom 16. April 2024, 17:15 Uhr

Grundgerüst cortico-corticaler Assoziations- und Kommissurfasern im Konnektom-Modell der menschlichen Großhirnrinde
Neuronale Verknüpfungen im Nervensystem des Fadenwurms Caenorhabditis elegans: Netzwerk aller seiner rund 300 Nervenzellen
Verknüpfung von Neuronen über Synapsen
Neuritische und dendritische Aufzweigungen ihrer Zellfortsätze kennzeichnen die Gestalt von Neuronen, hier des auditiven Cortex (Zeichnung von Cajal, 1898).

Als neuronales Netz wird in den Neurowissenschaften eine beliebige Anzahl miteinander verbundener Neuronen bezeichnet, die als Teil eines Nervensystems einen auf bestimmte Funktionen ausgerichteten Zusammenhang bilden. Abstrahiert werden in Computational Neuroscience darunter auch vereinfachte Modelle einer biologischen Vernetzung verstanden.

In der Informatik, Informationstechnik und Robotik werden deren Strukturen als künstliches neuronales Netz modelliert und technisch nachgebildet, simuliert und abgewandelt.

Die Vernetzung von Neuronen

Das Nervensystem von Menschen und Tieren besteht aus Nervenzellen (Neuronen) und Gliazellen sowie einer Umgebung. Die Neuronen sind über Synapsen miteinander verknüpft, die als Verknüpfungsstellen oder Knoten eines interneuronalen Netzwerks aufgefasst werden können. Daneben findet zwischen Neuronen und Zellen der Neuroglia, insbesondere Oligodendroglia und Astroglia, in chemischer und elektrischer Form ein Austausch statt, der die Gewichtung von Signalen verändern kann.

Die „Schaltungstechnik“ von Neuronen kennt üblicherweise mehrere Eingänge und einen Ausgang. Wenn die Summe der Eingangssignale einen gewissen Schwellenwert überschreitet, „feuert“ das Neuron (Erregungsbildung): Ein Aktionspotential wird am Axonhügel ausgelöst, im Initialsegment gebildet und entlang des Axons weitergeleitet (Erregungsleitung). Aktionspotentiale in Serie sind die primären Ausgangssignale von Neuronen. Diese Signale können über Synapsen anderen Zellen vermittelt werden (Erregungsübertragung). An elektrischen Synapsen werden die Potentialänderungen in unmittelbarem Kontakt weitergegeben. An chemischen Synapsen werden diese in ein Transmitterquantum als sekundäres Signal umgesetzt, also durch Botenstoffe übermittelt (Transmission).

Schematische Darstellung einer einfachen neuronalen Vernetzung.
Divergenz (grün): Ein Neuron gibt Signale an mehrere andere Neuronen weiter.
Konvergenz (blau und gelb): Ein Neuron erhält Signale von mehreren anderen.

Kennzeichnend für Nervenzellen sind ihre Zellfortsätze, mit denen Kontakte zu einzelnen anderen Zellen hergestellt werden. Als Dendriten dienen sie vorrangig der Aufnahme von Signalen anderer Zellen, während Signale an andere Zellen über den Neuriten fortgeleitet werden, auch Axon genannt in der Umhüllung durch Gliazellen.

Mit Abzweigungen seines Axons als Axonkollaterale kann das Signal eines Neurons efferent an mehrere andere Neuronen übermittelt werden (Divergenz). Auch können einem Neuron afferent Signale von verschiedenen anderen Neuronen zufließen (Konvergenz), vorwiegend über seine Dendriten als Eingänge.

Während das über die Membran fortgeleitete Aktionspotential bei elektrischen Synapsen prompt als elektrisches Signal übergeben wird, wird es bei chemischen Synapsen zunächst an der präsynaptischen Membranregion eines Neurons in ein sekundäres chemisches Signal umgebildet. Dies geschieht als potentialabhängige neurokrine Sekretion durch Ausschüttung (Exozytose) der in synaptischen Vesikeln vorrätig gehaltenen Moleküle eines Signalstoffs.

Nach Überbrücken des schmalen synaptischen Spalts per Diffusion wirkt dieser Botenstoff als Neurotransmitter – oder daneben als ein neuromodulatorischer Kotransmitter – auf die Membranregion der postsynaptisch zugeordneten Zelle, wenn sie mit passenden Rezeptormolekülen ausgestattet dafür empfänglich ist.

Mit der Rezeptorbindung wird ein Transmitter erkannt und darüber direkt (ionotrop) oder mittelbar (metabotrop) eine vorübergehende regionale Veränderung der Membrandurchlässigkeit veranlasst. Durch die Membran ein- oder ausströmende kleine Ionen rufen also wieder postsynaptisch Potentialänderungen hervor, als lokale elektrische Signale. Die eintreffenden Signale laufen auf der Membran eines Neurons zusammen, werden hier räumlich wie zeitlich integriert bzw. summierend zusammengefasst.

Solche postsynaptischen Potentiale prägen sich verschieden aus, abhängig von der Membranausstattung mit Rezeptoren und Ionenkanälen. Sie können als graduierte Potentiale nicht nur unterschiedlich starke Signale sein, sondern zudem qualitativ grundsätzlich anders: Exzitatorische regen die Erregungsbildung an, inhibitorische hemmen die Bildung eines Aktionspotentials.

Mit dieser Form synaptischer Verknüpfung als chemischer Transmission erhalten Signale also ein Vorzeichen. Des Weiteren können sie an der Verknüpfungsstelle prozessabhängig gewichtet werden, verstärkt oder abgeschwächt. Bei einer häufig wiederholten Übertragung in rascher Folge kann es zu länger anhaltenden Veränderungen kommen, die als Langzeit-Potenzierung die synaptische Übertragung verstärken. Bei geringer Frequenz können in unterschiedlicher Art Veränderungen auftreten, die zu einer dauerhaften Abschwächung als Langzeit-Depression führen. Auf diese Weise kann der Signalübertragungsprozess selber den synaptischen Modus formen beziehungsweise überformen (neuronale Plastizität). Die Vernetzung von Neuronen zeigt damit keine starre Verschaltung, sondern eine vom Vorzustand abhängige Gewichtung der Signalwege, die sich durch wiederholten Gebrauch ändert.

Lernen

Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel). Wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre.

Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster erlernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht einem Logiksystem, sondern einer (in gewissem Sinne intuitiven) Musterverarbeitung folgen. Dies bedeutet weiterhin, dass vor dem Lernen nicht erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.

Dies bedeutet wiederum nicht, dass logisches Verhalten und präzise Regeln nicht von neuronalen Netzen erlernt bzw. angewendet werden könnten. Nur müssen diese durch Training ggf. mühsam erarbeitet werden; etwa beim Erlernen der Grammatik einer Sprache über Jahre hinweg. Neuronale Netze lernen nicht explizit, sondern implizit: Die Grammatik der Muttersprache wird von einem Kleinkind zuerst implizit erlernt. Als Schulkind erlernt es die Regeln dann im Allgemeinen – noch einmal – explizit, im Unterricht.

Forschung

  • Erstmals dargestellt[1] wurde ein neuronales Netz 1894.[2]
  • Die Untersuchung der biochemischen und physiologischen Eigenschaften neuronaler Netze ist ein Gegenstand der Neurophysiologie.
  • In der Neuroinformatik und der Forschung zur künstlichen Intelligenz werden neuronale Netze durch künstliche neuronale Netze mittels Software im Computer in ihrer Funktionsweise simuliert bzw. die Eigenschaften neuronaler Netze für Software-Anwendungen nutzbar gemacht (s. a. Anwendungen der künstlichen Intelligenz).
  • Eine konzeptionelle Abstraktion neuronaler Netze findet auch in der theoretischen Biologie statt.
  • Insbesondere werden in der Computational Neuroscience Modellneuronen, die unterschiedliche Abstraktionsgrade von den biologischen Gegebenheiten aufweisen, mithilfe von simulierten Synapsen zu Netzwerken verbunden, um ihre Dynamik und Fähigkeit zur Informations- bzw. Datenverarbeitung zu untersuchen. Dies geschieht bei mathematisch einfachen Modellen durch mathematische Analyse, meistens jedoch ebenfalls durch Computersimulationen.
  • In den 1980er und 1990er Jahren sind auch Physiker in dieses Gebiet eingestiegen und haben damals wesentlich zum Verständnis beigetragen. Zurzeit werden neuronale Netze für die Analyse in der Hochenergiephysik eingesetzt. Sogenannte multivariate Methoden sind hier ein wichtiger Bestandteil zur Trennung von experimentellen Daten.
  • Künstliche neuronale Netze, die eine Simulation natürlicher neuronaler Netze sind, dienen mittlerweile oft dazu, die Funktionsweise neuronaler Netze besser zu studieren, da mit den künstlichen Systemen Experimente durchgeführt werden können, die natürliche Systeme nicht erlauben.

Siehe auch

Literatur

  • C. W. Eurich: Was sieht eine Katze? [Neural coding and reconstruction]. Gehirn & Geist, 3/2003.
  • Sven B. Schreiber: Natürliche Intelligenz. Neuronen und Synapsen – alles nur ein organischer Computer? (Teil 1), c’t – Magazin für Computertechnik, 1987 (4), S. 98–101.
Commons: Neural network – Album mit Bildern, Videos und Audiodateien

Einzelnachweise

  1. Olaf Breidbach: Hirn, Hirnforschung. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. De Gruyter, Berlin / New York 2005, ISBN 3-11-015714-4, S. 600 f.; hier: S. 600 (und S. 1543).
  2. Siegmund Exner: Entwurf zu einer physiologischen Erklärung der psychischen Erscheinungen. 1894; Neudruck: Wissenschaftlicher Verlag Harri Deutsch, Frankfurt am Main 1999, S. 193.