Bei der Chaostheorie handelt es sich um eine neuartige Herangehensweise an die Wissenschaft, die im Alltag überall präsent ist. Die Chaosforschung stellt die klassische Weltsicht in Frage und hat das Potenzial, eine Generalüberholung der Wissenschaft hervorzurufen.
Auch zum menschlichen Gehirn existiert ein chaostheoretischer Zugang. Die Kommunikation der Nervenzellen erfolgt über eine komplexe Verschaltung der Synapsen, deren Kontakte nicht statisch, sondern wandelbar sind. Daraus ergibt sich die Frage, inwieweit das Gehirn eine nichtlineare Dynamik aufweist und somit der Chaostheorie unterworfen ist.
Anja Buser erläutert in ihrer Publikation zunächst die Begriffe der Chaostheorie und der Selbstorganisation als Grundlage für das weitere Vorgehen. Im nächsten Schritt geht sie auf den Paradigmenwechsel in der Wissenschaft ein, sowie die dadurch ermöglichte Erforschung der Selbstorganisation im neuronalen Netz des Gehirns und in künstlichen neuronalen Netzen. Die Rolle des Chaos in diesen Netzen lässt die Autorin ebenfalls nicht außer Acht und dokumentiert diese u.a. mit aus menschlichen EEG-Daten erstellten chaotischen bzw. seltsamen Attraktoren. Mit ihrer Arbeit zeigt Anja Buser Zukunftsaussichten im Bereich der Hirnforschung auf, die eine Wechselbeziehung von Informations- und Neurowissenschaften in Aussicht stellen.
Inhaltsverzeichnis
1. Einleitung
2. Ein neues Weltbild
2.1 Paradigmenwechsel nach T. S. Kuhn
2.2 Das noch vorherrschende bzw. alte Weltbild (Reduktionismus)
2.3 Das vordrängende bzw. neue Weltbild (Holismus)
2.4 Das komplexe Gehirn, klassische KI und Konnektionismus
3. Chaostheorie
3.1 Überwindung des alten Weltbilds
3.2 Geschichte der Chaostheorie
3.3 Deterministisches Chaos
3.4 Die wichtigsten Charakteristika des deterministischen Chaos
3.4.1 Nichtlinearität und neues Kausalitätsprinzip
3.4.2 Hohe Sensitivität von den Anfangsbedingungen und Grenzen der Vorhersagbarkeit
3.4.3 Rückkopplung, Bifurkation, Intermittenz, Selbstorganisation und die besondere Rolle der Zeit
3.4.3.1 Beispiel: Die Logistische Abbildung
3.4.4 Geometrische Betrachtung des deterministischen Chaos
3.4.4.1 Phasenraum
3.4.4.2 Attraktoren (Punktattraktor – Grenzzyklus – seltsamer Attraktor)
3.4.4.3 Fraktale Geometrie und Selbstähnlichkeit
3.4.5 Beispiel: Untersuchungen von W. Freeman
3.5 Chaostheorie in der Psychologie
3.5.1 Gegenstandsangemessenheit der Chaostheorie im Hinblick auf die Psychologie
3.5.2 Fragestellungen der Psychologie im Forschungsfeld der Chaostheorie
3.5.3 Erste Forschungsarbeiten
4. Selbstorganisation und Chaos im neuronalen Netz des Gehirns
4.1 Chaostheoretischer Zugang zum Gehirn
4.1.1 Die Komplexität des Gehirns
4.1.2 Ontogenese des Gehirns
4.1.3 Zusammenschaltung von Neuronen
4.1.4 Selbstorganisation und Plastizität des Gehirns
4.1.5 Das Gehirn als Prototyp komplexer Systeme
4.1.6 Interdisziplinarität der Gehirnforschung
4.2 Das Gehirn als Signalquelle
4.2.1 Untersuchungsmethoden
4.2.2 Was ist die Sprache des Gehirns?
4.2.3 Ist das Gehirn chaotisch?
4.3 Biomedizinische Zeitreihen
4.3.1 Zeitreihen
4.3.2 Verfahren zur Rekonstruktion des Originalsystems
4.3.3 Die wichtigsten biophysiologischen Zeitreihen
4.3.4 Das EEG als makroskopisches Signal
4.4 Methode der Signalanalyse
4.4.1 Lineare Methoden
4.4.2 Nichtlineare Methoden
4.5 Vorstellung der gängigsten Methoden der nichtlinearen Zeitreihen-analyse
4.5.1 Quantitative Beschreibung einer chaotischen Dynamik
4.5.2 Darstellung im Phasenraum
4.5.2.1 Takens-Theorem
4.5.2.2 Einbettung der Zeitreihe
4.5.2.3 Phasenraumdarstellung
4.5.3 Korrelationsdimension
4.5.4 Lyapunov-Exponenten
4.5.4.1 Die lokalen Lyapunov-Exponenten
4.5.4.2 Der maximale Lyapunov-Exponent
4.5.4.3 Das Lyapunov-Spektrum
4.6 Anwendungsbeispiele
4.6.1 Fokale Epilepsie
4.6.2 Tinnitus
4.7 Erkenntnisstand
5. Selbstorganisation in Künstlichen Neuronalen Netzen
5.1 Grundlagen und Geschichte
5.2 Aufbau von KNN
5.2.1 Aufbau und Funktionsweise eines künstlichen Neurons
5.2.1.1 Gewichtung
5.2.1.2 Aufsummierung
5.2.1.3 Aktivierungsfunktion
5.2.2 Aufbau eines Netzwerks
5.2.3 Gemeinsamkeiten und Unterschiede zum Gehirn
5.3 Klassifikation von KNN
5.3.1 Feedforward-Netze
5.3.2 Feedback-Netze
5.4 Lernen in KNN
5.4.1 Überwachtes Lernen (supervised learning)
5.4.2 Bestärkendes Lernen (reinforcement learning)
5.4.3 Unüberwachtes Lernen (unsupervised learning)
5.5 Beispiele für KNN
5.5.1 Beispiele für Feedforward-Netze
5.5.1.1 Das Perceptron
5.5.1.2 Das Multilayer-Perceptron (MLP)
5.5.1.3 Die Selbstorganisierende Karte (SOM)
5.5.2 Beispiele für Feedback-Netze
5.5.2.1 Das Jordan-Netz
5.5.2.2 Das Elman-Netz
5.5.2.3 Das Hopfield-Netz
5.6 Vorteile und Nachteile von KNN
5.6.1 Vorteile von KNN
5.6.2 Nachteile von KNN
6. Nichtlineare Dynamik und künstliche Neuronale Netze
6.1 Zwei grundlegende Anwendungen von KNN
6.1.1 Gliederung in Konnektionistische Modelle und KNN-Anwendungen
6.1.2 Problemstellungen der KNN-Anwendungen
6.1.3 Der Bedarf an Intelligenten Informationssystemen
6.1.4 Die besondere Eignung von KNN für realweltliche Zusammenhänge
6.1.4.1 Anforderungen der Realität
6.1.4.2 Der entscheidende Vorteil von KNN
6.2 KNN als Ersatz herkömmlicher statistischer Verfahren?
6.3 Anforderungen an und Kategorisierung von KNN
6.3.1 Anforderungen an den Einsatz von KNN
6.3.1.1 Anforderungen an die Datenbasis
6.3.1.2 Wissenschaftstheoretische Anforderungen an ein Modell
6.3.1.3 Benutzerorientierte Anforderungen an ein Modell
6.3.1.4 Resümee
6.3.2 Kategorisierung von KNN nach der Aufgabenstellung
6.3.2.1 Dependenzanalyse
6.3.2.2 Interdependenzanalyse
6.3.2.3 Typisches Beispiel eines KNN zur Dependenzanalyse
6.3.2.4 Typisches Beispiel eines KNN zur Interdependenzanalyse
6.4 Auswahl eines geeigneten Verfahrens
6.4.1 Orientierung an zwei Fragestellungen
6.4.2 Parametrische Verfahren
6.4.3 Künstliche Neuronale Netze
6.4.4 Neuro-Fuzzy-Methoden
6.4.5 Entscheidungsbäume
6.4.6 Zielkonflikt
6.4.7 KNN – Erweiterung statt Ersatz
6.5 Vorgehen bei der Modellbildung mit KNN
6.5.1 Modellbildungsprozess (Überblick)
6.5.2 Problemdefinition und Datenakquise (allgemeine Modellbildungsschritte)
6.5.3 Datenvorverarbeitung (allgemeiner Modellbildungsschritt)
6.5.3.1 Codierung
6.5.3.2 Datenkompression
6.5.4 Aufteilung der Stichprobe
6.5.5 Lernphase (Gewichtsanpassung)
6.5.6 Validierungsphase (Optimierung des KNN)
6.5.7 Testphase (Wahl eines Fehlermaßes)
6.5.8 Anwendungsphase
6.6 Abschließende Bemerkungen
7. Chaos und Künstliche Neuronale Netze
7.1 Biologischer Hintergrund
7.2 Die Relevanz von Chaos für die Informationsverarbeitung in KNN
7.2.1 Künstliches Gedächtnis basierend auf UPOs des chaotischen Attraktors
7.2.2 Spontaner Übergang zwischen lokalen Strukturen
7.2.3 Informationsübertragung zwischen mirko- und makroskopischem Level
7.2.4 Synchronisation
7.2.5 Clustering
7.2.6 Erhöhter Informationstransfer
7.3 Chaos in einem 2-Neuronen KNN
7.4 Chaoskontrolle
7.4.1 Die Methode von Pyragas
7.4.2 Algorithmus der Methode von Pyragas
7.4.3 Beispiel zur Pyragas-Methode
7.5 Simulationen mit Chaoskontrolle
7.5.1 Das Modell von Jones, Tsui und de Oliveira (2002a)
7.5.1.1 Das Netzwerk
7.5.1.2 Gamma Test
7.5.1.3 Training des Netzwerks
7.5.1.4 Chaoskontrolle
7.5.1.5 Gesamtergebnis
7.5.1.6 Ergebnisse im Detail
7.5.2 Eine neue chaotische Netzwerkarchitektur von Crook und Scheper (2001)
7.5.2.1 Das Netzwerk
7.5.2.2 Erste experimentelle Ergebnisse
7.6 Simulationen mit Synchronisation
7.6.1 Synchronisation zweier Netzwerke zur Simulation der Hénon-Zeitreihe
8. Zukunftsperspektiven im Bereich der Hirnforschung
8.1 Interdisziplinarität
8.1.1 Wechselbeziehung von Informations- und Neurowissenschaften
8.1.2 Bildgebende Verfahren
8.2 Komplexität
8.2.1 Strukturelle Komplexität (anatomische Komplexität)
8.2.2 Dynamische Komplexität (zeitliche Organisation von Prozessen)
8.3 Verhaltensrelevanz
8.4 Symbolische und subsymbolische Repräsentation
8.5 Fazit
9. Verzeichnisse
9.1 Literaturverzeichnis
9.2 Verwendete Programme
9.3 Verwendete Daten
10. Abbildungen von mir erstellter chaotischer Attraktoren aus dem menschlichen EEG
Für meine Eltern
Schon ist mein Blick, am Hügel, dem besonnten, dem Wege, den ich kaum begann, voran. So fasst uns das, was wir nicht fassen konnten, voller Erscheinung, aus der Ferne an – und wandelt uns, auch wenn wirs nicht erreichen, in jenes, das wir, kaum es ahnend, sind; ein Zeichen weht, erwidernd unserm Zeichen Wir aber spüren nur den Gegenwind. (Rilke, 1924)
1. Einleitung
Seit nunmehr fast 30 Jahren entwickelt sich unter dem Begriff der nichtlinearen Dynamik komplexer Systeme – bzw. der sogenannten Chaostheorie (vgl. Kapitel 3) - auf vielen Gebieten der Wissenschaft ein grundsätzlich neues Paradigma (Ciompi, 1997). Die Chaostheorie bietet so gesehen eine Alternative zum reduktionistischen Weltbild (vgl. Kapitel 2) und die Möglichkeit mittels völlig neuer Methoden (vgl. Kapitel 4) u.a. die Komplexität im Verhalten, die Biologie und die Pathologie des Störungs-Generators (Schmid & Koukkou, 1997, S. 151) Mensch zu untersuchen. Dieses neue Paradigma steht im Begriff, unser Verständnis einer Vielzahl von natürlichen Prozessen tiefgreifend zu verändern (Ciompi, 1997).
Der Begriff Selbstorganisation wird in diesem Zusammenhang zunehmend häufiger gebraucht. Modelle der Selbstorganisation erklären die spontane Erhöhung von Ordnung in komplexen Systemen, wobei s pontan in dem Sinne verstanden wird, dass zur Erhöhung der Ordnung kein Eingriff von außen notwendig ist, sondern Prozesse innerhalb des Systems selbst zur Ordnungserhöhung führen (Schaub, 1997). Die Prinzipien der Selbstorganisation liegen unterschiedlichsten biologischen (z.B. Funktionsweise des Gehirns), psychischen (z.B. der Wahrnehmung) und sozialen (z.B. Gruppendynamik) Phänomenen zugrunde.
In der Psychologie hat diese neue Sichtweise der Welt allerdings bisher nur relativ wenig Resonanz gefunden, was angesichts der chaotisch anmutenden Natur vieler psychischer Erscheinungen auf den ersten Blick verwunderlich wirkt. „In erster Linie dürfte dieser Rückstand mit den Schwierigkeiten der Objektivierung relevanter Variablen im psychischen Phänomenbereich wie den spärlichen Verbindungen [...] zur exakten Naturwissenschaft und Mathematik zusammenhängen, in denen sich die chaostheoretischen Ansätze vor allem entwickelt haben (Ciompi, 1997, S. 191)“. Mittlerweile hält dieses, zu einem interdisziplinären Forschungsbereich herangewachsene, Gebiet allerdings ein breites Spektrum an sensiblen Instrumentarien zur Untersuchung komplexer Phänomene bereit, die auch in vielen Bereichen der Psychologie ihre Anwendung finden könnten.
Obwohl es beim gegenwärtigen Kenntnistand noch nicht möglich ist, einen umfassenden Vergleich linearer und nichtlinearer Methoden zu präsentieren und den nichtlinearen Methoden des weiteren einige Nachteile nachgesagt werden (z.B. Kompliziertheit, außerhalb des Mainstreams, benötigen mehr Rechenzeit als klassische Verfahren), sind die bisherigen Ergebnisse äußerst vielversprechend (Kowalik & Leiber, 1997). Sie schüren die Hoffnung Zugang zur Systemdynamik zu erlangen, wo er für andere Verfahren aussichtslos erscheint, z.B. zur Entdeckung kritischer Veränderungen der Gehirnaktivität bei schizophrenen oder an Epilepsie leidenden Personen (vgl. Kapitel 4).
Auch im Bereich der Hirnfunktionen nahm die Chaosforschung bereits vor fast 20 Jahren ihren Anfang. In Bezug auf die bioelektronische Aktivität des Gehirns haben im Besonderen in der Zeit von 1985 bis 1989 grundlegende Fortschritte stattgefunden (Başar, 1990; Rapp et al., 1989; Elbert et al., 1994). Die in den vergangenen Jahren weiter ausgebaute Theorie der nichtlinearen Systeme hat darauffolgend u.a. neuartige Beschreibungen und Messgrößen hervorgebracht, die auf die Prozesse, die im Kortex stattfinden, bereits heute vermehrt angewendet werden.
Diese neusten Entwicklungen haben ihrerseits wiederum Einfluss auf das Verständnis von Gehirnstrukturen und –funktionen im Paradigma neuronaler Netze (Schmid & Koukkou, 1997). Die Funktionsweise neuronaler Netze ist an der neuronalen Struktur des menschlichen Gehirns orientiert (vgl. Kapitel 5), entweder indem die Physiologie Anregungen für konnektionistische Systeme beisteuert (vgl. Kapitel 7), oder umgekehrt, indem konnektionistische Systeme Möglichkeiten aufzeigen, wie menschliche Informationsverarbeitungsprozesse aussehen könnten (vgl. Kapitel 7) und maschinelle Informationsverarbeitungsprozesse am idealsten vonstattengehen (vgl. Kapitel 6) (Schaub, 1997).
Erkenntnisse aus dem Bereich des Konnektionismus und die Beobachtung, dass sich komplexe (u.a. psychologische) Systeme chaotisch verhalten können, eröffnen neuartige theoretische aber auch praktische Perspektiven. Eine davon betrifft die Möglichkeit, chaotische Prozesse durch eine Abfolge minimaler Eingriffe steuern (vgl. Kapitel 7) zu können (Droste & Schiepek, 1997). „Die auf der permanenten sensiblen Abhängigkeit des Systemverhaltens von seinen aktuellen Zuständen beruhende Nichtvorhersagbarkeit des Geschehens ist hierfür kein Hinderungsgrund, sondern eine Chance (Droste & Schiepek, 1997, S. 255).“ Im Gegensatz zu stabilen, periodischen Systemen, die sich ignorant gegenüber Anregungen aus der Umwelt verhalten, indem sie nach Störungen wieder auf ihre stabile Trajektorie zurücklaufen, regieren chaotische Systeme umweltsensibel und erweisen sich damit als lernfähig und ungewöhnlich flexibel (Droste & Schiepek, 1997).
In diesem Zusammenhang erscheint auch die zeitliche Synchronisation (vgl. Kapitel 7) von Prozessen, sowohl bei der Kontrolle des biomedizinischen und behavioralen Chaos, als auch bei der Kontrolle des Chaos in künstlichen neuronalen Netzen, als äußerst vielversprechend. Auch in der klinischen Psychologie ist die Steuerung komplexer, dynamischer Systeme zweifellos ein relevantes, aber nach wie vor sehr umstrittenes Thema. In anderen Bereichen psychologischer Forschung verspricht die Kopplung der nichtlinearen Signalanalyse mit dem Konzept der neuronalen Netze zukünftig wesentlich zu einer Erhellung kooperativer Prozesse jeglicher Art, sowohl im Gehirn (vgl. Kapitel 8), als auch in sozialen Systemen (z.B. Gruppen oder Organisationen), beizutragen (Kowalik & Schiepek, 1997).
2. Ein neues Weltbild
"Wir erleben eine Zeit des Weltbildwandels. Das Verständnis für diesen Wandel, aber auch das Verstehen des neuen Weltbildes können wesentliche Hilfen in dieser Zeit sein (Moser, S. 18)."
2.1 Paradigmenwechsel nach T. S. Kuhn
Als Paradigma bezeichnet man das Verständnis der Wirklichkeit und ihrer Erforschung, das einer Mehrzahl von Forschern einer bestimmten Wissenschaftsdisziplin in einer bestimmten Periode gemeinsam ist (Ravn, 1995). Geprägt wurde dieser Begriff 1962 von dem amerikanischen Wissenschaftshistoriker Thomas S. Kuhn (1976, S. 10). Kuhn setzte sich mit der vorherrschenden Auffassung auseinander, dass die Wissenschaft ausschließlich durch die kontinuierliche Anhäufung unwiderlegbarer Tatsachen Fortschritte erzielt. Kuhn vertrat die Auffassung, dass wissenschaftliche Forschung zu jeder Zeit der Steuerung eines Paradigmas unterliegt (Ravn, 1995).
Im Detail bedeutet dies, dass die Wissenschaft zu jedem Zeitpunkt in der Geschichte von einer Gruppe übergeordneter, oft unbewusster Vorstellungen darüber gesteuert wird und wurde, wie die Wirklichkeit aussieht, welche Probleme man erforschen kann, mit welchen Methoden man dies angehen soll und was eine Theorie letztendlich leisten muss.
Solange die von einem Paradigma gelieferten Hilfsmittel sich als fähig erweisen, die von ihm definierten Probleme zu lösen, schreitet die Wissenschaft dann am schnellsten voran und dringt am tiefsten ein, wenn diese Hilfsmittel voll Überzeugung gebraucht werden. Der Grund ist klar. Wie bei der Fabrikation, so auch in der Wissenschaft - ein Wechsel der Ausrüstung ist eine Extravaganz, die auf die unbedingt notwendigen Fälle beschränkt bleiben soll (Kuhn, 1976, S. 89).
Manchmal widersteht ein normales Problem, welches durch bekannte Regeln und Verfahren lösbar sein sollte, dem wiederholten Ansturm der fähigsten Mitglieder des Kreises, in dessen Zuständigkeit es fällt. Bei anderen Gelegenheiten arbeitet ein für die normale Forschung entwickeltes Ausrüstungsstück nicht in der erwarteten Weise und lässt eine Anomalie erkennen, die sich trotz wiederholter Bemühungen nicht mit der professionellen Erwartung in Einklang bringen lässt (Kuhn, 1976, S. 20).
Auf lange Sicht häufen sich sogenannte Anomalien, die nicht innerhalb des Paradigmas erklärt werden können (Ravn, 1995). Sie werden solange ignoriert bis sich eine eindeutig erkennbare Krise manifestiert hat. Wenn die Fachwissenschaft den Anomalien nicht länger ausweichen kann, dann beginnen die außerordentlichen Untersuchungen, durch welche die Wissenschaft schließlich zu einer neuen Reihe von Positionen und einer neuen Grundlage für ihre Ausübung geführt wird. Hierin liegt die eigentliche Bedeutung von Krisen: sie geben den entscheidenden Hinweis darauf, dass der Zeitpunkt für einen Wechsel gekommen ist. Schließlich zeichnet sich mehr und mehr ein neues Paradigma ab, welches die Anomalien des alten Paradigmas lösen kann. Dieser Paradigmenwechsel hat den Charakter einer wissenschaftlichen Revolution, da Kompromisse zwischen den beiden Paradigmen nicht möglich sind. Im besten Fall integriert das neue Paradigma die Ergebnisse des alten Paradigmas als Sonderfälle. So enthält beispielsweise die Quantenmechanik die Newtonsche Mechanik (Ravn, 1995).
Wenn der Wissenschaftshistoriker die Ergebnisse der früheren Forschung vom Standpunkt der zeitgenössischen Geschichtsschreibung aus untersucht, könnte sich ihm der Gedanke aufdrängen, dass bei einem Paradigmenwechsel die Welt sich ebenfalls verändert. Unter der Führung eines neuen Paradigmas verwenden die Wissenschaftler neue Apparate und sehen sich nach neuen Dingen um. Und was noch wichtiger ist, während der Revolutionen sehen die Wissenschaftler neue und andere Dinge, wenn sie sich mit bekannten Apparaten an Stellen umsehen, die sie vorher schon einmal untersucht haben.
Ein Mensch, der zuvor die Außenseite eines Kastens von oben sah, sieht später die Innenseite von unten. Veränderungen dieser Art sind übliche Begleiterscheinungen der wissenschaftlichen Ausbildung, wenn sie auch gewöhnlich langsamer vor sich gehen und fast nie rückgängig zu machen sind. Bei einem Blick auf eine Höhenlinienkarte sieht der Studierende Linien auf einem Bogen Papier, der Kartograph dagegen sieht das Bild eines Geländeabschnitts.
Erst nach einer Anzahl solcher Verwandlungen des Sehbildes wird der Studierende ein Bewohner der Welt des Wissenschaftlers, der sieht, was der Wissenschaftler sieht, und reagiert, wie es der Wissenschaftler tut. Die Welt in die der Studierende dann eintritt, ist jedoch nicht ein für alle Mal durch die Natur seiner Umwelt einerseits und der Wissenschaft andererseits festgelegt. Sie wird vielmehr gemeinsam von der Umwelt und der bestimmten normal-wissenschaftlichen Tradition, der zu folgen der Studierende angehalten wurde, bestimmt. Deshalb muss zur Zeit einer Revolution, da sich die normal-wissenschaftliche Tradition verändert, die Wahrnehmung des Wissenschaftlers von seiner Umgebung neu gebildet werden – in manchen vertrauten Situationen muss er eine neue Gestalt sehen lernen (Kuhn, 1976, S.123 / 124).
Meist allerdings haben die Anhänger des alten Paradigmas und die des möglichen neuen Paradigmas so unterschiedliche Auffassungen von Wirklichkeit, Wissen und Forschung, dass das neue Paradigma sich normalerweise erst durchsetzt, wenn eine neue Forschergeneration die Vertreter des alten Paradigmas ablöst (Ravn, 1995). „Die Welt, die aus diesen Entdeckungen entstehen wird, wird von der, in der wir leben, ganz unterschiedlich sein, doch wie sie sich unterscheiden wird, wissen wir noch nicht (Davis, 1999, S. 9).“
In den 80er Jahren entstand die Vorstellung, dass ein neues Paradigma im Begriff sei sich seinen Weg in das allgemeine wissenschaftliche Denken, die Moralvorstellung, die Politik und ins Umweltbewusstsein zu bahnen. Es wurde von einem Paradigmenwechsel gesprochen. Nach Kuhns Definition ergibt dies zunächst keinen Sinn, da ein Paradigma nur zu einer einzelnen Fachwissenschaft gehört.
Es handelte sich daher in diesem Fall eher um eine Änderung des Weltbildes, d.h. um einen relativ gleichzeitigen Paradigmenwechsel in vielen Wissenschaften und Denkrichtungen. Wegen der enormen Durchschlagskraft von Kuhns Theorie wird heute allerdings der Begriff Paradigmenwechsel häufig in der Öffentlichkeit als Synonym für Weltbildwechsel benutzt.
2.2 Das noch vorherrschende bzw. alte Weltbild (Reduktionismus)
Der Reduktionismus ist die Auffassung, dass die Beschreibung jedes Phänomens von dessen elementarsten Bestandteilen ausgehen kann und muss. „Im engeren Sinne fordern reduktionistische Wissenschaftstheorien, dass jede wissenschaftliche Beschreibung letztlich das Phänomen auf eine physikalische Beschreibung zurückführen sollte (Ravn, 1995)“. Damit würde die Trennung zwischen den einzelnen Wissenschaften aufgehoben und die Betrachtungsweise der Physik zu einem leitenden Prinzip für alle Naturwissenschaften. Der Glaube, dass die Prozesse und Strukturen der Natur von unwandelbaren Gesetzmäßigkeiten bestimmt werden, ist die Triebkraft für eine Jahrhunderte alte Tradition des naturwissenschaftlichen Forschens. In der Annahme ewiger Gesetze versuchte man im Zuge dieser Entwicklung alles Irdische auf eine physikalistische Einheitswissenschaft zurückzuführen. Die Erfolge dieser reduzierenden Methode waren bekanntlich epochemachend.
So verglich beispielsweise Ende der sechziger Jahre der bekannte Physiker Richard Feynman in einer Vortragsreihe der BBC die Natur mit einem riesigen Schachspiel, das auf den ersten Blick eine große Komplexität aufweist, in dem aber jeder Zug einfachen Regeln folgt (Gerhart & Schuster, 1995). Entsprechend dieser Metapher nähert sich die Wissenschaft dem verwickelten Spiel der Natur also dadurch an, dass sie versucht, die einzelnen Figuren des Spiels zu identifizieren und deren erlaubte Spielzüge zu entschlüsseln. Die hingebungsvolle Suche unserer modernen Naturwissenschaft nach den Bausteinen der Natur bis hinunter zu den kleinsten Elementarteilchen spiegelt dieses Prinzip wider (Gerhart & Schuster, 1995).
Die Vorstellung einer Welt, die im Grunde ihres Wesens berechenbar ist, zieht sich wie ein roter Faden durch die Geschichte der Naturwissenschaften, bis hinein in unser Jahrhundert (Gerhart & Schuster, 1995). Der Glaube des Reduktionismus wurde als Paradigma naturwissenschaftlicher Forschung erst in den letzten 20 Jahren zunehmend kritisiert.
Die letzen Jahre des wissenschaftlichen Fortschritts haben diesen Glauben in eine zerbrechliche Seifenblase verwandelt, die in den Augen vieler schon längst geplatzt ist (Gerhart & Schuster, 1995). „Zumindest in seiner strengen Form kann man das Konzept des Reduktionismus als gescheitert betrachten (Morfill, 1991, S. 291)“.
„Der Sturm, der durch das auf scheinbar so soliden Beinen ruhende Gedankengebäude der Naturwissenschaftler fegt, hat viele Namen: Chaos, Fraktale, Selbstorganisation, Irreversibilität und Komplexität sind einige der griffigsten Schlagworte, die längst die Grenzen der Wissenschaft überschritten haben und zum vielbeachteten Diskussionsobjekt einer breiten Öffentlichkeit wurden. Kaum jemand scheut sich heute noch, diese Begriffe als Synonym einer umwälzenden wissenschaftlichen Revolution zu sehen, die unser Weltbild bis in seine Grundfeste erschüttert hat (Gerhart & Schuster, S. 5)“.
2.3 Das vordrängende bzw. neue Weltbild (Holismus)
Eine wesentliche Rolle in der Ausbildung des neuen Weltbilds, des Holismus, spielte die Entdeckung des Chaos, genauer gesagt, so paradox dies auch klingen mag, die Entdeckung der ordnenden Wirkung des Chaos. Im Zuge dieser Entwicklung waren Erfahrungen, die man mit mathematischen Modellen machte, von wesentlicher Bedeutung. In der Sprache eines mathematischen Modells werden die Gesetze der Natur zu Gleichungen abstrakter Variablen. Erstaunlicherweise können häufig einfachste Gleichungen die unvorhersehbare Komplexität erzeugen, die zwischen den Komponenten der Systeme der Natur wirkt. Der Schlüssel dazu liegt in dem Prinzip der Nichtlinearität. Hinter diesem Begriff verbirgt sich nichts anderes als die Tatsache, dass sich die Kräfte zwischen den Komponenten eines Systems nicht einfach aufaddieren. Daher kann man auch nicht aus der Kenntnis jedes seiner Teile auf sein Gesamtverhalten schließen. „Gesetze und Regeln sind überall dort nichtlinear, wo das Ganze eben mehr ist als die Summe seiner Teile (Gerhart & Schuster, 1995, S. 7)“. Diese Aussage kennzeichnet die grundlegende Idee des Holismus. Sie steht im Gegensatz zur Auffassung des Reduktionismus, welche den bereits weiter oben beschriebenen Standpunkt vertritt, dass sich das Ganze ausschließlich aus der Summe seiner Teile ergebe. Das Ganzheitsdenken des Holismus impliziert dagegen die Auffassung, die Welt bestehe aus Ganzheiten, die sich nicht allein durch die Analyse der Elemente, aus denen sie zusammengefügt sind, ergründen lassen (Ravn, 1995). Löst man beispielsweise einen Organismus in seine Einzelteile auf (z.B. Organe und Gewebe) und untersucht diese unabhängig voneinander, hat man die Ganzheit nicht völlig verstanden, da es Eigenschaften gibt, die für den gesamten Organismus charakteristisch und nur durch diesen verständlich werden.
Als Erkenntnismethode hat der Holismus in diesem Jahrhundert im wissenschaftlichen Bereich zunächst nur eine untergeordnete Rolle gespielt, u.a. weil er den althergebrachten wissenschaftlichen Methoden, die auf der Analyse und Trennung individueller ursächlicher Faktoren gründen, widerspricht. In fachübergreifenden Disziplinen (z.B. allgemeine Systemtheorie, Kybernetik) fand er jedoch in gewissem Umfang Eingang (Ravn, 1995). Der holistische Grundgedanke findet sich heute beim Studium sogenannter komplexer Phänomene wieder. Diese bilden Muster und Gesamtheiten, deren Eigenschaften sich nicht aus ihren ursprünglichen Elementen voraussagen lassen. Sie werden daher als emergent (lat. emergere: auftauchen) bezeichnet (Ravn, 1995). Beispielsweise kann man aus der genauen Kenntnis der molekularen Struktur von Wasser (ein Sauerstoff- und zwei Wasserstoffatome) nicht voraussagen, welche Eigenschaften Wasser hat (z.B. dass es bei ca. 0°C gefriert). „Heute wird allgemein akzeptiert, dass es Emergenz auf allen Gebieten - Physik, Biologie, Psychologie und Gesellschaft - gibt, und es spricht viel dafür, dass Emergenz weder Indeterminismus noch unwissenschaftliche Prinzipien mit sich führt (Ravn, 1995, S. 45)“.
In jüngster Zeit wurden vor allem im Bereich der Biologie, aber auch in der Physik, der Chemie und der Psychologie Theorien über antireduktionistische Prinzipien entwickelt, beispielsweise über das Prinzip der Selbstorganisation. Ein System wird als selbstorganisierend bezeichnet, wenn es von einem stabilen, bekannten Zustand in einen geordneteren, aber auch weniger vorhersagbaren Zustand übergehen kann. Viele Arten von selbstorganisierenden Systemen bestehen aus einfachen Elementen, die sich nach einfachen Regeln gegenseitig beeinflussen, dennoch aber komplexe Muster bilden. Beispiele für selbstorganisierende Systeme, die man genauer untersucht hat, sind neuronale Netze, die selbstständig zufällige Eingangssignale einordnen können und auf diese Art und Weise lernen. Aktuelle Studien auf dem Gebiet der Selbstorganisation beschäftigen sich u.a. mit Themen aus dem Bereich der Hirnforschung (Lernfähigkeit und Intelligenz). Die Forschung hat oft interdisziplinären Charakter und verwendet Methoden der nichtlinearen Dynamik und der Komplexitätsforschung (Ravn, 1995, S. 206-207).
Es besteht mittlerweile zunehmend die Einsicht, dass das Ganze mehr ist als die Summe seiner Teile und dass wir eine Auffassung von Wissenschaft, Politik und vom Leben haben sollten, die nicht auf einer fragmentierenden Sicht beruht, d.h., dass wir eine ganzheitliche Betrachtungsweise brauchen.
2.4 Das komplexe Gehirn, klassische KI und Konnektionismus
„Alles scheint komplexer zu werden. Aber vielleicht liegt das nur daran, dass wir gerade dabei sind Komplexität zu entdecken (Gleich, 2002, S. 62).“
Ein Phänomen wird als komplex bezeichnet, wenn es die besondere Form von Ordnung besitzt, die objektiv betrachtet weit vom zufällig Ungeordneten, aber auch vom völlig Geordneten und Vorhersagbaren entfernt ist. Beispiele sind eine lebende Zelle, der Körper als formbildendes System, eine Gesellschaft, ein Ökosystem und das Gehirn (Ravn, 1995). Das menschliche Gehirn ist das Paradebeispiel dafür, welche Möglichkeiten sich eröffnen, wenn sich alles mit allem verbindet (Gleich, 2002). Diese Architektur vollbringt das Wunder, dass jede Nervenzelle mit jeder anderen über maximal 4 Umschaltungen kommunizieren kann. Es ist ein vielschichtiges und multidimensionales, lebendes System der kurzen Wege.
Dies musste auch die Forschungsrichtung feststellen, welche versucht Künstliche Intelligenz (KI) zu schaffen. Die Disziplin der KI will Maschinen Fähigkeiten verleihen, über die Menschen im Alltag mühelos verfügen, beispielsweise Sprache verstehen, Gesichter erkennen und Treppenstufen steigen (Gleich, 2002). In den letzten drei Jahrzehnten wuchs allerdings die Einsicht, dass der Geist sehr viel komplexer ist, als die verbesserte Ausführung irgendeiner Maschine (z.B zuletzt der Computer), die den Wissenschaftlern als Modell gedient hatte.
Die bisherige Vorgehensweise bei der Erforschung des Gehirns ähnelt ein wenig dem Versuch, das Phänomen des Fernsehens dadurch zu verstehen, dass man zunächst ein Schaltschema studiert, das die Transistoren, Dioden und sonstige elektronischen Bauteile des Geräts zeigt, und dann eine Zusammenfassung verschiedener Fernsehprogramme durchliest. Die so gewonnenen Informationen sagen nichts darüber aus, wieso die Programme mittels der Elektronik auf dem Bildschirm erscheinen (Allmann, 2000, S. 20).
Die KI-Pinoniere waren von einem Gehirn ausgegangen, das nach festen, vorgegebenen Regeln rechnet. Man glaubte, irgendwo seien diese Regeln auch im menschlichen Gehirn gespeichert. Zunächst versuchte man, Intelligenz durch eine auf Logik basierender Programmierung digitaler Computer zu schaffen. Man begann alle denkbaren Regeln für ein bestimmtes Verhalten zu formulieren, und dann elektronisch zu codieren. Da Menschen über ungeahnte Mengen impliziten Wissens verfügen, funktionierte dieser Ansatz von oben nach unten (top down) nicht. Je mehr Regeln die Programmierer eingaben, desto unbefriedigender wurden die Resultate. Die Forschung der klassischen KI kann sich dennoch einiger Erfolge rühmen. Die anfangs gehegte Hoffnung, die Computerwissenschaft würde die Geheimnisse des Geistes entschlüsseln, hat sich jedoch nicht erfüllt (Allman, 2000).
Herausgefordert wurde die klassische KI in den 80er Jahren vom Konnektionismus, einem konkurrierenden Paradigma, das man in den 60er Jahren aufgegeben hatte (Ravn, 1995). Der Konnektionismus propagierte die Nachahmung des Bottom up-Verfahrens (von unten nach oben -Verfahren) der Natur. Statt zu versuchen, intelligente Computer zu konstruieren, griff man im Rahmen dieses Paradigmas auf die Idee zurück, den Computer selbst wie ein Gehirn zu gestalten. Man konstruierte ihn als neuronales Netz, das aus einfachen, in sich selbst nicht intelligenten Prozessoren aufgebaut ist (Ravn, 1995). Konnektionistische Modelle erfordern keine Programmierung und die Elemente solcher Modelle müssen nur einfachste Operationen ausführen. Die Informationsverarbeitung ist ein paralleler Prozess und Lernvorgänge und Informationsspeicherung findet überall, in sämtlichen Verbindungen des Netzes, statt (Ravn, 1995). Auf diese Weise werden neuronale Netze konstruiert, die das Prinzip der Selbstorganisation beherrschen. Wissen wird letztlich in einem diffusen Muster von Verbindungen gespeichert, die über das gesamte Netzwerk verteilt sein können. Dies verleiht dem Netzwerk holistische Eigenschaften. Es kann von bekannten auf unbekannte Muster schließen, mit unvollständigen Daten arbeiten und anhand von Teilen eines Musters größere Strukturen wiedererkennen. Außerdem ist es unempfindlich gegen kleine Fehler. Ein neuronales Netz simuliert damit, im Gegensatz zu einem traditionellen Computer, menschliche Intelligenz (Ravn, 1995). Durch das Aufgreifen holistischer Prinzipien hat der Konnektionismus zu einem Aufleben der ansonsten stagnierenden Forschungsprogramme auf dem Gebiet der künstlichen Intelligenz geführt (Ravn, 1995). Nach einer Periode großer Euphorie über den Konnektionismus hat die Begeisterung heutzutage jedoch deutlich abgenommen. „Die Leistungen intelligenter Computer sind mit denen des richtigen Gehirns nicht annähernd vergleichbar (Ravn, 1995, S.135).“
Zurzeit werden die entscheidenden Impulse für die Schaffung künstlicher Intelligenz aus der Chaostheorie erwartet, die einen wesentlichen Beitrag zur Erforschung nichtlinearer Systeme leistet. Durch diese Theorie, so hoffen manche, könnten die kognitiven Mauern zwischen Menschen und Maschinen endgültig einstürzen (Kurzweil, 1993). Doch auch wenn dies nicht geschehen sollte, ist die Einbeziehung der Chaostheorie ein weiterer wichtiger Schritt in der Erforschung des hochkomplexen Systems Gehirn.
3. Chaostheorie
3.1 Überwindung des alten Weltbilds
„Chaos war bis vor kurzem kein Thema in den Wissenschaften (Küppers, 1997, S. 151)“. Nicht einmal für die Physik waren Wesen und Ursache des Chaos erforschenswert. Der Grund für diese Ablehnung lag nicht allein in fehlenden Analysemethoden, sondern vor allem in der Art und Weise, die Natur zu betrachten, nämlich in der Weltanschauung bzw. dem vorherrschenden Weltbild. Lange Zeit, seit Galilei, Kepler, Descartes und Newton war, war es das Ziel der Wissenschaft, hinter aller Unregelmäßigkeit der Erscheinungen die einfache Regelmäßigkeit mechanischer Gesetze zu entdecken (Küppers, 1997). Bis zur Entdeckung der modernen Chaosforschung betrachtete man sowohl Ordnung und Chaos, als auch Regelmäßigkeit und Zufall, als zwei sich einander ausschließende Prinzipien. Die Wissenschaft hatte das Ziel nach der Regelmäßigkeit und ihren Gesetzmäßigkeiten zu suchen. Dieses Vorgehen hatte durchaus seine Berechtigung und lieferte bahnbrechende Ergebnisse. Das wohl beste Beispiel für den Erfolg dieser Strategie, die allgemeinen Prinzipien der Ordnung zu finden, ist die klassische Mechanik (Küppers, 1997). Nach diesen Entdeckungen, begann die Forschungsprämisse der Wissenschaftler nach und nach Einzug in das grundlegende Denken der Menschen zu halten. Die Folge war, dass die Mechanik nicht lange auf materielle Phänomene beschränkt blieb. Bereits Descartes fasste auch biologische Erscheinungen als mechanisch-kausal auf. Seinen Nachfolgern schien auch der Mensch nicht mehr zu sein als eine komplizierte Maschine, die mechanischen Prinzipien gehorcht. „Es entwickelte sich ein universeller mechanischer Determinismus. In dieser Welt absoluter Gesetz- und Regelmäßigkeit war kein Platz für das Chaos (Küppers, 1997, S.152)“.
Aber diese Betrachtungsweise der Welt enthielt ein Problem. Zwischen der idealisierten Welt der Wissenschaft und der erlebbaren Welt lag ein himmelweiter Unterschied. Gerade wissenschaftliche Experimente, die Grundannahme der klassischen Mechanik von wiederholbar exakt einrichtbaren Ausgangssituationen, die nach bekannten Gesetzen exakt denselben Veränderungen unterworfen sind und zu identischen Resultaten führen, sind mit den Beobachtungen aus der Natur- und Sozialgeschichte unvereinbar (Küppers, 1997).
Die Chaosforschung macht die Begrenztheit des neuzeitlichen wissenschaftlichen Forschens deutlich. Durch sie wird es möglich die Irregularität der Natur nicht zwangsweise als Anomalie behandeln zu müssen, sondern zum Normalen zu erklären. Die Chaosforschung sucht nach der Regularität in der Irregularität. „Abweichungen von der Regel sind keine Dreckeffekte mehr, sondern die Ursache für Neuheit und Innovation. Einzigartigkeit und Individualität werden hervorgehoben und verschwinden nicht hinter der glatten Fassade allgemeiner Theorien (Küppers, 1997, S. 174)“. Bei genauem Hinsehen entdeckt man nun plötzlich überall hinter der Ordnung den Unruhe stiftenden Geist des Chaos. Man kommt zu der Überzeugung, dass, ist man dem Chaos erst mal auf der Spur, man es in allen Bereichen der natürlichen und sozialen Realität vorfindet. Ständig werden neue chaotische Phänomene entdeckt oder altbekannte Phänomene unter dieser Perspektive neu betrachtet (z.B. Wetter, Börse, Herz, Gehirn).
Ein Umdenken hat begonnen. Es gibt derzeit wenig wissenschaftliche Forschungsfelder, die über alle Disziplingrenzen hinweg in so raschem Wachstum begriffen sind wie die Theorien, die sich mit Chaos und Selbstorganisation befassen. Die rasante Entwicklung der Chaosforschung in den letzten 15 Jahren ist mehr als nur die Entstehung eines neuen Fachgebiets. Sie räumt mit der Weltsicht der klassischen Wissenschaft auf, welche Inseln der Ordnung – d.h. Ausnahmen – zum Gerüst des Weltbilds machte. Eine Beschreibung der Vielfalt einzig durch allgemeine Ordnungsprinzipien, ist für die neue Wissenschaftlergeneration undenkbar, denn das Universum ist eben kein Uhrwerk, der Planet keine Maschine, Lebewesen sind keine Automaten und das soziale Zusammenleben fügt sich keinem Plan (Küppers, 1997).
3.2 Geschichte der Chaostheorie
Am Beginn der Chaosforschung stand, wie so oft in Umbruchszeiten der Wissenschaft, eine Anomalie. Diese bestand in der Unmöglichkeit eine analytische Lösung für das Dreikörperproblem zu finden. Der Mathematiker, Physiker und Philosoph Henri Poincaré machte diese beunruhigende Entdeckung bereits im Ausklang des 19. Jahrhunderts auf einem Gebiet, das man als Mechanik abgeschlossener Systeme kennt.
Für ein System aus lediglich zwei Massen, die sich frei im Raum bewegen und zwischen denen nur die Massenanziehung wirkt, folgt aus dem Newtonschen Aktionsprinzip, dass die Bahnen Ellipsen sind (an der Heiden, 1997). Die Differenzialgleichungen Newtons lassen sich in diesem Fall exakt lösen. Sobald aber auch nur ein einziger weiterer Körper hinzukommt, der ebenfalls ausschließlich dem Gravitationsgesetz unterliegt, kann die Gestalt der Bahnen der drei Körper nicht mehr exakt beschrieben werden (an der Heiden, 1997).
Poincaré bewies, dass die Newtonschen Bewegungsgleichungen nicht in der Lage sind, eine analytische Lösung auf diese Frage anzubieten. Er war damit an eine Grenze des Erklärbaren gestoßen und warnte bereits Ende des 19. Jahrhunderts, dass der Reduktionismus eine Illusion sein könnte.
Auch die zweite Geburtsstunde der Chaosforschung begann mit dem Nachweis einer Unmöglichkeit: Der Meteorologe Edward Lorenz demonstrierte zu Beginn der sechziger Jahre nunmehr mit computergestützten numerischen Methoden, dass es unmöglich ist das mittelfristige Verhalten eines komplexen nichtlinearen dynamischen Systems wie dem Wetter zu bestimmen (Schiepek, 1997). Lorenz hatte eigentlich die Absicht gehabt die Eskapaden des Wetters zu studieren und versuchte mit Hilfe nichtlinearer Gleichungen die Erdatmosphäre zu modellieren. Er benutzte dazu ein gekoppeltes System von drei Gleichungen mit drei Variablen, das er mit Hilfe rekursiver Verfahren und einem Computer zu lösen begann. Als Ergebnis seiner Rechungen erhielt er drei Zahlenreihen (für die drei Variablen), die er zur besseren Anschaulichkeit als Kurven ausdrucken ließ. Zur Überprüfung der Details seiner Wettervorhersage, gab er noch einmal die Daten für Temperatur, Luftdruck und Windrichtung wie zuvor ein, rundete dabei aber die Ziffern auf drei Dezimalstellen ab, anstatt wie zuvor auf sechs (Briggs & Peat, 1995). Beide Ausdrucke des Computerwetters, die wegen der gleichen Anfangsbedingungen nahezu identisch sein sollten, zeigten nach kurzem Verlauf grundverschiedene Entwicklungsmuster. Die Iteration im Rahmen des Lösungsprozesses hatte die kleine Diskrepanz in der vierten Stelle hinter dem Komma ungeheuerlich vergrößert. Dass die Ergebnisse derart weit auseinander lagen, bedeutet, dass komplexe nichtlineare dynamische Systeme so unglaublich empfindlich sind, dass schon winzigste Details sie beeinflussen (Briggs & Peat, 1995). Das war die Geburtsstunde des mittlerweile berühmten Schmetterlingseffekts, einer Redensart, die besagt, dass schon das Flattern eines Schmetterlings in Hong Kong in New York ein Unwetter auslösen könne.
Sowohl bei Poincaré als auch bei Lorenz handelt es sich zunächst um unbeachtete Anomalien der Wissenschaft: Poincarés dämmerten Jahrzehnte vor sich hin, Lorenz' Arbeiten immerhin noch etliche Jahre, bis sie dann sprunghafte Beachtung fanden (Schiepek, 1997). Es waren diese vormals unliebsamen Störungen am Rande der Wissenschaft, die am Beginn jener Entwicklung standen, welche später in der interdisziplinären Chaos- und Selbstorganisationsforschung mündeten. Erst das Anerkennen des Unmöglichen machte letztendlich ein neues Denkens möglich (Schiepek, 1997).
3.3 Deterministisches Chaos
„ Deterministisches Chaos lässt die Vorstellungen von Ordnung und Unordnung verschwimmen (Convey & Highfield, 1994, S. 271).“
Der Begriff des deterministisches Chaos macht Ernst mit der Vorstellung, dass ein durch mathematische Gleichungen eindeutig beschriebenes (determiniertes) Geschehen durchaus den Charakter des Zufälligen und eine scheinbar völlig fehlende Ordnung zeigen kann. Es ist fast immer gemeint, wenn in wissenschaftlichem Zusammenhang von Chaos die Rede ist (an der Heiden, 1997). Deterministisches Chaos findet sich praktisch überall. In der Konvektion unserer Atmosphäre, in Wirtschaft und Politik, in Ökosystemen, im sozialen Miteinander und im Schlagen unseres Herzens.
Aber auch das neuronale Netz unseres Gehirns unterliegt mit hoher Wahrscheinlichkeit den Regeln des deterministischen Chaos (vgl. Punkt 3.4.6) – und das aus gutem Grund. Morfill & Scheingraber (1993) versuchten dies theoretisch zu begründen:
Warum eigentlich hat der Mensch ein Gedächtnis und ein Hirn, das immer neue Informationen aufzunehmen vermag und sie in Aktionen und Reaktionen umsetzt? Wäre die Welt streng deterministisch (Korrelationszeit für alle Ereignisse = unendlich lang), müsste der Mensch nur mit den Grundgesetzen der Natur programmiert sein und wäre für alle Situationen, in die er kommen könnte, bestens präpariert. Liefe das Weltgeschehen im Kleinen wie im Großen jedoch rein zufällig ab, wäre das Gedächtnis nutzlos; kein Ergebnis hätte mit dem vorherigen etwas zu tun (Korrelationszeit für alle Ereignisse = Null). Kann es nicht sein, dass das menschliche Hirn gerade so ist, wie es ist, weil die Welt chaotisch ist (Morfill & Scheingraber, 1993, S. 55)?
3.4 Die wichtigsten Charakteristika des deterministischen Chaos
3.4.1 Nichtlinearität und neues Kausalitätsprinzip
Eine der kennzeichnensten Eigenschaften von Systemen, die den Regeln des deterministischen Chaos gehorchen, ist die Nichtlinearität. Man bezeichnet ein System als nichtlinear, wenn eine Eingabe (Änderung eines Parameters, Störung, Fluktuation) nicht zu einer proportionalen Veränderung anderer Variablen führt. Solch eine Abweichung kann beispielsweise in der Welt der Aktien dazu führen, dass bereits wenige Investoren einen Börsensturz auslösen.
Auch der Volksmund kennt dieses Phänomen. Er sagt: Kleine Ursache, große Wirkung, wenn eine unwesentlich erscheinende Abweichung in einem vertrauten Ablauf zu völlig überraschenden, aber wesentlichen Änderungen führt (Morfill & Scheingraber, 1993).
„In der Natur sind praktisch alle Vorgänge nichtlinear (Morfill & Scheingraber, 1993, S. 288)“. Diese Tatsache steht allerdings in direktem Widerspruch zum Kausalitätsprinzip der klassischen Experimental-Wissenschaften, denn dieses besagt: Gleiche Ursachen haben gleiche Wirkungen. Eine der grundlegenden Forderungen der Experimental-Wissenschaften lautet aus diesem Grund auch: „Ein Experiment muss (wenigstens im Prinzip) jederzeit und überall wiederholbar sein, das heißt, es muss unter gleichen Bedingungen gleiche Ergebnisse liefern (Morfill & Scheingraber, 1993, S. 42)“. Diese Aussage erscheint auf den ersten Blick recht plausibel, aber unter gleichen Bedingungen (im mathematisch Sinne: absolut identischen Umständen) können wir ein Experiment gar nicht wiederholen. Dennoch hat sich diese Betrachtungsweise für isolierte Vorgänge als sehr nützlich erwiesen. Bei komplexen Systemen mit vielfältigen Zusammenhängen versagt sie jedoch, da es in den meisten Fällen unmöglich ist, „zwischen einzelnen Ereignissen eindeutige Ursache-Wirkungs-Verknüpfungen zu konstruieren (Morfill & Scheingraber, 1993, S. 282)“.
Ich möchte nun noch kurz auf den Ursprung des Begriffs nichtlinear eingehen. Die Bezeichnung nichtlinear wurde kontrastierend zu der besonderen Bedeutung des Begriffs linear kreiert . „Nichtlinear ist somit eine rein negative Bestimmung (Ravn, 1995, S. 169)“. Strenggenommen ist es daher falsch, das Nichtlineare als eine besondere Klasse zu betrachten. Es ist eher so, dass die Linearität, wie oben bereits erwähnt, nicht die Regel, sondern die Ausnahme darstellt. Aus diesem Grund ist eine Einteilung in lineare und nichtlineare Phänomene auch mit der irrwitzigen „Klassifizierung von Tieren in Elefanten und Nicht-Elefanten verglichen worden (Ravn, 1995, S. 169)“. Dies war und ist nach wie vor nur schwer zu begreifen, da die klassische Vorstellung davon ausgeht, dass alle Probleme grundsätzlich auf lineare zurückgeführt werden können.
Angesichts der neuesten Erkenntnisse stehen Mathematik und Physik vor einer enormen Aufgabe, da nichtlineare Probleme meist schwieriger zu lösen sind als lineare (Ravn, 1995). Mathematisch kann man versuchen, die nichtlinearen Fälle anzugehen, indem man mit komplizierten Gleichungen (partiellen Differentialgleichungen oder Differenzengleichungen) Nährungslösungen für die fundamentale mikroskopische Dynamik sucht (Ravn, 1995). Doch diese linearen Näherungen lassen all die nichtlinearen Effekte außer Acht, die zu den Phänomenen von Chaos und Selbstorganisation führen und um deren Erklärung es den interessierten Wissenschaftlern eigentlich geht (Convey & Highfield, 1994). Einen weitaus besseren Weg zur Erforschung dieser Phänomene bieten die neuesten chaosanalytische Methoden, auf die im weiteren Verlauf dieser Arbeit noch genauer eingegangen werden wird (vgl. Kapitel 4).
3.4.2 Hohe Sensitivität von den Anfangsbedingungen und Grenzen der Vorhersagbarkeit
Die sensitive Abhängigkeit von den Anfangsbedingungen ist ein weiteres wesentlichen Merkmal deterministisch-chaotischer Dynamik. Kleinste Änderungen in den Anfangsbedingungen können in solchen Systemen schon nach kurzer Zeit erhebliche Auswirkungen haben (vgl. Punkt 3.4.1) und sogar die Größe des eigentlichen Signals selbst erreichen. Dies ist allerdings keine völlig neue Erkenntnis. Sie findet sich beispielsweise bereits in einem alten amerikanischen Volkslied: Weil ein Nagel fehlte, ging das Hufeisen verloren; Wein ein Hufeisen fehlte, ging das Pferd verloren; Weil ein Pferd fehlte, ging der Reiter verloren; Weil ein Reiter fehlte, ging die Schlacht verloren; Weil die Schlacht verloren war, ging auch das Königreich verloren. (Franklin, 1758)
Gekennzeichnet ist diese Sensitivität von den Anfangsbedingungen durch ein exponentielles Auseinanderstreben benachbarter Trajektorien (Zustandsbahnen) im Phasenraum (Zustandsraum). Hierdurch ergeben sich, trotz des Determinismus der chaotischer Dynamik, grundsätzliche Schranken für die Vorhersagbarkeit eines solchen Systems (Hilker, 1998). Abbildung 3.1 soll diesen Sachverhalt anhand der Trajektoriebilder des Lorenzattraktors verdeutlichen.
Es ist nicht schwierig, weitere Beispiele für diese Art von Systemverhalten zu finden:
Betrachten wir die Wasserscheide zwischen Rhône und Rhein in den Schweizer Alpen. Ob ein Regentropfen 100 Meter südlicher oder nördlicher auf die Erde trifft, entscheidet, ob er im Mittelmeer oder in der Nordsee ankommt. Zwischen beiden Möglichkeiten existiert jedoch eine scharfe Grenze, und man kann für die Regentropfen recht genau voraussagen, ob sie nach Süden oder nach Norden abfließen werden. Im Granzbereich mag der Zufall eine gewisse Rolle spielen, aber fast überall geht alles mit rechten, will heißen, deterministischen Dingen zu (Morfill & Scheingraber, 1993, S. 43).
Im Gegensatz zu oben beschriebener Systemdynamik, verlaufen benachbarte Trajektorien im Falle nicht-chaotischer Dynamik nahe beieinander. Eine kleine Abweichung in den Ausgangsbedingungen hat hier nur eine minimale Änderung des Ergebnisses, d.h. des Systemverhaltens, zur Folge. Die Entwicklung des Systems ist aus diesem Grund gegenüber Ungenauigkeiten in den Anfangsbedingungen nicht übermäßig empfindlich (Hilker, 1998). Ein solches System wird dementsprechend immer wieder dasselbe Verhalten zeigen und ist daher vorhersagbar.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.1 Trajektoriebilder des Lorenzattraktors und das zeitliche Verhalten einer anfangs zusammenliegenden Gruppe von Startpunkten (Ebeling, 1989, S. 32).
Wichtig ist an dieser Stelle noch eine weitere Unterscheidung, nämlich die Abgrenzung des deterministischen Chaos vom stochastischen Chaos. „Deterministisches Chaos ist eine innere Eigenschaft eines Systems; es erzeugt diesen Zustand aus sich heraus (Convey & Highfield, 1994, S. 271)“. Beim stochastischen Chaos handelt es sich dagegen um den unkontrollierbaren Einfluss von zufälligen Fluktuationen aus der Umwelt des Systems.
Dieses beinhaltet in seinem Verhalten keinerlei Gesetzmäßigkeiten bzw. deterministische Struktur. Daten, welche einem stochastischen System zugeordnet werden, bezeichnet man aus diesem Grund auch als Rauschen (noise).
Doch zurück zu den Systemen des deterministischen Chaos und ihrer sensitiven Abhängigkeit von den Anfangsbedingungen. Populärwissenschaftlich wurde für dieses Phänomen, wie bereits im historischen Abriss der Chaostheorie ausführlich beschrieben (Abschnitt 3.2), der Ausdruck Schmetterlingseffekt geprägt. Besonders bemerkt sei an dieser Stelle, dass kleine Abweichungen in den relevanten Größen natürlich nicht in jedem Fall, z.B. das Wetter, verändern. Voraussetzung für die Selbstverstärkung kleiner Abweichungen beim Schmetterlingseffekt ist das Vorliegen einer instabilen Situation. Erst dann und nur dann kann eine mikroskopisch kleine Störung zu einer makroskopischen Veränderung führen. Dies soll an folgendem Beispiel von G. Küppers (1997) verdeutlicht werden:
Vorstellen kann man sich diesen Sachverhalt leicht bei einem starren Pendel, das sich in dem Gleichgewichtspunkt befindet, bei dem es exakt nach oben zeigt. Dieses Gleichgewicht ist instabil. Eine geringfügige Störung, z.B. der diskutierte Flügelschlag des Schmetterlings, lässt das Pendel zur einen oder zur anderen Seite fallen. Solange das Pendel diesen instabilen Gleichgewichtspunkt nicht erreicht, ist seine Bewegung gegenüber kleinen Störungen unempfindlich (Küppers, 1997, S.168).
3.4.3 Rückkopplung, Bifurkation, Intermittenz, Selbstorganisation und die besondere Rolle der Zeit
Ein wesentliches Element der nichtlinearen Wechselbeziehung ist das Auftreten von Rückkopplungen (engl.: Feedback). Durch diese Rückkopplungen kann dann im weiteren Verlauf ein kritischer Punkt (Bifurkation) erreicht werden. Die hieraus entstehenden Rückkopplungseffekte sind die eigentliche Ursache der bereits in Punkt 3.4.2 angesprochenen Unvorhersagbarkeit des Systems.
Beim Feedback wird ein Teil des Outputs an das System zurückgeschickt und beeinflusst dadurch wiederum das momentane Verhalten des Systems. Wenn das Systemverhalten durch Rückkopplung verstärkt wird, spricht man von positivem Feedback. Diese Art der Rückkopplung führt oft zu erheblichen Eskalationen. Ein Alltagsbeispiel für ein positives Feedback ist das plötzliche Kreischen eines Lautsprechers, wenn man ein Mikrofon, das mit ihm verbunden ist, vor diesen Lautsprecher hält. Durch eine Verstärkerschleife zwischen dem Mikrofon und dem Lautsprecher kann sich so ein kaum hörbares Geräusch in ein ohrenbetäubendes Pfeifen verwandeln. „Umgekehrt wirkt negative Rückkopplung stabilisierend, da der Output hier die Schwingungen im Verhalten des Systems dämpft. Komplexe Systeme wie ein Organismus oder eine Volkswirtschaft können zahlreiche negative wie positive Rückkopplungen in einem komplexen Zusammenspiel von Rückkopplungsschleifen aufweisen (Ravn, 1995, S. 201)“.
Die Wirkung des positiven Feedbacks jenseits kritischer Punkte lässt sich mit Hilfe eines sogenannten Bifurkationsdiagramms am deutlichsten machen (Abbildung 3.2).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.2 Bifurkationsdiagramm (erstellt mit dem Programm Feigenbaum-Draw 1.0).
Am ersten kritischen Punkt verzweigt sich das Systemverhalten zum ersten Mal (in Abbildung 3.2 liegt eine einfache Gabelung vor, doch das muss nicht so sein). Im weiteren Verlauf spalten sich die Äste weiter und weiter auf. Dies entspricht im mathematischen Sinne der Tatsache, „dass ein nichtlineares System unter exakt gleichen äußeren Bedingungen verschiedene Verhaltensweisen zeigen kann. Schließlich aber folgen die einzelnen kritischen Punkte oder Bifurkationen so dicht aufeinander, dass sich die Äste, die sich aus ihnen entwickeln, überschneiden [...] (Coveney & Highfield, 1994, S. 264)“. In diesem Bereich steht dem System ein ungeheures Spektrum an Möglichkeiten zur Verfügung (Coveney & Highfield, 1994). Sein dynamisches Verhalten wird völlig unvorhersehbar. Dies ist das deterministisches Chaos (um das sich in diesem Kapitel alles dreht).
Den kritischen Punkten kommt in diesem Zusammenhang jedoch noch eine weitere besondere Bedeutung zu. Jenseits von ihnen kann es spontane Selbstorganisation geben (Coveney & Highfield, 1994). Inmitten der unendlichen Vielfalt der Systemzustände tauchen immer wieder weiße Streifen bzw. sog. Fenster (siehe Abbildung 3.2) auf. Hierbei handelt es sich um Bereiche, in denen innerhalb des chaotischen Zustands des Systems Inseln der Regelmäßigkeit bzw. Ordnung (Intermittenzen) auftreten. Die unendliche Vielfalt des Systems hat sich in diesen Bereichen auf wenige berechenbare Zustände reduziert (Bothe & Engel, 1998). Das Systemverhalten wird somit wieder vorhersagbar.
Und es gibt noch eine weitere auffällige Eigenschaft von Bifurkationen bzw. kritischen Punkten nichtlinearer Systeme, die ein besonderes Licht auf die Rolle der Zeit wirft. „In gewisser Weise führt das Überschreiten des kritischen Punktes eine historische Komponente in das System ein (Coveney & Highfield, 1994, S. 215)“. Die Möglichkeiten verzweigen sich weiter und weiter, und welchen Weg das System gerade nimmt, hängt von der Wahl an den vorigen Verzweigungspunkten ab. „Insofern bewahrt es eine Erinnerung an die Folge von Entscheidungen entlang des Bifurkationsbaums (Coveney & Highfield, 1994, S. 215)“, denn hätte das System nicht einen bestimmten Weg durch das Bifurkationsdiagramm genommen, befände es sich nicht in seinem jetzigen Zustand.
Die entscheidende Rolle der Unbestimmtheit, mit der die zufälligen Fluktuationen die jeweilige Wahl des Weges an den kritischen Punkten festlegen, macht aus der Zeit eine innovative Kraft. Zwischen einem Zustand und dem nächsten liegt die gesamte Zukunft des Systems, im Gegensatz zu seiner Vergangenheit, in der unsicheren Hand des Zufalls (Coveney & Highfield, 1994, S. 278).
3.4.3.1 Beispiel: Die Logistische Abbildung
Eine der wesentlichen Einsichten der Chaostheorie ist nicht, dass es Chaos gibt, sondern die Feststellung, dass auch einfachste, deterministische Gleichungen sehr komplexes Verhalten produzieren können. Zur Verdeutlichung dieser Zusammenhänge wird im Folgenden die außerordentlich einfache, nichtlineare und rekursive Logistische Gleichung vorgestellt. Sie ist eine der bestuntersuchtesten Gleichungen und wurde bereits 1845 von dem Belgier Pierre Francois Verhulst (1804-1849) als Modell für Wachstumsdynamiken in Populationen vorgeschlagen.
Verhulst hatte nämlich erkannt, dass unbeschränktes Populationswachstum nicht realistisch ist, da es durch den Lebensraum, Nahrungsvorräte, Klima - und andere Faktoren - begrenzt wird. Eine Population, die durch ihr Wachstum Ihre Nahrungsreservoirs ausbeutet, begrenzt sich dadurch in den Folgegenerationen wieder selbst.
Die Funktion
Abbildung in dieser Leseprobe nicht enthalten
Formel 3.1 Logistische Funktion.
Die Werte x sind reell und aus dem Intervall [0; 1]. Der Kontrollparameter R (Geburtsrate) entscheidet über die Entwicklung des Systems, ist ebenfalls reell und kann Werte zwischen 0 und 4 annehmen.
In Abbildung 3.3 ist die Logistische Funktion für verschiedene R graphisch dargestellt.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.3 Graph der Logistischen Abbildung für verschiedene R (Institut für Physik Universität Basel, 1998).
Das Modell
Wenn man die rechte Seite der Gleichung ausmultipliziert, erhält man folgende Funktion:
Abbildung in dieser Leseprobe nicht enthalten
Formel 3.2 Ausmultiplizieren der Logistischen Funktion.
Der erste Term entspricht dem ungebremsten Wachstum, das in dieser Form exponentiell ist (Abbildung 3.4).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.4 Exponentielles Wachstum (Drakos, 1997).
Natürliche Systeme haben aber, wie bereits oben erwähnt, immer begrenzte Ressourcen. Hier kommt der zweite Term ins Spiel: Er dezimiert die Population, und zwar umso mehr, je größer sie ist. Solange x (zur Erinnerung: aus dem Intervall [0; 1]) klein ist, ist x2 noch kleiner und fällt nicht ins Gewicht.
Wächst x dagegen an, so wird auch der zweite Term größer und dezimiert die Population in zunehmendem Maße. Bei x=1 käme es sogar zu deren Ausrottung.
Das Verhalten der Logistischen Abbildung
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.5 Mögliche Entwicklungen einer Population im Lauf der Zeit gemäß der Logistischen Abbildung (Briggs & Peat, 1995).
Abbildung 3.5 zeigt 6 Beispiele möglichen Verhaltens der Logistischen Abbildung, die in 3 Gruppen eingeteilt werden können (siehe auch Tabelle 3.1):
1. Fixpunktdynamik: Für R<3 strebt das System einem Grenzwert zu, d.h. die Zahlen konvergieren gegen einen sogenannten Fixpunkt. Die Population erreicht ein Gleichgewicht (Abbildung 3.5b). Eine spezielle Stellung nimmt in dieser Gruppe der Wertebereich von 0 bis 1 ein. In diesen Fällen geht der Bestand der Tiere gegen Null und die Population stirb schließlich aus (Abbildung 3.5a).
2. Periodizität: Nach einer bestimmten Anzahl von Iterationsschritten (die sogenannte Periodenlänge) erreichen die Werte einen früheren Wert, womit sich auch alle folgenden Werte aufgrund der Determiniertheit wiederholen (Abbildungen 3.5c bis 3.5e mit unterschiedlich langen Perioden). Auch pendelt sich die Population ein, schwankt aber in Zyklen auf und ab. Periodizität findet sich vor allem von 3 bis ca. 3.56994. Auch bei höheren Werten kann periodisches Verhalten auftreten, doch wird das Chaos zunehmend vorherrschend.
3. Chaos: Übersteigt k auch den Wert 3.56994 scheinen die auftretenden Werte völlig ungeordnet und kein Wert kommt ein zweites Mal vor (Aperiodizität) (Abbildung 3.5f). Das Populationverhalten ist völlig außer Kontrolle und findet keinen Attraktor. Es ist mit anderen Worten chaotisch. Bei R = 4 ist das Chaos gewissermaßen perfekt, doch bei kleineren Werten finden sich immer wieder periodische Fenster der Ordnung (Abbildung 3.6). In dem chaotischen Bereich der Gleichung, also bei k > 3,56994, ist eine enorme Sensitivität gegenüber den Ausgangswerten von x gegeben (Schmetterlingseffekt, vgl. Abschnitt 3.2). Die Abhängigkeit von den Anfangsbedingungen ist so stark, dass, obwohl die Zahlen theoretisch streng bestimmt sind, bei jeder Berechnung, in Abhängigkeit vom verwendeten Rechner, unterschiedliche Werte resultieren. Schon kleinste Abweichungen in den Nachkommastellen gerundeter Zwischenwerte führen zu völlig unterschiedlichen Zahlenfolgen.
Abbildung in dieser Leseprobe nicht enthalten
Tab. 3.1 Die verschiedenen Verhaltensweisen der Logistischen Abbildung (Schamanek, 1998).
Der Weg ins Chaos (Bifurkationen)
Um die Aufteilung in endliche zyklische Lösungen und den Verlauf ins Chaos hervorzuheben hat sich das Birfurkationsdiagramm (Abbildung 3.6) von Mitchell Feigenbaum (1978) bewährt. Das sogenannte Feigenbaumszenario zeigt das gesamte Verhaltensspektrum der Verhulstgleichung bei Veränderung des Kontrollparameters R.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.6 Bifurkationsdiagramm der Logistischen Abbildung (Schamanek, 1998).
In der Abbildung sieht man links mehrere Zeitreihen von je 17 Iterationen. Sie wurden alle mit demselben R=3.3, jedoch mit verschiednen Startwerten, berechnet. Wie erwartet beschränkt sich das Verhalten (s.o.) auf eine Zweier-Periode. Die zwei Werte der Periode finden sich als Startwerte des Bifurkationsdiagramms (Abbildung 3.6 rechts) bei R = 3.3 wieder.
Das Birfukationsdiagramm (Abbildung 3.7) zeigt (bei größer werdendem R) sehr schön den Weg ins Chaos: Der erste Teilungspunkt liegt bei R = 3, weitere bei R ≈ 3.449, R ≈ 3.544 und R ≈ 3.564. Zu Beginn findet man eine Zweier-Periode, dann eine Vierer-Periode usw. Feigenbaum erkannte in diesem Systemverhalten das Prinzip der Periodenverdoppelung (Abbildung 3.7: d1, d2, usw.).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.7 Periodenverdoppelung (Dreier, 2000).
Doch die Äste teilen sich nicht etwa regelmäßig weiter: Mit wachsendem R kommen die Bifurkationen in immer kürzeren Abständen, um schließlich sehr plötzlich bei ca. 3,56994 ins Chaos zu münden. Besonders verblüffend ist die Tatsache, dass mitten im Chaos wieder Fenster der Ordnung auftauchen, an welchen wieder nur wenige Grenzwerte bzw. Fixpunkte auftreten.
Dass es sich beim Feigenbaumdiagramm um ein Fraktal handelt, ist offensichtlich: Es ist selbstähnlich (man betrachte die vergrößerten Ausschnitte 1 und 2 in Abbildung 3.7) und es ist unendlich komplex.
Im weiteren Verlauf seiner Untersuchungen stellte Feigenbaum fest, dass in etlichen mathematischen Vorgängen periodenverdoppelnde Bifurkation auftritt. Auch zeigte er, dass sich ähnliche Diagramme bei der Iteration beliebiger quadratischer, aber auch trigonometrischen Funktionen, ergeben. Besonders interessant ist, dass Feigenbaum bei seinen Betrachtungen auf eine neue, universelle, mathematische Konstante stieß, die sogenannte Feigenbaum-Konstante δ. Betrachtet man die Abstände von zwei Bifurkationspunkten so strebt der Quotient dk / dk+1 gegen den Grenzwert 4.669202. Dieser stellte sich als Konstante heraus, die für eine Vielzahl von Iterationsproblemen, Differentialgleichungssystemen und auch für physikalische Vorgänge, etwa bei dreidimensionalen Schwingungssystemen, gilt.
Doch wenn bereits eine so einfache Gleichung Chaos produzieren kann, gilt das erst recht für kompliziertere Systeme mit vielen Freiheitsgraden. Kleinste Veränderungen können unvorhersehbare Folgen haben (vgl. Schmetterlingseffekt, Abschnitt 3.2). So könnte u.U. auch die Schadstoffbelastung unserer Atmosphäre zu chaotischen Schwankungen des Klimas führen. Die Untersuchung chaotischer Systeme sollte aus diesem Grund zu einem Prozess des Umdenkens in unserer Betrachtung der Welt führen.
3.4.4 Geometrische Betrachtung des deterministischen Chaos
3.4.4.1 Phasenraum
Mit Hilfe eines Phasendiagramms kann man die qualitativen Merkmale eines dynamischen Systemverhaltens in einer einfachen graphischen Darstellung (dem sogenannten Phasen- oder Zustandsraum) darstellen. Die Koordinaten des Phasenraums entsprechen den Dimensionen, welche die Eigenschaften des Systems beschreiben. Jeder Punkt im Zustands raum entspricht einem bestimmten Zustand des gesamten Systems. Im Zeitablauf ergeben die repräsentativen Punkte eine Kurve, welche die Entwicklung des gesamten Systems darstellt. Zu bemerken wäre noch, dass sich die Kurven im Zustandsraum nicht schneiden können, da in einem Schnittpunkt die weitere Bewegung des Systems nicht mehr eindeutig bestimmt wäre (Morfill & Scheingraber, 1991).
Am Verhalten des einfachen Pendels (Schwingung in einer Ebene – Abbildung 3.8) soll beispielhaft gezeigt werden, wie man ein Phasendiagramm erstellt. Die Bewegung des Pendels kann man in diesem Fall in einem Orts-Geschwindigkeits-Diagramm darstellen. Bei einem einfach periodisch schwingenden Pendel benötigt man hierzu eine Orts- und eine Geschwindigkeitskoordinate (Morfill & Scheingraber, 1991). Der Zustand der Pendelkugel in jedem beliebigen Augenblick kann durch einen Punkt im Phasendiagramm dargestellt werden (Davies, 1993).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.8 In einer Ebene schwingendes Pendel (Dreifert, 2001).
Wenn man die Dämpfung durch Reibung vernachlässigt (Pendel im Vakuum) und über einige Zeit die Messwerte, x für den Ort und v für die Geschwindigkeit, in das Diagramm einzeichnet (Abbildung 3.9), erhält man für diesen einfach periodischen Prozess eine geschlossene Kurve (Briggs & Peat, 1995). Diese entspricht den dynamischen Eigenschaften des Pendels im Zustandsraum. „Die Umlaufzeit des Systems auf dieser Kurve entspricht der Schwingungsdauer bzw. der Periodendauer (Briggs & Peat, 1995, S. 47-48)“.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.9 Dynamische Eigenschaften des Vakuum-Pendels im Zustandsraum ( Pädagogisches Institut der deutschen Sprachgruppe, 2000).
Wenn nun eine Reibung eingeführt wird, verliert das Pendel stetig Energie. Schließlich kommt es in der Gleichgewichtslage, senkrecht unter dem Aufhängungspunkt, zur Ruhe.
Der repräsentative Punkt beschreibt in diesem Fall eine Spiralbewegung (Abbildung 3.10) nach innen und strebt einem bestimmten Punkt im Phasenraum zu, dem sogenannten Attraktor (Briggs & Peat, 1995).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3.10 Dynamische Eigenschaften des Pendels (mit Reibung) im Zustandsraum (Lichtenegger & Tusini, 2000).
3.4.4.2 Attraktoren (Punktattraktor – Grenzzyklus – seltsamer Attraktor)
Ein Attraktor ist die geometrische Struktur im Phasenraum, die aus allen Zuständen besteht, die ein dynamisches System annehmen kann (vgl. 3.4.4.1 Phasenraum). Die Dimension des Zustandsraums ist immer größer als die Dimension des Attraktors, der in diesen eingebettet ist. Auch die Menge der Start- oder Anfangszustände (Anziehungs- bzw. Attraktionsbereich), aus denen alle Zustände des dynamischen Systems im Laufe der Zeit auf den Attraktor führen, ist größer als der Bereich des Attraktors selbst.
„Generell kann die Systemdynamik entweder dauernd stabil bleiben, oder aber sich in verschiedenartigen Mustern bzw. Attraktorzuständen stabilisieren. (Ciompi, 1997, S. 192)“.
Der einfachste Fall eines Attraktors, ist der Punktattraktor oder Fixpunktattraktor (Abbildung 3.11). Das System kommt in diesem Fall letztlich gänzlich zum Stillstand, d.h. die Bahn im Phasenraum bewegt sich, u.U. über einen langen Zeitraum, einem bestimmten Punkt zu. Ein Beispiel für ein derartiges System ist das einfach periodische Pendel mit Reibung (spiralförmiger Attraktor – Abbildung 3.10). Ein anderes Beispiel ist ein hüpfender Ball, der ganz allmählich auf einem Punkt am Boden zur Ruhe kommt.
[...]
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.