Willkommen! Anmelden Ein neues Profil erzeugen

Erweiterte Suche

Chaostheorie und Statistik?

geschrieben von Lalelu 
In diesem Forum können zur Zeit keine Beiträge verfasst werden. Bitte versuche es später noch einmal.
Chaostheorie und Statistik?
24. September 2004 21:10
Ich werde demnächst meine Facharbeit in Mathematik in Angriff nehmen und habe mir überlegt über die Chaotheorie zu schreiben, jetzt stellt sich bei mir die Frage ob man evtl. statistik und chaostheorie verknüpfen kann? und wenn wie? ich bin dankbar für jede anregung und idee ...

vielen dank im voraus :-)
Re: Chaostheorie und Statistik?
28. September 2004 12:10
Hilft das?

Title: The world according to Renyi: thermodynamics of multifractal systems
Author(s): Jizba P, Arimitsu T
Source: ANNALS OF PHYSICS 312 (1): 17-59 JUL 2004

Re: Chaostheorie und Statistik?
28. September 2004 13:06
Danke sehr lieb ..
Aber hilft mir leider nicht wirklich weiter :-(
Re: Chaostheorie und Statistik?
28. September 2004 13:37
Schade... :-(
Re: Chaostheorie und Statistik?
28. September 2004 21:14
hmm etwas unübersichtlich .. und auf deutsch wärs mir lieber .

trotzdem danke :-)
Re: Chaostheorie und Statistik?
28. September 2004 23:25
Vielleicht kann man den Ljapunov Koeffizienten als statistischen Wert ansehen ?
Oder wie waere es mit statistischer Selbstaehnlichkeit ?
http://www.chaostheorie.de/read.php?f=1&i=1520&t=1520



Beitrag bearbeitet (29.09.04 01:42)
Re: Chaostheorie und Statistik?
29. September 2004 14:21
Ich bin noch Anfänger in dem Gebiet und die Sachen, die ich gefunden habe, sind sicher unvollständig. Da ich das Thema aber ziemlich interessant finde, hier mal ein paar Gedanken dazu:

Grundlage: herkömmliche Boltzmann-Statistik:
Alle möglichen Zustände des Systems sind a-priori gleichwahrscheinlich und spannen den Phasenraum auf.
Ein MAKROSKOPISCHER Zustand ist wahrscheinlicher als ein anderer, wenn es mehr MIKROSKOPISCHE Realisierungen dafür (also ein größeres Phasenraumvolumen) gibt.
Im diksreten Fall zählt man die Zustände mit Hilfe der Kombinatorik einfach ab (im kontinuierlichen Fall wird über das Phasenraumvolumen integriert) - und landet bei der Shannon-Boltzmann-Entropie:

S=-Summe_i p_i * ln (p_i)

(p_i Wahrscheinlichkeit eines Zustandes i)

(Das Ziehen des Logarithmus ist mehr oder weniger willkührlich um die Gleichung in eine schöne Form zu bringen. Der ln verändert nicht die Lage des Maximums.)
Am wahrscheinlichsten findet man das System in einem makroskopischen Zustand, in dem S maximal ist.

Anmerkung: Die "Homogenität" des Phasenraumes (also alle Mikrozustände gleichwahrscheinlich) muss a priori angenommen werden (das definiert gleichzeitig den Begriff des Gleichgewichts). Einerseits darf kein Phasenraumpunkt von vornherein gegenüber den anderen ausgezeichnet sein, andererseits muss auch die DYNAMIK des Systems dafür Sorge tragen, dass der ganze Phasenraum erreicht wird. (ideales Chaos sozusagen) Die gute Übereinstimmung mit dem Experiment gilt letztendlich als Rechtfertigung für den Gleichverteilungssatz.

Bei einigen Systemen gibt es aber Attraktoren im Phasenraum - und es sind nicht alle Punkte gleichberechtigt. Kann man trotzdem die obigen Konzepte der Statistik auf solche System anwenden?

Ansatz 1 (Ref. oben)
Zur Vorgeschichte: Es gibt noch eine Verallgemeinerung der Shannon-Boltzmann-Entropie, die nicht aus stochastischen Überlegungen heraus erfunden wurde, sondern aus etwas allgemeineren Axiomen über die Eigenschaften einer Informationsentropie abgeleitet wurde: die Renyi-Entropie. (es gibt noch andere Entropien, die Renyi-Entropie ist wohl die Allgemeinste...) Das Dumme ist nur, das man noch nicht so richtig weiß, was die Renyi-Entropie eigentlich bedeutet und wofür man sie gebrauchen könnte. In dem Paper oben versuchen die Autoren unter anderem zu zeigen, dass in einem multifraktalen Phasenraum (also chaotisches physikalisches System) die Renyi-Entropie besonders gut geeignet ist, das System zu beschreiben. (Als Speziallfall enthält sie dann die Shannon-Boltzmann-Entropie)

Anstatz 2
hier:
C. Beck, E.G.D. Cohen, Physica A 322 (2003) 267 – 275
heißt Superstatistik, hat aber mit Fraktalen usw. nicht direkt zu tun. Die Idee ist, chaotische System mit großen Fluktuationen (zB. von Druck und Temperatur) durch Zerlegung in Teilsysteme mit lokal wohldefinierten Bedingungen zu zerlegen und dann über diese Teilsysteme zu mitteln (Teilsystem beschrieben durch Boltzmannstatistik + Statistik der Teilsysteme = Superstatistik)
Die Ljupanov-Zahl als statitischen Wert aufzufassen wäre sicher auch eine Art Superstatistik.

Ok. Das war der Zugang zum Chaos aus der Richtung der Statistik. Zu der anderen Richtung gehören vielleicht die Lévy-Flüge (Lévy-Statistik). Da kann ich aber noch nichts dazu sagen. Der grundlegende Unterschied dieser beiden Herangehensweisen scheint zu sein, dass im ersteren Fall die Bewegungsgleichungen keine direkte Rolle spielen, während im zweiten Fall ganz konkret die Dynamik analysiert wird.

Grüße,

Peter
Re: Chaostheorie und Statistik?
30. September 2004 19:00
Ob das nicht bischen zu "heavy" fuer eine Facharbeit ist :-) ?
Vielleicht kann Lalelu ja aber ein paar Stichworte aus Deinem Thread aufnehmen. Den shannonschen Informationsgehalt mit dem Ljapunov Koeffizienten vergleichen (sind sich ja auch aehnlich) waere vielleicht etwas interessantes fuer so eine Facharbeit. ... oder
Fuer den Ljapunov muss dieUebertragungsfunktion differenziert werden,also bekannt sein. Koennte man aber auch numerisch differenzieren. Eine Fehleruntersuchung hierzu waere sicherlich auch Interessant. Ist der Fehler nicht zu gross koennte man dann fuer beliebige Prozesse den Ordnungsgrad bestimmen. Spielen die boesen Onkelz z.B. ordentlicher als Bach :-)
ciao
richy
Re: Chaostheorie und Statistik?
30. September 2004 22:03
Etwas zu "heavy" .. bingo. genau richtig :-)
aber dennoch viele vielen dank für die mühe, versuch grad die für mich relevanten punkte rauszuarbeiten.

Danke

lg
lalelu
"Facharbeit" heißt Gymnasium?

Sorry, da war ich wirklich ein bisschen schnell. ;-)

Eine Vorstellung vom Shannonschen Informationsbegriff (leichter) oder vom Ljupunov Koeffizienten (meiner Meinung nach schwieriger) zu bekommen, sollte aber drin sein - was meinst Du, Richy?

Wie wärs mit dem Informationsgehalt eines Buchstaben im Deutschen (man könnte noch mit anderen Sprachen vergleichen).

Grüße,

Peter
Re: Chaostheorie und Statistik?
01. October 2004 15:14
aeeeeeeeeee
haette demnach wohl wenig Informationsgehalt :-) Nicht nur wegen der hohen Auftrittswahrscheinlichkeit der Vokale.

@lalelu
Informationsgehalt einer Nachricht n
I(n) = - log2 p(n)
Dabei ist p die Wahrscheinlichkeit mit der die Nachricht auftritt.
E in unserer Sprache z.B. 17.48% p(E)=0.1748
http://www.blankenburg.de/gat/pages/fach/info/analyse2.htm
Der Infogehalt von E ist damit -log(0.1748)=2.516222910
Das Auftreten eines v ist informativer : 3.411195433

So etwas koennte man auch mal fuer Werteklassen der logistischen Abbildung bestimmen.
Interessanter waere da vielleicht noch die Entropie:
H=-sum(i=1..n,p(i)*log2 p(i)
hmmm die wird im Gegensatz zum Ljapunov Exponenten aber wohl
stets positiv sein.

L=sum(i=0.. , ln(Betrag(df(xi)/dx)) )
Ist sich formal doch nicht so sehr aehnlich.
Waere trotzdem mal huebsch beide Kennwerte fuer die logistische Abbildung zu vergleichen.

ciao
richy



Beitrag bearbeitet (01.10.04 15:16)