Page 7
Spinperkolation.
Wir werden die Berechnung der kritischen Interaktion f ur Spinperkolation in einem Bernoulli-Feld auf den Kanten rekapitulieren und dann zeigen, daa die Existenz eines Perkolationspfades nur von der Interaktionsst arke des Modells und nicht von etwaigen Randbedingungen abh angt. Dabei kombinieren wir Ergebnisse aus zwei Arbeiten von Lyons und die Erkenntnis, daa Broadcasting-Modell und freies Ising-Modell identisch sind. Wir erhalten so einen neuen, uber die kritische Interaktion f ur Spinperkolation in der Plus-einfachen Beweis
Phase des Ising-Modells, die Lyons bereits in 7] berechnet hat.
1.2 Aufbau der Arbeit
In Kapitel 1 beschreiben wir kurz die Strukturen und Begriie, die wir in den sp ateren Beweisen verwenden werden. Es handelt sich dabei um Anleihen aus den elektrischen Netzwerken auf B aumen, Perkolationen auf B aumen und den Gibbs-Maaen und Markov-Feldern. Wir zitieren einige Ergebnisse, auf die wir uns sp ater beziehen werden.
Das zweite Kapitel stellt einige Hilfsmittel aus der Informationstheorie zusammen. Wir f uhren in Deenition 16 den zentralen Begrii der gegenseitigen Information von Zufallsvariablen ein, der als ein Abstandsbegrii f ur zwei Verteilungen verstanden werden kann. Wir werden die gegenseitige Information mit einem zweiten Abstandsbegrii, einer symmetrisierten Form des 2 Ab-stands, vergleichen.
In Deenition 17 werden wir einen Dominanzbegrii f ur Paare von Zufallsvariablen einf uhren, der sich a n d e m v on Peres et al in 11] f ur B aume eingef uhrten Dominanzbegrii orientiert und der es uns erm oglichen wird, die gegenseitige Information zwischen Zufallsvariablen abzusch atzen.
Der Kern der Arbeit bendet sich in Kapitel 3. Hier wird das Broadcasting-Modell eingef uhrt und charakterisiert. Wir zeigen in Satz 12, daa es eine kritische Interaktion f ur Information zwischen Spin der Wurzel und den Spins der Krone gibt. Weiterhin zeigen wir, daa Broadcasting-Modell und Ising-Modell mit freien Randbedingungen gleich sind, wenn man die Modellparameter geuberf uhrt. Wir berechnen in Satz 15 die kritische Interaktion eignet ineinander
f ur Phasen ubergang und vergleichen diese in Satz 16 mit der kritischen Interaktion f ur Informationssuu.
Page 9
Kapitel 2
Zuf allige Prozesse auf
B aumen
2.1 Bezeichnungen
Mit T = (K T E T ) wird, sofern nicht ausdr ucklich anders gesagt, stets ein verwurzelter, lokal endlicher Baum mit Knotenmenge K T und Kantenmenge E T bezeichnet. Lokal endlich bedeutet hier, daa jeder Knoten 2 T nur endlich viele Nachbarn hat. Es gebe einen ausgezeichneten Knoten in T, die Wurzel des Baumes, die mit r bezeichnet wird. sind stets Bezeichnungen f ur Knoten des Baumes, Kanten werden mit e 1 e 2 usw. benannt. F ur zwei benachbarte Knoten und sei e ( ) die Kante zwischen und . F ur A K T deenieren wir den Rand @Avon A als:
@A:= f 2 (K T n A) : 9 2 A mit e ( ) 2 E T g
Die Menge der endlichen Teilmengen von K T bezeichnen wir mit C(T). F ur eine endliche Teilmenge B sei #B die M achtigkeit der Menge.
Eine in r startende maximale Folge benachbarter Knoten, in der kein Knoten mehrfach vorkommt, bezeichnen wir als Ast. Sofern nicht anders gesagt, werden wir uns stets mit B aumen befassen, die keine endlichen Aste haben.
Ist T endlich, so bezeichnen wir die Krone von T als @T. Die Krone ist dabei die Menge aller Knoten in T, die, von der Wurzel aus gesehen, keine Nachfolger in T haben. Einen Knoten der Krone bezeichnen wir als Blatt.
Page 11
F ur Kanten e 2 E T deenieren wir den Abstand von der Wurzel als:
) j = j ; je ( ; j
Mit diesem Abstandsbegrii l aat sich die Menge der Nachbarn von als
jj ; j j = 1 g
N() : = f 2 K T : (2.1)
schreiben. ^ N() s e i N() f g.
gemeinsam hat, wird als Cutset bezeichnet.
Eine spezielle Art von Cutsets sind die Sph aren. F ur n 2 N wird die n-Sph are von T deeniert als:
T n := f 2 T j j j = ng
Zu jedem Cutset ist das Innere (< ) K T deeniert als die Menge der Knoten, die zwischen der Wurzel r und den Knoten von liegen. ( ) wird auf naheliegende Weise als ( ) := (< ) deeniert. F ur 2 K T ist T T der Teilbaum von T mit Wurzel .
Die wichtigste Kenngr ooe eines Baumes T im Rahmen des stochastischen Modells, das hier betrachtet wird und weit dar uber hinaus ist die Branching-Number brT . Sie wurde von Russel Lyons in 7] eingef uhrt und kann als mittlere Kantenzahl pro Knoten verstanden werden. Wir geben hier eine Denition unter Verwendung von Cutset-Summen an und beschreiben sp ater einige wichtige Zusammenh ange zu anderen Prozessen auf B aumen.
Deenition 1. Gegeben sei ein lokal endlicher Baum T. Die Branching-NumberbrT ist deeniert als
( )
X
2.2 Elektrische Netzwerke
Ein Modell, aus dem wir einige Anleihen machen werden, ist das der elektrischen Netzwerke auf Graphen, wie sie zum Beispiel in 2] und 9] betrachtet werden. Wir f uhren die sp ater auftretenden Gr ooen ein und zitieren die Aussagen, die wir verwenden werden. Da wir uns nicht mit Irrfahrten auf Graphen
Page 16
Eine wichtige Frage ist, ob die Energie eines Flusses endlich ist. Als letztes Ergebnis geben wir einen Satz an, der hierzu eine Aussage macht.
Satz 4 ((9],Proposition 14). Sei (T C ) ein elektrisches Netzwerk und seien
P n1 w n < 1. Weiterhin sei j ein Fluu auf T
w n positive reelle Zahlen mit mit der Eigenschaft j(e) w jej . Dann hat j endliche Energie:
X j(e) 2 R(e) < 1 E(j) = e2E T
2.3 Perkolationen
Ein elementarer Prozee auf einem Baum ist der der Perkolation. Wir werden uns hier ausschlieelich mit Bond-Perkolationen befassen. Man versteht anschaulich u n ter einer Bond-Perkolation eines Baumes T das Entfernen von Kanten.
Bei unendlichen B aumen stellt sich im Zusammenhang mit einer Perkolation die nat urliche Frage, ob es im perkolierten Baum noch unendlich grooe Zusammenhangskomponenten gibt, insbesondere, ob es noch einen unendlichen Pfad von der Wurzel aus gibt. Existiert ein solcher Pfad, so sagt man, daa Perkolation statttndet. Wir deenieren also: E) : ^ Deenition 7. Sei T ein Baum. T := f(K T ^ E E T g sei die Menge
aller Teilgraphen von T, die alle Knoten aus T haben. P sei ein Wahrscheinlichkeitsmaa auf T . Dann heiit (T P) eine Perkolation von T. F ur 2 K T sei ^ T die Zusammenhangskomponente von in ^ T. Weiterhin
sei f ur 2 K T das Ereignis ( $ ) deeniert als:
( $ ) : = f ^ T : 2 ^ T 2 ^
Wie bereits gesagt, k onnen wir uns ein ^
(zuf allig) Kanten entfernt w erden.
Eine der einfachsten Perkolationen ist die Bernoulli-Perkolation, bei der jede Kante unabh angig mit gleicher Wahrscheinlichkeit entfernt wird.
Deenition 8. Wir nennen eine Perkolation (T P ps ), b ei der jede Kante mit Wahrscheinlichkeit 1;p s unabh angig von allen anderen Kanten entfernt wird,
eine Bernoulli-Perkolation auf T mit Uberlebenswahrscheinlichkeit p s .
Page 17
Ein elementarer Zusammenhang zwischen einer Bernoulli-Perkolation auf einem Baum und dessen Branching-Number wurde in 7] hergestellt. Es ist der folgende
Satz 5 ((7], Theorem 6.2). Sei T ein lokal endlicher Baum ohne endliche Aste und seien (T P ps ) p s 2 R, eine Familie von Bernoulli-Perkolationen auf T mit den Uberlebenswahrscheinlichkeiten p s . Weiterhin sei:
p c := p c (T) = supfp s : P ps j ^ T r j = 1] = 0 g
Dann gilt:
p c (T) = 1
(2.11)
brT
2.4 Markov-Felder und Gibbs-Maae
uber Gibbs-Maae und Markov-
Felder zusammen, die aus 10] und 6] entnommen wurden.
Im Rahmen dieser Arbeit werden wir uns im wesentlichen mit zuf alligen Belegungen auf den Knoten eines Baumes T besch aftigen. Dabei wird jedem Knoten 2 T e i n e a l s Spin bezeichnete Zufallsvariable u 2 f ; 1 +1g zuge-ordnet. F ur A K T bezeichnen wir die Menge aller m oglichen Belegungen als U A := f;1 +1g A .
F ur A B K T sei AA B] deeniert als die Menge der Belegungen auf T, die auf A den Wert +1 annehmen und auf (B n A) den Wert ;1 annehmen:
AA B] : = fa 2 U K T : ae A +1 a e (BnA) ; 1g
Weiterhin sei A] die Menge der Konngurationen, die auf A den Wert +1 annehmen:
A] : = fa 2 U K T : ae A +1g
Ist B 2 C (T), so bezeichnen wir AA B] als endlichdimensionalen Zylinder. F ur a 2 U A b 2 U B schreiben wir kurz (aa b) f ur die Konnguration aus U A U B mit (aa b)e A = a und (aa b)e B = b
Wir werden nun U K T eine topologische Struktur geben. Dazu versehen wir
Page 35
Kapitel 4
Das Broadcasting-Modell
Wir f uhren in diesem Kapitel ein Modell ein, das das eigentliche Objekt unserer Untersuchung ist und nennen mehrere S atze, die sein Verhalten charakterisieren. Einige l angere Beweise haben wir in das n achste Kapitel verbannt.
4.1 Grundlegende Eigenschaften des Modells
Das folgende stochastische Modell wird in 11] eingef uhrt. Es gibt verschiedene anschauliche Interpretationen des Modells, die wir im folgenden erl autern werden.
Deenition 18. T sei ein lokal endlicher Baum, der nur unendliche Aste
hat, und sei eine als Fehlerwahrscheinlichkeit bezeichnete reelle Zahl mit 0 < < 1 2 . Jeder Kante e 2 E T wird eine f+1 ;1g-wertige Zufallsvariable e zugeordnet. Die e seien stochastisch unabh angig und es gelte f ur alle e 2 E T :
Jedem Knoten 2 K T wird eine als Spin bezeichnete Zufallsvariable u mit Werten in f;1 +1g zugeordnet. Der Spin der Wurzel sei dabei uniform verteilt. F ur jeden Knoten 2 K T 6 = r gelte weiterhin:
Y u = u r e (4.1) e2P f a d (r)
A sei die von den endlichdimensionalen Zylindermengen erzeugte -Algebra auf U K T . (U K T A P)heiit dann Broadcasting-Modell mit Fehlerwahrscheinlichkeit .
Page 44
Korollar 3. Im Broadcasting-Modell auf T mit Interaktionsst arke gilt f ur alle 2 K T :
l(xxy);o(xxy)
Dabei ist x 2 f ; 1 +1g a 2 f ; 1 +1g K T n und y = ae N() .
4.3 Kritischer Parameter f ur Informationssuu
Wie wir bereits gesehen haben, ist die Fehlerwahrscheinlichkeit ein Maa daf ur, wie stark die Interaktion zwischen benachbarten Knoten ist. In unserem Modell stellt sich die Frage, wie stark die Interaktion mindestens sein muu, damit weit entfernte Gebiete noch Einnuu aufeinander nehmen. Diese
Page 46
4.4 Das Ising-Modell
Wie bereits angedeutet gibt es eine g anzlich andere Darstellungsm oglichkeit des Broadcasting-Modells. Es ist dies das Ising-Modell auf T, wie es zum Beispiel in 7] betrachtet wird.(Die in 7] auftretenden Konstanten J und k, die f ur die von uns betrachteten Ph anomene keine Bedeutung haben, haben wir zu 1 normiert).
Gegeben sei ein Baum T und eine als Temperatur bezeichnete positive reelle Zahl t. Den Knoten des Baumes sind f;1 +1g-wertige Zufallsvariablen zugeordnet. Auuerdem sei c : K T K T ! f 0 1g deeniert als:
8
> <
Wir deenieren zun achst, was die Energie einer Konnguration sein soll. Sei A C (T) und a 2 U A . Dann ist die Energie von a deeniert als: X
H(a) : = 1
ae ae c( ) (4.17)
2t
2A
H ist ein n achstes Nachbarschaftspotential auf T, denn nur benachbarte Spins tragen zur Energie einer Konnguration bei. H ist demnach geeignet, um ein Gibbs-Maa zu deenieren, was wir auch tun werden. Zun achst wollen wir aber noch z w ei Eigenschaften von H erw ahnen.
Vergleicht man die Energie von zwei Konngurationen, die sich nur dadurch unterscheiden, daa die Vorzeichen der Spins vertauscht sind, sieht man, daa H ihnen die gleiche Energie gibt. H ist damit ein Ising-Potential ( v g l . 1 0 ] S . 5 7 oder3], S. 50). Weiterhin wird H maximal, wenn alle Knoten in A gleichen Spin haben. Das Potential modelliert in diesem Sinne ein attraktives System. Dieser Tendenz wirkt der Einnuu der Temperatur entgegen. Die Baumstruktur erm oglicht es uns, die Energie von Konngurationen auf T n k urzer aufzuschreiben. F ur a 2 U T n gilt: X
H(a) = 1
ae ae ;
t
r6 =22T n
Wir werden nun das Ising-Modell mit freien Randbedingungen auf T einf uhren. Dabei gehen wir vor wie in Lemma 1.
Page 53
gilt: X
Pu A = a] = Pu T m = b]
Die Wahrscheinlichkeiten aller endlichen Konngurationen sind demnach u n ter uberf uhren.
Nach Korollar 1 werden P und P 0 durch die Gewichte solcher Konngurationen festgelegt, und sind damit gleich.
Es gibt also keine zwei Modelle, sondern lediglich z w ei Darstellungen eines Modells. Das Broadcasting-Modell liefert eine neue Darstellung des Ising-Modells mit freien Randbedingungen. Wir werden in einigen folgenden Rechnungen sehen, daa die Beschreibung als Broadcasting-Modell einige Vorteile bietet, die in der Unabh angigkeit der Zufallsvariablen auf den Kanten begr undet ist. Besonders bei der Untersuchung von Spinperkolation wird uns dies sehr hilfreich sein.
Von nun ab unterscheiden wir nicht mehr zwischen P und P 0 sowie zwischen und 0 , u n d w echseln die Darstellung je nach betrachtetem Aspekt.
4.5 Kritischer Parameter f ur Phasen ubergang
Eine wesentliche Frage im Ising-Modell ist, ob Phasen ubergang vorliegt. Ein sicheres Indiz f ur Phasen ubergang sind nach Satz 8 unterschiedliche Wahrscheinlichkeiten des Spins in der Wurzel in der Plus- und in der Minus-Phase. Das k onnen wir als Einnuu der +1 bzw. ;1-Randbedingungen am Rand von T i n terpretieren. Dies ist die zweite Version des Begriis Einnuu haben.
Wir deenieren Minus- und Plus-Phase des Ising-Modells. Dabei gehen wir vor wie bereits in Deenition 20.
Page 56
ist. Damit gilt:
t c = t( ccP )
Wir interpretieren Satz 15 so, daa f ur Interaktionsst arken unterhalb von ccP die Wahrscheinlichkeit eines Spins in der Wurzel in der Plus-Phase gleich der Wahrscheinlichkeit ohne Vorgabe einer Randbedingung ist. In diesem Sinne hat der Rand f ur < ccP keinen Einnuu auf die Wurzel . F ur > ccP gibt die Plus-Phase den Spins in der Wurzel eine andere Wahrscheinlichkeit als P. Wir verstehen dies so, daa die Randbedingung \Rand +1" hier Einnuu auf den Spin der Wurzel aus ubt.
uber
eine kritische Schwelle f ur Phasen ubergang. Dies halten wir in folgendem Korollar fest:
Korollar 7. Die oben angegebenen kritischen Parameter t c und ccP sind kritisch f ur Phasen ubergang im Ising-Modell auf T.
4.6 Vergleich der kritischen Interaktionsst arken
Nun werden wir die beiden Arten der Einnuunahme des unendlich w eit entfernten Randes auf die Wurzel miteinander vergleichen. Dazu stellen wir zun achst die kritischen Interaktionsparameter gegen uber. Dies wird uns dabei helfen, die Unterschiede der Einnuunahmen zu erkennen.
Page 59
4.7 Spinperkolation
Wir werden nun das Ph anomen der Spinperkolation im Broadcasting-Modell untersuchen. Darunter verstehen wir die Existenz eines Pfades, der in der Wurzel startet, bis zum Rand reicht und nur Knoten gleichen Spins besucht. Es stellt sich die Frage, ob die Wahrscheinlichkeit dieses Ereignisses durch die Vorgabe von Randbedingungen beeinnuut wird.
Es ist auf einfache Weise m oglich, einen Zusammenhang zwischen einer Spinperkolation im Broadcasting-Modell und einer Perkolation des Baumes T herzustellen. Dieser wird dadurch geschaaen, daa man in T alle die Kanten entfernt, die zwei Knoten unterschiedlichen Spins verbinden.
Deenition 23. Sei (U K T A P)das Broadcasting-Modell auf T. F ur jede Belegung a 2 U K T sei:
^ ) 2 E T : ae = ae g und ^ T(a) : = ( K T ^ E(a) : = fe ( ; E(a))
Weiterhin sei
T := f ^ T(a) : a 2 U K T g
Die so erhaltene Perkolation (T P) heiit freie Spinperkolation des Broadcasting-Modells auf T. Entsprechend sind (T P + ) und (T P ; ) mit P + und P ; aus 22 als Spinperkolation in der Plus- bzw. Minus-Phase des Broadcasting-Modells deeniert.
In Bild 4.4 wird eine Realisierung einer Spinperkolation gezeigt. Die Frage, ob es im Broadcasting-Modell einen Pfad gibt, der in der Wurzel beginnt, unendlich lang ist und nur Knoten gleichen Spins besucht, wird mit Deenition 23 nun zu der Frage, ob in ^ T die Zusammenhangskomponente der Wurzel, die wir als ^ T r bezeichnen, unendlich groo ist. Dies ist die Frage danach, ob in ^ T
Perkolation statttndet. Wir werden im besonderen untersuchen, ob die Vorgabevon Randbedingungen die Wahrscheinlichkeit eines unendlichen Pfades in ^ T r ver andert.
Wenn wir im Broadcasting-Modell keine Randbedingungen vorgeben, ist die Spinperkolation eine Bernoulli-Perkolation, denn es werden genau die Kanten
Page 66
4.8 Zusammenfassung der Ergebnisse
Wir haben in diesem Kapitel das Broadcasting-Modell auf einem Baum T eingef uhrt und gesehen, daa es auch eine Darstellung als Ising-Modell hat.
Wir haben zwei Arten von Einnuunahme der Spins am Rand des Baums auf die Wurzel charakterisiert. Zum einen haben wir danach gefragt, wann im Broadcasting-Modell Information zwischen dem Spin der Wurzel und den ubertragen wird. Wegen Lemma 2 ist dies auch
die Frage danach, wann die Belegung in der Wurzel des Baumes und die Belegungen am Rand des Baumes stochastisch u n a b h angig sind. Wir konnten zeigen, daa es einen kritischen Interaktionsparameter ccI f ur In-formationssuu im Broadcasting-Modell gibt. F ur Interaktionen, die geringer ubertragen, oberhalb
der kritischen Interaktionsst arke ist die Information zwischen Spin der Wurzel und den Spins am Rand echt positiv.
Die zweite Art der Einnuunahme ist durch die Darstellung als Ising-Modell motiviert. Wir haben uns dabei gefragt, ob die Wahrscheinlichkeit eines Spins in der Wurzel in der Plus-Phase eine andere ist als unter freien Randbedingungen. Wir haben dies als Einnuu der Randbedingung \Rand +1" auf den Spin der Wurzel interpretiert.
ur dieses Ph anomen konnten wir einen kritischen Parameter ccP angeben. F ur Interaktionen, die geringer waren als der kritische Wert, hatten die Spins in der Wurzel in der Plus-Phase gleiche Wahrscheinlichkeit wie unter freien Randbedingungen. Oberhalb des kritischen Wertes war die Wahrscheinlichkeit eines bestimmten Spins der Wurzel in der Plus-Phase 6 = 1 2 . Wir haben
dies so interpretiert, daa die extreme Randbedingung \Rand +1" Einnuu auf die Wurzel aus ubt.
Schlieelich haben wir die kritischen Parameter ccP und ccI miteinander verglichen und gezeigt, daa ccP stets kleiner als ccI ist. Wir haben dies so gedeutet, daa der Einnuu der extremen Randbedingungen der Plus- und Minus-Phase auf die Wurzel noch nicht gen ugen, um Information zwischen Wurzel ubertragen. Dies wird anschaulich klar, wenn man bedenkt, daa die Plus- und Minus-Phase als Randbedingungen so exotisch sind, daa sie keinerlei Gewicht im freien Modell erhalten. Daher k onnen sie nichts zum In-formationssuu zwischen Wurzel und Rand beitragen.
Page 69
Kapitel 5
usse
Wir reichen in diesem Kapitel die noch ausstehenden Beweise der S atze 12 und 15 nach. Diese sind zum Teil etwas umfangreicher und ben otigen einige Lemmata.
5.1 Eine kritische Interaktionsst arke f ur Informati-
onssuu
Wir werden in diesem Abschnitt den noch fehlenden Beweis von Satz 12 f uhren, ur Informationssuu benennt. Dazu bewei-
sen wir zwei S atze, die den Informationssuu zwischen Spin der Wurzel und den Spins am Rand des Baumes nach oben und nach unten absch atzen. Die uber die kritische Interaktionsst arke.
5.1.1 Information und eeektive Leitf ahigkeit
Der folgende Satz stellt einen Zusammenhang zwischen dem Broadcasting-Modell und einem elektrischen Netzwerk auf T her. Er zeigt, daa die Information zwischen Spin der Wurzel und den Spins auf einem Cutset mit Hilfe des eeektiven Widerstandes, wie er in Deenition 4 eingef uhrt wurde, abgesch atzt werden kann.
Page 93
5.1.3 Kritische Interaktion f ur Informationssuu
Die Absch atzungen des Informationssusses nach oben und nach u n ten erm ogliuber die kritische Interaktion zu beweisen. Wir rekapitulieren nocheinmal die zu beweisende Aussage:
Satz 13. Im Broadcasting-Modell mit Interaktionsst arke gilt f ur die Information zwischen Spin der Wurzel und den Spins der n-Sph are:
IIu r u T n] = 0 , falls < ccI lim
wobei
p
brT + 1
p ccI := (5.38)
brT ; 1
ist.
Beweis. Wir erkl aren kurz, wieso der Grenzwert von IIu r u T n] f ur n ! 1 ur Informationssuu ist.
Die Markov-Feld-Eigenschaft des Broadcasting-Modells garantiert, daa f ur nn m 2 N mit n > m u r ! u T m ! u T n eine Markov-Kette ist. Das Dataprocessing-Lemma liefert:
IIu r u T n] IIu r u T m]
IIu r u T n] f allt monoton in n. Dies sichert die Existenz des Grenzwertes. Insbesondere ist wegen der Monotonie
IIu r u T n] = lim IIu r u T n] inf
n!1 n1
Wir zeigen, daa obiger Grenzwert wesentlich von der Interaktionsst arke des Modells abh angt. Dazu verwenden wir die obere und untere Absch atzung aus den S atzen 20 und 5.
p brT+1
Sei > > ccI = p brT;1 . Damit ist ; 1 ;2 < ccI ; 1 ;2 = b r T
Page 107
Kapitel 6
Anhang
6.1 Lyons Nachweis der kritischen Interaktion f ur
Spinperkolation in der Plus-Phase
Wir geben hier einen zweiten Beweis von Satz 19 an, der die kritische Interaktionsst arke f ur Spinperkolation in der Plus-Phase des Ising-Modells benennt. uber die kritischen Parameter im freien
Ising-Modell. Er entspricht dem Beweis, den Lyons in 7] f uhrt, um eine kritische Temperatur f ur Spinperkolation in der Plus-Phase zu berechnen.
uber den kritischen Parameter f ur Spinperkolation zu beweisen. Dies beruhte auf der Tatsache, daa in diesem Fall die Spinperkolation eine Bernoulli-Perkolation ist. In der Plus-Phase ist die Spinperkolation allerdings keine Bernoulli-Perkolation mehr, die Vorgabe von Randbedingungen zerst ort die Unabh angigkeit der e . Wir f uhren eine gr ooere Klasse von Perkolationen ein, in der wir auch die Spinperkolation in der Plus-Phase wiederrnden werden.
6.1.1 Quasi-Bernoulli-Perkolationen
Deenition 26 ((7]). (T P) heiit quasi-Bernoulli-Perkolation, wenn es eine positive Zahl M gibt, so daa f ur alle 2 K T gilt:
M P( $ r) j ( ^ $ r)] P( $ r) j ( ^ $ r)] (6.1)
Page 1
folgende Umformung ist m oglich, da ein Fluu auf T ist. Da die Folge X n ein beschr anktes zweites Moment hat, ist sie gleichm aaig integrierbar.
Wir zeigen, daa eine unendlichgrooe Zusammenhangskomponente der Wurzel positive W ahrscheinlichkeit hat. Dies geschieht mit einem Widerspruchsargument. Annahme: j ^ T r j < 1 P-fast sicher.
Dann ist auch X n ! 0 P;fast sicher. Aus der uniformen Integrierbarkeit der X n folgt nun mit Satz 27 EX n ] ;;;! n!1 0. Dies steht im Widerspruch z u
Gleichung (6.12), die besagt, daa der Erwartungswert aller X n 1 i s t .
Die Annahme war falsch, also ist:
Pj ^ T r j = 1] > 0
Dieses Lemma gibt uns ein Kriterium an die Hand, um quasi-Bernoulli-Perkolationen nach unendlichgrooen Clustern zu untersuchen. Im folgenden werden wir zeigen, daa Spinperkolation in der Plus-Phase des Broadcasting-Modells eine quasi-Bernoulli-Perkolation darstellt, und mit Hilfe uber die Existenz von unendlichgrooen Zusammenhangskomponenten der Wurzel nachweisen.
6.1.2 Kritische Interaktion f ur Spinperkolation
uber die kritische Interaktionsst arke f ur Spinperkolation in der Plus-Phase des Broadcasting-Modells, die in folgendem Satz gemacht wird:
Satz 19. Sei (T P + ) die Spinperkolation in der Plus-Phase des Broadcasting-Modells mit Interaktionsst arke . Dann gilt
P
+
j ^ T
r
j
=
1]
= 0
, falls
<
cPerk:
Dabei ist
- Citar trabajo
- Axel Müller (Autor), 1999, Zufällige Felder und Perkolationen auf Bäumen, Múnich, GRIN Verlag, https://www.grin.com/document/96807
-
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X.