Statistik II
Zusammenfassung
1
Thomas Bolz
2
29. November 1995
1
Zusammenfassung der Vorlesung Statistik II von Prof. Dr. Kuno Egle im WS 94 95
2
Id : statistik:tex;v1:91995=05=0220 : 58 : 22thomasExpthomas
Vorwort:
Dies ist eine Zusammenfassung der Statistik II Vorlesung, die im Winterseme-
ster 1994 95 von Prof. Dr. Kuno Egle gehalten wurde. Sie erhebt weder An-
spruch auf Richtigkeit noch Anspruch auf Vollstandigkeit. Da sie mir trotzdem
bei der Klausurvorbereitung bisher eine gute Hilfe war, ein zumindest struktu-
riertes Nachschlagewerk ist und ich nicht zuletzt eine Menge Zeit darin investiert
habe, habe ich mich dazu entschloen, sie jedem Interessenten uber die rzstud
zu Verfugung zu stellen. Sie liegt in dem o entlichen Verzeichnis
~ul54 pub
als Postscript-File ab. Von hier aus kann sie sich jeder in ein eigenes Verzeichnis
kopieren und von dort aus ausdrucken
'cp ~ul54 pub statistik.ps.gz .'
danach
'lp statistik.ps.gz'
.
Uber Erganzungsvorschlage und Fehlerkorrekturen freue ich mich. Sie konnen
mir per e-mail an
ThomasBolz@stud.rz.uni-karlsruhe.de
gesendet werden.
Karlsruhe, am 14.Februar 1995, Thomas Bolz
INHALTSVERZEICHNIS
i
Inhaltsverzeichnis
1 Grundbegri e
1
1.1 Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Wahrscheinlichkeitsma . . . . . . . . . . . . . . . . . . . 1
1.1.2 Sprechweisen . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Dirac-Ma . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.4 Laplace'scher Wahrscheinlichkeitsraum . . . . . . . . . . . 1
1.1.5 Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.6 Geometrische Verteilung . . . . . . . . . . . . . . . . . . . 2
1.1.7 Kont. Wahrscheinlichkeitsma e auf IR . . . . . . . . . . . 2
1.1.8 Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.9 Exponentialverteilung . . . . . . . . . . . . . . . . . . . . 3
1.1.10 Standardnormalverteilung
N
0
;
1 . . . . . . . . . . . . . 3
1.1.11 Normalverteilung
N
;
2
. . . . . . . . . . . . . . . . . 3
1.1.12 Dreieckverteilung . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Spur -Algebra . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . 3
1.2.3 Satz von der totalen Wahrscheinlichkeit . . . . . . . . . . 4
1.2.4 Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Produktraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Produkt- -Algebren . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Produktwahrscheinlichkeit . . . . . . . . . . . . . . . . . . 4
1.3.3 Diskrete Produktmae . . . . . . . . . . . . . . . . . . . . 4
1.3.4 Produkt kont. Wahrscheinlichkeitsmae auf IR
IR . . . . 4
1.4 Bildraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1 Bild -Algebra . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.2 Bildwahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . 5
1.4.3 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . 5
1.4.4 Transformation kont. Verteilungen auf IR . . . . . . . . . 6
1.5 Das Stichprobenmodell unabhangiger Ziehungen . . . . . . . . . 6
1.5.1 Stichprobenmodell . . . . . . . . . . . . . . . . . . . . . . 6
2 Lage- und Formparameter
6
2.1 Diskrete Verteilungen auf IR bzw. IR
n
. . . . . . . . . . . . . . 6
2.1.1 Arithmetisches Mittel, Mittelwert, Erwartungswert
. . . 6
2.1.2 Quartile der Ordnung . . . . . . . . . . . . . . . . . . . 7
2.1.3 Modus, Modalwert . . . . . . . . . . . . . . . . . . . . . . 7
2.1.4 Varianz:
2
;
Var
P
, und Standardabweichung
. . . . . 7
2.1.5 Allgemeine Momente, zentrale Momente . . . . . . . . . . 7
2.1.6 Klassische Beispiele diskreter, parametrischer Verteilungen 7
2.2 Kontinuierliche Verteilungen . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 Arithmetische Mittel,
, Erwartungswert . . . . . . . . . 8
2.2.2 Quantile der Ordnung . . . . . . . . . . . . . . . . . . . 8
2.2.3 Modus, Modalwert
x
; x
mod
. . . . . . . . . . . . . . . . 8
2.2.4 Varianz:
2
;
Var
P
, und Standardabweichung
. . . . . 8
ii
INHALTSVERZEICHNIS
2.2.5 Momente, zentrale Momente . . . . . . . . . . . . . . . . 8
2.2.6 Klassische Beispiele kont. param. Verteilungen . . . . . . 9
2.2.7 Mittelwerte und Varianzen von Verteilungen auf IR
IR . 9
3 Korrelation, Faltung, zentraler Grenzwertsatz
10
3.1
L
2
IR
P
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.1.1 De nitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.1.2 Satz von Pythagoras . . . . . . . . . . . . . . . . . . . . . 10
3.1.3 Satz von Bienaim
e . . . . . . . . . . . . . . . . . . . . . . 10
3.1.4 Ubertragung auf 2-dimensionale Zufallsvariablen . . . . . 10
3.1.5 Ungleichung von Tschebysche . . . . . . . . . . . . . . . 10
3.2 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.1 De nitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2.2 Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Folgen von Verteilungen, zentraler Grenzwertsatz . . . . . . . . . 11
3.3.1 De nitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3.2 Verteilung des Mittelwertes
x
aus Transformationen . . . 11
3.3.3 Starkes Gesetz groer Zahlen . . . . . . . . . . . . . . . . 12
3.3.4 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . 12
3.3.5 Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Elemente der parametrischen Schatz- und Testtheorie
12
4.1 Parametrische statistische Strukturen . . . . . . . . . . . . . . . 12
4.1.1 Parametrische Verteilungsklassen . . . . . . . . . . . . . . 12
4.2 Statistiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2.1 De nitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2.2 Vollstandigkeit . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2.3 Su zienz . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2.4 Faktorisierungstheorem von Finster-Neymann . . . . . . . 14
4.3 Schatztheorie Punktschatzung . . . . . . . . . . . . . . . . . . . 14
4.3.1 De nition: Schatzer . . . . . . . . . . . . . . . . . . . . . 14
4.3.2 Satz von Lehman Schi
e UMVU-Schatzer . . . . . . . . 14
4.3.3 Mittlerer quadratischer Fehler MQF . . . . . . . . . . . . 14
4.3.4 Risiko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3.5 Wichtigste Konstruktionsmethoden . . . . . . . . . . . . . 15
4.4 Bereichsschatzung . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.4.1 Bereichsschatzer . . . . . . . . . . . . . . . . . . . . . . . 15
4.5 Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.5.1 Optimalitatseigenschaften . . . . . . . . . . . . . . . . . . 15
4.5.2 Gutefunktion . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.5.3 De nition von
gleichmaig besser
. . . . . . . . . . . . . . 16
1
Elementare Wahrscheinlichkeitstheorie
1 Grundbegri e
=Grundgesamtheit Menge aller Ereignisse, die auftreten konnen
A
= -Algebra d.h. alle interessierenden Ereignisse
P
Wahrscheinlichkeitsma
1.1 Wahrscheinlichkeitsraum
1.1.1 Wahrscheinlichkeitsma
P:
A
!
0
;
1 heit Wahrscheinlichkeitsma
,
1
P
=1
2
P
A
c
=1-P
A
3
f
A
n
g
IN
A
Familie von disjunkten Teilmengen
P
S
IN
A
n
=
P
IN
P
A
n
1.1.2 Sprechweisen
... sicheres Ereignis
;
... unmogliches Ereignis
A
... Ereignis
f
!
g
... Elementarereignis
1.1.3 Dirac-Ma
;
A
=
P
; !
2
fest:
Dirac-Ma
"
!
im Punkt
!
:
"
A
=
1
::: !
2
A
0
:::
sonst
1.1.4 Laplace'scher Wahrscheinlichkeitsraum
ist endlich, das Mengensystem
A
ist die Potenzmenge von , alle Elemen-
tarereignisse sind gleich wahrscheinlich.
6
=
;
endlich
A
=
P
:
,
!
0;1 de niert durch
P
A
=
A
= Anz. Elementarereignisse in
A
Anz. Elementarereignisse in
1.1.5 Poissonverteilung
1
X
0
a
k
k
! =
e
a
1
X
0
a
k
k
! = 1 a fest
2
1 GRUNDBEGRIFFE
P
k
=
a
k
k
!
e
,
a
1
P
k
gibt Wahrscheinlichkeitdafur an, da
k
Punktereignisse pro Zeiteinheit
statt nden, wobei
t
=
a
gilt. mit
=Ankunftsrate pro Zeiteinheit,
t
=Zeitspanne
Die Poissonverteilung ist fur
n
50 oder
p
0
;
1 eine Naherung fur die Bino-
mialverteilung. Dann ist
a
=
np
.
1.1.6 Geometrische Verteilung
k
= 1
,
p
p
k
2
p
=Anteil der Einsen, 1
,
p
=Anteil der Nullen
k
ist die Wahrscheinlichkeit, bei der
k
+ 1-ten Ziehung einen Mierfolg zu
haben, d.h. eine Null zu ziehen, und bei den vorhergehenden
k
Ziehungen Erfolg
gehabt zu haben. Es gilt:
n
P
k=0
q
k
=
1
,
q
n
+1
1
,
q
1.1.7 Kontinuierliche Wahrscheinlichkeitsma e auf IR
Kontinuierliches Wahrscheinlichkeitsma P auf IR wird durch Wahrscheinlich-
keitsdichte
'
: IR
!
IR
+
mit
1
Z
1
'
x
dx
= 1
de niert.
Zu
'
aquivalent ist die Verteilungsfunktion
F
a
:
F
a
=
P
,1
;
a
=
a
Z
,1
'
x
dx
3
Eigenschaften von
F
:
1
F
ist monoton steigend
2
F
,1
= 0
; F
+
1
= 1
3
'
stuckweise stetig
F
stetig
1.1.8 Gleichverteilung
'
=
1
b
,
a
fur
a
x
b
0 sonst
F
x
=
x
,
a
b
,
a
a
x
b
1.2 Unterraum
3
1.1.9 Exponentialverteilung
'
x
=
e
,
x
x
0
F
a
=
a
Z
0
'
x
dx
=
a
Z
0
e
,
x
= 1
,
e
,
a
4
Exp
gibt die Verteilung der Zwischenankunftszeiten pro Zeiteinheit an z.B.
Telefonanrufe von Kunden, Ankunft von Personen an der Bushaltestelle.
=Ankunftsrate
pro Zeiteinheit
1.1.10 Standardnormalverteilung
N
0
;
1
'
x
= 1
p
2
e
,
x
2
2
5
Die Verteilungen bekommt man am besten aus Tabellen. Es gilt:
,
x
=
1
,
x
1.1.11 Normalverteilung
N
;
2
'
x
= 1
p
2
e
,
x
,
2
2
2
6
1.1.12 Dreieckverteilung
'
=
a+x
a
2
fur:
,
a
x
0
a
,
x
a
2
fur: 0
x a
1.2 Unterraum
1.2.1 Spur -Algebra
0
;
A
: -Algera auf :
A
0
:
f
A
0
j
A
2
Ag
heit " Spur von
A
auf
0
oder "von
A
auf
0
induzierte -Algebra i. Z.
A
0
=
A
=
.
Ist
S
Erzeuger von
A
auf , so ist
S
0
:=
f
s
0
=s
2
S
g
Erzeuger von
A
0
.
1.2.2 Bedingte Wahrscheinlichkeiten
0
;
A
0
; P
0
heit Unterraum
P
0
:
A
0
!
0
;
1 mit
P
0
A
=
P
A=
0
=
PA
0
P
0
heit von
P
auf
0
induzier-
tes Wahrscheinlichkeitsma
P
von
A
unter der Bedingung
0
.
P
0
A
=
0
8
A
2
c
0
4
1 GRUNDBEGRIFFE
1.2.3 Satz von der totalen Wahrscheinlichkeit
Man verscha t sich hier am besten eine Ubersicht, indem man die gegebenen
Wahrscheinlichkeiten am Einheitsquadrat aufzeichnet.
1
f
j
g
IN
A
Partition von mit hochstens abzahlbarem IN
;P
j
0
8
B
2
A
:
P
B=
j
=
PB
j
P
j
,
P
B
j
=
P
B=
j
P
j
f
B
j
g
IN ist Partition von
B
, daher ist
P
B
=
P
IN
P
B
j
.
2 wie 1 und auerdem
P
B
0 Fur beliebiges
k
aus Partition
f
j
g
IN
ist
P
k
=B
=
P
k
B
PB
=
PB=
k
P
k
P
PB=
j
P
j
1.2.4 Satz von Bayes
A;B
2
A
unabhangig
,
P
A=B
=
PA B
PB
=
PAPB
PB
=
P
A
und
P
B=A
=
PA B
PA
=
PAPB
PA
=
P
B
1.3 Produktraum
1.3.1 Produkt- -Algebren
A
1
;
A
2
-Algebren auf
1
bzw.
2
:
Die auf
1
2
von der Menge
S
aller Rechtecke erzeugte -Algebra
A
1
A
2
heit "Produkt von
A
1
und
A
2
auf
1
2
, kurz "Produkt -Algebra .
1.3.2 Produktwahrscheinlichkeit
1
;
A
1
; P
1
;
2
;
A
2
; P
2
Wahrscheinlichkeitsraume:
Die Wahrscheinlichkeit
P
1
P
2
auf
1
2
;
A
1
A
2
mit
P
1
P
2
A
1
A
2
:=
P
1
A
1
P
2
A
2
8
A
1
2
A
1
; A
2
2
A
2
heit Produktwahrscheinlichkeit.
1
2
;
A
1
A
2
; P
1
P
2
heit Produktraum.
1.3.3 Diskrete Produktmae
P
1
=
P
IN
j
"
!
j
diskretes Ma auf
1
mit Masse
j
in
!
j
P
2
=
P
IN
k
"
!
k
diskretes Ma auf
2
mit Masse
k
in
!
k
P
1
P
2
=
P
j
P
k j
k
2
!
j
; !
k
ist diskretes Wahrscheinlichkeitsma auf
1
2
mit Massen
kj
=
j k
in den Punkten
!
j
; !
k
. Bedingte Verteilungen
sind identisch mit Rand- bzw. Ausgangsverteilungen.
1.3.4 Produkt kontinuierlicher Wahrscheinlichkeitsma auf IR
IR
P
1
kontinuierliches Wahrscheinlichkeitsma auf IR mit Dichte
'
1
x
und Ver-
teilungsfunktion
F
1
a
1.4 Bildraum
5
P
2
kontinuierliches Wahrscheinlichkeitsma auf IR mit Dichte
'
2
y
und Ver-
teilungsfunktion
F
2
a
P
1
P
2
ist kontinuierliches Wahrscheinlichkeitsma auf IR
IR mit Dichte
'
x;y
=
'
1
x
'
2
y
,
x;y
unabhangig
F
a;b
=
P
1
P
2
,1
;a
,1
;b
=
F
1
a
F
2
b
F
a;b
=
F
a
F
b
gilt nur, wenn
x
und
y
zwei unabhangige Variablen sind.
Randdichten: xiere x
'
1
x
=
Z
y
'
x;y
dy
=
'
1
x
Z
y
'
2
y
dy
|
z
1
7
bedingte Dichten:
'
x=y
:=
'
x;y
'
2
y
=
'
1
x
'
2
y
'
2
y
=
'
1
x
,
x;y
unabhangig
8
Bedingte Dichten sind identisch mit den Randdichten bzw. ursprunglichen
Dichten.
1.4 Bildraum
1.4.1 Bild -Algebra
f
;
A
,
!
E
B
f
:=
f
B E=f
,
1
B
2
Ag
heit Bild von
A
mittels
f
.
1.4.2 Bildwahrscheinlichkeit
Die Wahrscheinlichkeit
P
f
=
f
P
mit
8
B
2
B
:
P
f
B
:=
P
f
,
1
B
heit
Bildwahrscheinlichkeit, Bild von
P
in
E
mittels
f
, oder Verteilung von f.
E;
B
; P
f
heit Bildraum.
Eine mebare Funktion
f
auf einem Wahrscheinlichkeitsraum
;
A
; P
heit
Zufallsvariable reelle Zufallsvariable, falls
E
= IR; Zufallsvektor, falls
E
= IR
n
.
f
heit
P
f
-verteilt,
f
selbst ist diskret, kontinuierlich, falls
P
f
diskret auf
E
,
kontinuierlich auf
E
= IR verteilt ist.
1.4.3 Binomialverteilung
Stichprobe mit Zurucklegen
k
=
n
k
!
p
k
1
,
p
n
,
k
9
P
k
binomischer
Lehrsatz
=
p
+ 1
,
p
n
= 1
n
= 1
Anwendung: Bei dichotomen nur zwei Auspragungen Merkmalen
k
Wahr-
scheinlichkeit fur
k
schlechte Teile bei Stichprobe vom Umfang
n
und Aus-
schuanteil
p
.
6
2 LAGE- UND FORMPARAMETER
1.4.4 Transformation kontinuierlicher Verteilungen auf IR
'
f
x
=
'
f
,
1
x
df
,
1
dx
10
Beispiele:
1
x
,
!
x
+
f
,
1
:
x
,
!
x
,
b
R
a
'
f
x
dx
=
b
,
R
a
,
'
x
,
dx
2
x
,
!
x
f
,
1
:
x
,
!
1
x
b
R
a
'
f
x
dx
=
b
R
a
1
'
,
x
dx
Formel fur beliebig di erenzierbare
f
: IR
,
!
IR
P
f
B
=
Z
B
'
f
x
dx
=
Z
f
,1
B
'
'
,
1
x
df
,
1
dx dx
ist Wahrscheinlichkeit
P
f
mit Masse nur auf
f
IR.
1.5 Das Stichprobenmodell unabhangiger Ziehungen
1.5.1 Stichprobenmodell
Ein Stichprobenmodell von
M
2
IN unabhangigen Ziehungen mit Zurucklegen
aus
;
A
;P
bzw.
E; B; P
f
liegt vor, wenn
n
mit
P
n
bzw.
E
n
mit
P
f
n
versehen ist.
2 Lage- und Formparameter
2.1 Diskrete Verteilungen auf IR bzw. IR
n
2.1.1 Arithmetisches Mittel, Mittelwert, Erwartungswert
=
E
P
=
E
x
:=
X
IN
k
x
k
11
Transformation:
f
: IR
,
!
IR
E
f
:=
E
P
f
=
X
IN
k
f
x
i
Zentrieren:
f
:
x
,
!
x
,
E
f
= 0
2.1 Diskrete Verteilungen auf IR bzw. IR
n
7
2.1.2 Quartile der Ordnung
= 2 : Median
x
M
halbiert die Gesamtmasse 1
x
m
=
F
,
1
12
12
= 4 : Quartile
Q
1
=
F
,
1
1
4
; Q
2
=
x
M
; Q
3
=
F
,
1
3
4
anderes Konzept:
2
0
;
1 :
Q
=
F
,
1
2.1.3 Modus, Modalwert
Der Modus ist der wahrscheinlichste Wert:
k
aus
k
= max
N k
i.a. mehr-
deutig z.B. Wurfeln
k
=
1
6
2.1.4 Varianz:
2
;
Var
P
, und Standardabweichung
Var
P
=
P
IN
k
x
k
,
2
=
P
IN
k
x
2k
,
2
X
IN
k
x
k
|
z
+
2
X
IN
k
|
z
1
=
P
IN
k
x
2k
,
2
13
Transformation:
f
: IR
,
!
IR
Var
f
=Var
P
f
=
P
IN
k
f
x
k
,
E
f
2
Standardisierung
f
:
x
,
!
x
,
E
f
= 0
;
Var
f
= 1
2.1.5 Allgemeine Momente, zentrale Momente
f
m
x
=
x
m
; f
0m
x
=
x
,
m
M
m
=
E
f
m
=
E
x
m
=
P
IN
k
x
mk
m-tes Moment von
P
m
= 1 :
M
1
=
P
IN
k
x
k
=
M
0m
=
P
f
0m
=
P
IN
k
x
k
,
m
m -tes, zentriertes Moment von
P
2.1.6 Klassische Beispiele diskreter, parametrischer Verteilungen
Poissonverteilung:
k
=
a
k
k!
e
,
a
=
a;
2
=
a
Binomialverteilung:
k
=
,
n
k
p
k
1
,
p
n
,
k
=
np;
2
=
np
1
,
p
Hypergeometrische Verteilung:
Stichprobe ohne Zurucklegen
N
Ele-
mente,
M
davon sind defekt,
N
,
M
sind intakt
k
=
M
k
!
,
N
,
M
n
,
k
,
N
n
8
2 LAGE- UND FORMPARAMETER
ist die Wahrscheinlichkeit,
k
defekte Teile bei Ziehung von
n
Elementen
ohne Zurucklegen zu erhalten.
p
H
=
MN
Wahrscheinlichkeit, uberhaupt
ein schlechtes Teil zu ziehen
=
n
MN
=
np
H
2
=
n
MN N
,
M
N N
,
n
N
,
1
=
np
H
1
,
p
H
N
,
n
N
,
1
Fur groe
N
kann man die Hypergeometrische durch die Binomialvertei-
lung approximieren.
Multinomialverteilung:
k
1
k
m
=
n
k
1
k
m
!
|
z
n
!
k
1
!
k
2
!
p
k
1
1
p
k
m
m
j
=
np
j
2j
=
np
j
1
,
p
j
2.2 Kontinuierliche Verteilungen
2.2.1 Arithmetische Mittel,
, Erwartungswert
=
E
P
=
E
x
:=
R
IR
x'
x
dx
Transformation
f
: IR
,
!
IR
E
f
:=
E
P
f
=
R
IR
f
x
'
x
dx
2.2.2 Quantile der Ordnung
= 2 :Median
x
M
halbiert die Flache von
'
,
x
m
=
F
,
1
1
2
= 4 :
Quartile Q
1
=
F
,
1
1
4
; Q
2
=
x
M
; Q
3
=
F
,
1
3
4
anderes Konzept:
2
0
;
1 :
Q
=
F
,
1
2.2.3 Modus, Modalwert
x
; x
mod
Der Modus ist der Punkt mit der groten Wahrscheinlichkeitsdichte.
x
aus max
'
x
=
'
=
'
x
Im allgemeinen ist
'
di erenzierbar:
x
aus
d'
dx
!
= 0
2.2.4 Varianz:
2
;
Var
P
, und Standardabweichung
V ar
x
=
Z
IR
x
,
2
'
x
dx
=
Z
IR
x
2
'
x
dx
,
2
14
Transformation
f
: IR
,
!
IR
V ar
f
:=
V ar
P
f
=
E
f
2
,
E
f
2
2.2.5 Momente, zentrale Momente
f
n
x
=
x
m
; f
0m
x
=
x
,
m
M
m
=
E
f
m
=
E
x
m
=
R
IR
x
m
'dx
m-tes Moment von
P
M
0m
=
E
f
0m
=
E
x
,
m
=
R
IR
x
,
M
'dx
m-tes zentriertes Moment
von
P
2.2 Kontinuierliche Verteilungen
9
2.2.6 Klassische Beispiele kontinuierlicher parametrischer Vertei-
lungen
Gleichverteilung:
'
x
=
1
b
,
a
1
a;b
x
=
a+b
2
;
2
=
1
12
b
,
a
2
Exponentialverteilung:
'
x
=
e
,
x
=
1
;
2
=
1
2
Normalverteilung
N
;
2
:
'
x
= 1
p
2
e
,
x
,
2
2
2
15
E
x
=
; V ar
x
=
2
Lognormalverteilung
log
N
;
2
:
'
x
= 1
p
2
1
x
e
,
ln
x
,
2
2
2
x
0
16
E
x
=e
+
2
2
Var
x
=e
2
+
2
e
2
,
1
x
M
= e
x
Mod
=
e
,
2
Chiquadratverteilung
2n
:
'
n
x
= 1
2
n
2
,
n
2
x
n
2
,
1
e
,
x
2
x
0
17
Dabei gilt: ,
n
=
n
,
1!, also ,
n
+ 1 =
n
,
n
, sowie ,
1
2
1
p
.
E
2n
=
n;
Var
2n
= 2
n
, Parameterraum = IN
s
2n
=
1n
n
P
1
x
i
,
2
s
2n
=
1
n
,
1
n
P
1
x
i
,
x
2
Mit
s
2n
wird die tatsachli-
che Varianz
2
der Grundgesamtheit geschatzt, wenn der tatsachliche
Mittelwert
bekannt ist. Mit
s
2n
wird dagegen die tatsachliche Varianz
geschatzt, wenn
unbekannt ist.
2.2.7 Mittelwerte und Varianzen von Verteilungen auf IR
IR
x
=
R
x
R
y
x'
x;y
dxdy
=
R
x
x
0
@
Z
y
'
x;y
dy
1
A
|
z
'
1
x
dx
2x
=
R
x
x
,
x
2
'
1
x
dx
=
R
x
x'
1
x
dx
=
E
x
2
,
2x
=
E
P
1
y
=
R
x
R
y
y '
x;y
dxdy
=
R
y
y
0
@
Z
x
'
x;y
dx
1
A
|
z
'
2
y
dy
2y
=
R
y
y
,
y
2
'
2
y
dx
=
R
y
y '
2
y
dy
=
E
y
2
,
2y
=
E
P
2
Erwartungswertvektor:
=
,
x
y
Varianzmatrix:
2
=
2x xy
yx
2y
!
10
3 KORRELATION, FALTUNG, ZENTRALER GRENZWERTSATZ
xy
= Cov
x;y
=
R
y
R
y
x
,
x
y
,
y
'
x;y
dydx
=
E
xy
,
x
y
E
xy
=
R
x
R
y
xy '
x;y
dydx
Bemerkung: Corr
x;y
= Cov
x;y
x y
3 Korrelation, Faltung, zentraler Grenzwertsatz
3.1
L
2
IR
P
3.1.1 De nitionen
Der Vektorraum
L
2
IR
P
mit Skalarprodukt
f;g
:=
E
f g
=
R
IR
f
x
g
x
'
x
dx
und mit Seminorm
k
f
k
=
p
f;g
heit Raum der quadratintegrierbaren re-
ellen Funktionen.
Cov
f;g
:=
f
0
;g
0
heit Kovarianz.
Corr
f;g
:=
f
0
;g
0
k
f
0
k
k
g
0
k
= cos heit Korrelation zwischen
f
und
g
.
f;g
unkorreliert
,
f
0
?
g
0
,
f;g
= 0
3.1.2 Satz von Pythagoras
f;g
unkorreliert
Var
f
+
g
=Var
f
+Var
g
3.1.3 Satz von Bienaim
e
f
1
;:::;f
m
paarweise unkorreliert
Var
m
P
1
f
i
=
m
P
1
Var
f
i
3.1.4 Ubertragung auf 2-dimensionale Zufallsvariablen
;
A
;P
Wahrscheinlichkeitsraum,
f
=
,
f
1
f
2
:
,
!
IR
IR
Var
f
:=Var
P
=
Var
f
1
Cov
f
1
;f
2
Cov
f
1
;f
2
Var
f
2
!
Cov
f
1
;f
2
=
R
x
R
y
y
,
1
g
y
,
2
'
x;y
dxdy
3.1.5 Ungleichung von Tschebysche
D
=
E
P
,
d
;
E
P
+
d
o enes Intervall der Lange 2
d
, symmetrisch zu
f
P
P
D
c
1
d
2
Var
P
Falls die Distanz nicht symmetrisch zu
ist, verwendet
man die Maxmimaldistanz.
3.2 Faltung
Unter Faltung versteht man die Verteilung von aufsummierten Massen.
3.3 Folgen von Verteilungen, zentraler Grenzwertsatz
11
3.2.1 De nitionen
x;y
,
!
x
+
y
P
1
P
2
,
!
P
1
P
2
heit Faltung.
P
P
i
+
P
j
=
l
=
l
l
2
0
;:::m
+
n
i
2
0
;:::m
j
2
0
;:::n
P
i
;P
j
bezeichnen hier Zufallsvariablen und
keine Wahrscheinlichkeiten.
P
i
diskret:
l
=
l
P
i=1
a
i
|
z
P
1
l
,
i
|
z
P
2
P
i
kontinuierlich:
z
=
z
R
0
'
1
x
'
2
z
,
x
dx
Beispiele:
Bin
m;p
Bin
n;p
= Bin
m
+
n;p
Poi
a
Poi
b
= Poi
a
+
b
Exp
1
Exp
2
=
,
1
2
1
,
2
e
,
1
z
,
e
,
2
z
=
'
z
0
N
1
;
2
N
2
;
2
=
N
1
+
2
;
2
2
3.2.2 Anwendung
Seien
f
:
,
!
IR
; g
:
,
!
IR zwei Funktionen Zufallsvariablen mit Vertei-
lung
P
1
=
P
f
bzw.
P
2
=
P
g
in IR. Sind
f;g
unabhangig, so ist
P
f
P
g
ihre
gemeinsame Verteilung auf IR
IR. Also ist
P
a
=
P
f
P
g
, Bild von
P
f
P
g
,
Verteilung von
f
+
g
bei Unabhangigkeit. Die Summe von 2 unabhangigen
Zufallsvariablen ist
P
f
P
g
-verteilt . Es gilt:
E
f
+
g
=
E
P
f
P
g
=
E
f
+
E
g
=
E
P
f
+
E
P
g
Var
f
+
g
= Var
P
f
P
g
= Var
f
+ Var
g
= Var
P
f
+ Var
P
g
3.3 Folgen von Verteilungen, zentraler Grenzwertsatz
3.3.1 De nitionen
Sei
;
A
;P
ein Wahrscheinlichkeitsraum,
f
f
n
g
IN eine unabhangige, iden-
tisch verteilte Folge von Zufallsvariablen
f
n
:
,
!
IR
identisch verteilt:
alle
f
n
haben dieselbe Bildverteilung, Bild von
P
in IR:
P
f
n
=
P
, also ist
E
f
n
=
E
P
=
;
Var
f
n
= Var
P
=
2
unabhangig:
Bild von
P
n
mittels
!
1
;:::;!
n
,
!
f
1
!
1
;:::;f
n
!
n
ist
P
n
auf IR
n
.
f
1
:::
f
n
:
n
,
!
IR
n
3.3.2 Verteilung des Mittelwertes
x
aus Transformationen
f
n
=
1n
n
P
1
f
i
: IR
n
,
!
IR:
!
1
;:::;!
n
,
!
f
1
!
1
|
z
x
1
;:::;f
n
!
n
|
z
x
n
,
!
n
P
1
f
i
!
i
,
!
f
n
!
1
;:::;!
n
=
1n
P
f
i
!
i
=
x
1
;:::;x
n
=
1n
n
P
1
x
i
=
x
124 ELEMENTE DER PARAMETRISCHEN SCHATZ- UND TESTTHEORIE
E
f
n
=
1n
n
P
1
E
f
i
=
Var
f
n
=
1n
2
n
X
1
Var
f
i
|
z
2
|
z
n
2
=
2
n
lim
n
!1
!
0
Zentrieren von
f
n
:
f
0n
=
f
n
,
f
0
!
1
;:::;!
n
=
1n
n
P
1
f
i
!
i
,
3.3.3 Starkes Gesetz groer Zahlen
Eine unabhangige, identisch verteilte Folge
f
f
n
g
IN genugt lim
n
!1
= 0 fast sicher.
Erlauterung:
Auf einem Wahrscheinlichkeitsraum gilt
P
fast sicher
,
P
2
!
j:
E
f
!
g
= 0
3.3.4 Zentraler Grenzwertsatz
P
n
,
!
N
0
;
1
bzw.
F
n
a
n
!1
,
!
a
gleichmasig
Die Binomial- und die Hypergeometrische Verteilung lassen sich durch
N
;
2
approximieren, wenn 1
,
p
N
,
n
N
,
1
9 oder
n
30 bzw.
np
1
,
p
9 oder
n
30 ist. Stetigkeitskorrektur
0
;
5 und Normierung
k
,
p
2
nicht vergessen.
3.3.5 Anwendung
Approximation von Verteilungen durch IN:
H
N;M;n
nN
0
;05
B
n;
M
N
B
n;p
n
g
g
1,
g
N
np; np
1
,
p
B
0
n;p
N
p;
p1
,
p
n
P
a
n 20
N
a;a
2 n 30
N
n;
2
n
4 Elemente der parametrischen Schatz- und Test-
theorie
4.1 Parametrische statistische Strukturen
4.1.1 Parametrische Verteilungsklassen
geg:
;
A
;P
Grundraum, Population ist Wahrscheinlichkeitsraum mit un-
bekanntem
P
.
E;
B
Zustands-, Beobachtungsraum ist Menge von Aus-
pragungen eines Merkmals, das an Individuen
!
2
beobachtet wird.
4.2 Statistiken
13
ges:
f
:
,
!
E
P
,
!
P
mebare Abbildung, Zufallsvariable
P
sei ein Bild von
P
in
E
, die Verteilung von
f
P
sei unbekannt.
Grundannahme der parametrischen Schatztheorie:
P
ebenso
P
F
ge-
horcht einem bekannten Bildungsgesetz fur Massen
k
bzw. Dichten
'
x
und
gehort zu einem sogenannten Verteilungstyp . Zur optimalen Anpassung an
Daten ist
P
parametrisch durch Parameter
aus einem Parameterraum : Die
Massen
k
und die Dichten
'
x
von P sind variabel in
:
P
=
P
mit Massen
k
bzw. Dichten
'
x
;
P
=
P
=
f
P
g
De nitionen:
Falls IR
k
k
1
, heit
P
=
f
P
g
parametrische sta-
tistische Struktur auf
E;
B
analog:
P
n
=
f
P
n
g
heit parametrische stati-
stische Struktur auf
E
n
;
B
n
.
P
;
P
F
=
f
P
g
parametrische Struktur auf
E;
Bemerkung:
In allen klassischen Fallen besteht zwischen
und den Lage-
und Formparametern von
P
ein unmittelbarer Zusammenhang.
4.2 Statistiken
4.2.1 De nitionen
Einen mebare Abbildung :
E
n
;
B
n
,
!
F;
heit Statistik. Fur
F
= IR
bzw. IR
n
heit skalar oder reel bzw. vektoriell. Bezuglich
P
heit zentriert
,
8
P
2
P
:
E
= 0
4.2.2 Vollstandigkeit
E;B;
P
heit vollstandig
,
die einzige reele Statistik
f
:
E
,
!
IR mit
E
f
= 0 fur alle
ist die Nullfunktion fast uberall :
E
n
,
!
F
vollstandig
,
F;
Bild- -Algebra,
P
F
vollstandig
P
nicht vollstandig
,
9
f
8
:
E
f
=
0, aber
f
6
= 0
4.2.3 Su zienz
:
E
n
,
!
F
x
1
;:::x
n
,
!
x
1
;:::x
n
=
y
heit su zient erschopfend fur alle
P
, kurz fur
,
8
y
2
F
8
2
:
P
n
j
B
y
unabhangig
,
ist im Term nicht mehr vorhanden von
mit
B
y
=
f
x
i
j
x
i
=
y
g
;
x
i
=
x
1
;:::x
n
.
Su zienzkriterium = Konstruktionsprinzip
144 ELEMENTE DER PARAMETRISCHEN SCHATZ- UND TESTTHEORIE
4.2.4 Faktorisierungstheorem von Finster-Neymann
:
x
i
,
!
y
su zient fur
,
P
x
1
;:::x
n
=
g
x
1
;:::
n
|
z
y
h
x
1
;:::x
n
mit mebarem
g
8
2
; h
Hierbei ist im diskreten Fall
P
=
Massenverteilung und im kontinuier-
lichen Fall
P
=
'
Dichte.
g
ist eine Funktion der Statistik und des Para-
meters
g
y
.
h
ist eine Funktion der
x
i
h
x
i
;
manchmal
1. Kann man
nachweisen, da eine Verteilung zur Exponentialfamilie gehort, so ist dies unter
Umstanden auch ein Weg die Su zienz einer Statistik nachzuweisen s. Ubung
50.
4.3 Schatztheorie Punktschatzung
4.3.1 De nition: Schatzer
Eine Statistik
x
=
s
n
:
E
n
;
B
n
;
P
n
,
!
oder
s
:
F;
C
;
P
F
,
!
heit
Schatzer von
Schatzfunktion.
s
n
heit erwartungstreu
,
8
2
:
E
s
n
=
Erwartungswert des Schatzers
= Parameter
s
n
heit asymptotisch erwartungstreu
,
8
2
:
E
s
n
n
!1
,
!
s
n
heit konsistent erwartungstreu
,
8
2
:
8
d
0 :
P
n
f
x
i
g
j
j
s
n
x
i
,
j
d
Es gilt bei Unabhangigkeit von
x
i
: Varianz der Summe = Summe der Varianz.
4.3.2 Satz von Lehman Schi
e UMVU-Schatzer
x
su zient und vollstandig
f
x
erwartungstreu fur
f
x
gleichmasig erwartungstreuer Scha-
tzer
GBE-Schatzer, UMVU-Schatzer.
4.3.3 Mittlerer quadratischer Fehler MQF
Mit dem Erwartungsert
E
,
2
kann die Gute einer Schatzfunktion be-
schrieben werden.
MQF =
E
,
2
=
E
2
,
2
+
2
=
E
2
,
2
E
+
2
+
E
2
,
E
2
= Var +
,
E
2
|
z
BiasVerzerrung
Bei erwartungtreuen Schatzfunktionen gilt wegen
E
= : MQF = Var ,
d.h. es liegt kein Bias vor.
4.3.4 Risiko
Bezuglich einer Schadensfunktion
u
:
,
!
IR
+
heit die Schadenserwar-
tung
0 in Abhangigkeit von
.
R
s
=
E
u
;s
=
R
F
u
;s
y
dP
y
ist das Risiko des Schatzers mit
s
:
F
,
!
.
4.4 Bereichsschatzung
15
s
2
S
heit extremer Schatzer minimaler Varianz, gleichmaig minimal va-
rianter erwartungstreuer Schatzer oder gleichmaig bester erwartungstreuer
Schatzer fur
,
8
s
2
S
0
;
8
2
: Var
s
Var
s
Andere Optimalitatskonzepte
s
0
Minimax fur
,
8
s
: sup
R
s
0
sup
R
s
4.3.5 Wichtigste Konstruktionsmethoden
Maximum-Likelihood Methode:
geg:
E
n
;
B
n
;
P
n
;
festes Ereignis, Beobachtung
B E
n
ges:
F;
C
;
P
F
;
festes Ereignis , Beobachtung
B
F
Methode der groten Plausibilitat oder Maximum-Likelihood Methode:
Jedes
2
erklart
B
oder
C
am plausibelsten, das
B
oder
C
die grote
Wahrscheinlichkeit gibt.
ges:
aus sup
P
B
oder aus
sup
P
0
C
, im allgemeinen ist
B
einele-
mentig:
B
=
f
x
1
;:::x
n
g
.
P
n
B
:::
8
:
Masse
x
1
;:::x
n
=
n
Q
1
x
i
Dichte
'
x
1
;:::x
n
=
n
Q
1
'
x
i
9
=
;
L
;
x
1
;:::x
n
Likelihoodfunktion in
;
x
1
:::x
n
Die ML-Methode gibt die Wahrscheinlich-
keit an,da die Stichprobe
x
1
;:::x
n
bei Vorliegen des Parameters
realisiert
wird. Das
, fur das
P
maximiert wird, unterstutzt die Stichprobe am be-
sten. Man setzt also
dL
x
dp
bzw.
dlnL
x
dp
gleich null. Man sollte mit der 2.
Ableitung noch nachprufen, ob
L
x
fur das gefundene
wirklich maximal
wird.
4.4 Bereichsschatzung
geg:
F;
C
;
P
F
;
System von Bereichen
ges: Bereichsschatzer
s
:
y
,
!
y
y
, in der der wahre Parameter
aufgrund von
vermutet wird.
4.4.1 Bereichsschatzer
Eine Statistik
s
:
y
,
!
y
heit Kon denz- Bereichsschatzer von
.
Sie ist fur IR
y
=
1
y
;
2
y
ein Intervallschatzer von
. Die Zahl
s
= 1
,
inf
P
c
heit Kon denzniveau von
s
.
s
heit Bereichsschatzer
zum Niveau
,
s
.
4.5 Testtheorie
4.5.1 Optimalitatseigenschaften
geg:
F;B
n
;
P
F
;
2 disjunkte Teilmengen
0
;
1
2 statistische Hypothesen:
H
0
,
2
0
; H
1
,
2
1
2 Entscheidungen aufgrund von Beobachtungen
y
2
F
:
Annahme von
H
0
,
2
0
164 ELEMENTE DER PARAMETRISCHEN SCHATZ- UND TESTTHEORIE
Annahme von
H
1
,
2
1
H
0
: Nullhypothese
H
1
: Alternative falls
1
=
c
0
:
H
1
Gegenhypothese
ges: kritischer Bereich
F
1
Eine Strategie
s
:
F
,
!
f
0
;
1
g
heit deterministischer Test von
H
0
gegen
H
1
.
F
0
=
s
,
1
0 heit Annahmebereich von
H
0
,
F
1
=
s
,
1
1 =
F
c
0
heit
Ablehnungssbereich oder kritischer Bereich.
Fehler 1.Art:
H
0
wird abgelehnt, obwohl
H
0
gilt.
Fehler 2.Art:
H
0
wird nicht abgelehnt, obwohl
H
0
nicht gilt.
Vorgehensweise beim Testen:
1 Aufstellen
H
0
und
H
1
2 Festlegen der relevanten Verteilung, z.B.
x
i
N
;
2
3 Bestimmung einer Teststtatistik su zient!
4 Berechnen des kritischen Bereichs
F
1
zu vorgegebenem Signi kanzniveau
mit
sup
0
P
2
0
2
kritischer Bereich = sup
0
P
Fehler 1.Art
bei
Normalverteilung:
c
=
,
1
1
,
2
p
n
; d
=
,
1
1
,
p
n
5
beob
2
F
1
H
0
ablehnen
beob
=
2
F
1
H
0
nicht ablehnen aber nicht:
H
0
annehmen
4.5.2 Gutefunktion
s
:=
P
F
1
auf
0
1
heit Gutefunktion des Tests
s
= 1
F
1
.
s
1
heit Scharfe, Macht oder Entdeckunswahrscheinlichkeit fur
H
1
. Die Zahl
s
:=
sup
0
s
heit Signi kanzniveau von
s
.
s
heit unverfalscht zum Niveau
s
,
s
j
1
s
s
j
1
=
P
F
1
. Die Gutefunktion gibt fur jedes
die
Wahrscheinlichkeit an, da
H
0
abgelehnt wird.
4.5.3 De nition von
gleichmaig besser
Ein Test
s
von
H
0
gegen
H
1
heit gleichmaig besser oder UMP-Test uni-
formly most powerful zum Niveau
,
s
=
8
s
2
S
:
8
2
1
:
s
s
UMP-Test
s
schopft aus
,
s
=
Ende der Leseprobe aus 20 Seiten
- nach oben
Blick ins Buch
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.