27.08.2014 Aufrufe

Die mehrdimensionale Normalverteilung

Die mehrdimensionale Normalverteilung

Die mehrdimensionale Normalverteilung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 2<br />

<strong>Die</strong> <strong>mehrdimensionale</strong><br />

<strong>Normalverteilung</strong><br />

Zunächst etwas Wiederholung aus WTII.<br />

Sei (Ω, F,P) ein Wahrscheinlichkeitsraum. Sei X eine Zufallsvariable mit Verteilung P X und<br />

Verteilungsfunktion F. <strong>Die</strong> charakteristische Funktion ψ X ist erklärt durch<br />

∫<br />

∫<br />

ψ X (t) := Ee itX = e itx P X (dx) = e itx F(dx).<br />

Einige wichtige Eigenschaften:<br />

1) Sind X,Y Zufallsvariablen mit X = aY + b, dann folgt ψ X (t) = e itb ψ Y (at).<br />

2) Sind X 1 ,... ,X n unabhängig und ist S n = ∑ n<br />

i=1 X i, so gilt ψ Sn = ∏ n<br />

i=1 ψ X i<br />

(t).<br />

3) Sei X nach N(µ,σ 2 )-verteilt, d.h. P(X ≤ α) = ∫ α<br />

−∞<br />

ψ X (t) = exp(itµ − 1 2 σ2 t 2 ).<br />

√ 1<br />

2πσ 2 e−(x−µ)2 2σ 2<br />

Wir weisen 3) nach:<br />

Sei Y = X−µ<br />

σ<br />

. Dann ist Y nach N(0,1)-verteilt und es gilt wegen 1)<br />

ψ X (t) = e itµ ψ Y (σt).<br />

Daher genügt es, ψ Y (t) = e − t2 2 nachzuweisen. Mit majorisierter Konvergenz folgt:<br />

∞∑<br />

ψ Y (t) = Ee itY (itY ) n ∞∑ (it) n<br />

= E = EY n<br />

n! n!<br />

n=0 n=0<br />

∞∑ (it) 2k<br />

=<br />

(2k)! EY 2k (aus Symmetriegründen)<br />

=<br />

=<br />

k=0<br />

∞∑<br />

k=0<br />

∞∑<br />

k=0<br />

= e −t2 /2 .<br />

(it) 2k (2k)!<br />

(2k)! 2 k k!<br />

(− t2 2 )k<br />

k!<br />

5<br />

dx, α ∈ R. Dann gilt


6 Kapitel 2: <strong>Die</strong> <strong>mehrdimensionale</strong> <strong>Normalverteilung</strong><br />

Dabei haben wir die Identität EY 2k = (2k)! benutzt, die in den Übungen nachgerechnet worden<br />

2 k k!<br />

ist.<br />

Notation:<br />

Ein Zufallsvektor ist ein Vektor X = (X 1 ,... ,X n ) T von Zufallsvariablen X i ,(1 ≤ i ≤ n).<br />

Der Erwartungswert von X wird komponentenweise definiert: EX := (EX 1 ,... ,EX n ) T . <strong>Die</strong><br />

Kovarianzmatrix von X wird durch Kov(X) := (Kov(X i ,X j )) 1≤i,j≤n definiert, falls EX 2 i < ∞<br />

ist für i = 1,... ,n. Dann gilt<br />

Kov(X) ij = Kov(X i ,X j ) = E((X i − EX i )(X j − EX j ))<br />

= E(X i X j − EX i EX j )<br />

= E((X − EX)(X − EX) T ) ij .<br />

Kov(X) ist also offensichtlich eine symmetrische n×n-Matrix. Außerdem ist Kov(X) nichtnegativdefinit<br />

(d.h. für alle a ∈ R n gilt a T Kov(X)a ≥ 0), denn<br />

a T Kov(X)a = a T E((X − EX)(X − EX) T )a<br />

= E ( a T (X − EX)(X − EX) T a ]<br />

= E((a T (X − EX)) 2 )<br />

( n∑<br />

= E a i (X i − EX i )<br />

i=1<br />

≥ 0.<br />

Im Folgenden sehen wir, dass umgekehrt jede nichtnegativ-definite symmetrische Matrix Kovarianzmatrix<br />

eines Zufallsvektors ist. Hierzu bemerken wir: Zu jeder nichtnegativ-definiten<br />

symmetrischen n × n-Matrix Σ gibt es eine nichtnegativ-definite und symmetrische “Wurzel”<br />

Q mit Σ = Q · Q T : Ist Σ nichtnegative und symmetrische n × n-Matrix, dann gibt es eine<br />

orthogonale Matrix O mit<br />

⎛<br />

˜Σ = OΣO −1 und ˜Σ = ⎜<br />

⎝<br />

˜σ 2 1<br />

) 2<br />

. ..<br />

˜σ 2 n<br />

⎞<br />

⎟<br />

⎠ .<br />

Dabei sind ˜σ 2 i ≥ 0,(i = 1,... ,n), denn für a ∈ Rn gilt a T ˜Σa = a T OΣO −1 a = (O T a) T ΣO T a ≥<br />

0.<br />

Definition 2.1 Ein Zufallsvektor X : Ω → R n , X = (X 1 ,... ,X n ) T heißt n-dimensional<br />

normalverteilt, wenn für jedes a ∈ R n die Zufallsvariable a T X = ∑ n<br />

i=1 a iX i eindimensional<br />

normalverteilt ist.<br />

Bemerkung 2.2 Ist X n-dimensional normalverteilt und ist A eine m×n-Matrix, so ist AX<br />

m-dimensional normalverteilt.


7<br />

Satz 2.3 Sei Σ eine symmetrische und nichtnegativ-definite n × n-Matrix und sei µ ∈ R n .<br />

Dann existiert ein Zufallsvektor X mit EX = µ und Kov(X) = Σ, der n-dimensional normalverteilt<br />

ist. Außerdem gilt Ee itT X = exp{it T µ − 1 2 tT Σ t} für t ∈ R n .<br />

Beweis: 1. Schritt: Wir zeigen die Behauptung für µ = 0 und Σ = E (wobei E die<br />

Einheitsmatrix in R n × R n bezeichnet).<br />

Seien Y 1 ,... ,Y n u.i.v. nach N(0,1), dann ist der Zufallsvektor Y = (Y 1 ,...,Y n ) T n-dimensional<br />

normalverteilt mit EY = 0 und Kov(Y ) = E. Weiter gilt für s ∈ R<br />

⎧ ⎫<br />

⎨ n∑ ⎬<br />

Ee isaT Y<br />

= E exp<br />

⎩ is a j Y j<br />

⎭<br />

=<br />

=<br />

n∏<br />

j=1<br />

n∏<br />

j=1<br />

= exp<br />

Ee isa jY j<br />

e −1 2 (sa j) 2<br />

j=1<br />

{<br />

− 1 }<br />

2 s2 a T a .<br />

<strong>Die</strong>s ist die charakteristische Funktion einer N(0,a T a)-verteilten Zufallsvariablen. Daher ist<br />

a T Y normalverteilt.<br />

2. Schritt: Sei Q symmetrisch und nichtnegativ-definit mit Σ = QQ T und sei Y wie in Schritt<br />

1. Dann ist X := QY +µ nach Bemerkung 2.2 n-dimensional normalverteilt mit EX = µ und<br />

Kov(X) = E((X − µ)(X − µ) T ) = E(QY (QY ) T ) = QQ T = Σ.<br />

<strong>Die</strong> charakteristische Funktion ist<br />

Ee itT X = Ee itT (QY +µ) = e itT µ Ee itT QY<br />

und<br />

{<br />

Ee itT QY = Ee i(QT t) T Y = exp − 1 } {<br />

2 (QT t) T Q T t = exp − 1 }<br />

2 tT Σ t . ✷<br />

Satz 2.4 Seien Σ = QQ T und X = µ + QY mit Y = (Y 1 ,...Y n ) T und Y 1 ,... ,Y n u.i.v. nach<br />

N(0,1). Ist det(Σ) > 0, so hat die Verteilung L(X) eine Dichte f bezüglich des Lebesgue-<br />

Maßes λ n auf R n mit<br />

f(x) =<br />

1<br />

√<br />

{− √<br />

(2π) n det(Σ) exp 1 }<br />

2 (x − µ)T Σ −1 (x − µ)<br />

für x ∈ R n .<br />

Beweis: Für eine beliebige Borelmenge A ⊂ R n gilt<br />

∫<br />

P(X ∈ A) = P(µ + QY ∈ A) = P(Y ∈ Q −1 (A − µ)) =<br />

Y ∈Q −1 (A−µ)<br />

g(y)dy


8 Kapitel 2: <strong>Die</strong> <strong>mehrdimensionale</strong> <strong>Normalverteilung</strong><br />

mit<br />

g(y) =<br />

n∏<br />

i=1<br />

1<br />

√<br />

2π<br />

e −y2 i/ 2<br />

,<br />

da Y 1 ,... ,Y n unabhängig verteilt sind. Mit der Transformationsformel für Lebesgue-Integrale<br />

folgt<br />

∫<br />

P(X ∈ A) = g(Q −1 1<br />

(x − µ))<br />

A<br />

|det(Q)| dx<br />

∫<br />

1<br />

( )<br />

= √ g Σ −1 / 2<br />

(x − µ) dx<br />

det(Σ)<br />

=<br />

A<br />

1<br />

√<br />

(2π) n det(Σ)<br />

∫<br />

A<br />

{<br />

exp − 1 }<br />

2 (x − µ)Σ−1 (x − µ) dx.<br />

✷<br />

Korollar 2.5 Sei X n-dimensional normalverteilt. <strong>Die</strong> Komponenten X 1 ,... ,X n sind genau<br />

dann unabhängig, wenn Kov(X) Diagonalgestalt hat.<br />

Beweis: Sei Rg(Σ) = n, so ist<br />

⎛ ⎞<br />

Σ = ⎜<br />

⎝<br />

σ 2 1<br />

. .. ⎟<br />

⎠ mit σ2 i > 0 und Σ−1 = ⎜<br />

⎝<br />

σn<br />

2<br />

⎛<br />

σ −2<br />

1<br />

. ..<br />

σ −2<br />

n<br />

⎞<br />

⎟<br />

⎠ .<br />

Mit dem vorangehenden Satz folgt, dass die Verteilung von X eine λ n -Dichte f der Gestalt<br />

{<br />

}<br />

1<br />

f(x) = √ √ (2π) n σ1 2 · · · exp − 1 n∑ (x i − µ i ) 2<br />

σ2 2 2σ<br />

n<br />

2 i=1 i<br />

n∏ 1<br />

= √ e −1 (x i −µ i )<br />

2 2 σ<br />

i<br />

2<br />

i=1 2π σi<br />

2<br />

hat. Da die Dichte in ein Produkt von Wahrscheinlichkeitsdichten zerfällt, ist P X ein Produktmaß<br />

und X 1 ,...,X n sind stochastisch unabhängig.<br />

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!