27.08.2014 Aufrufe

Die mehrdimensionale Normalverteilung

Die mehrdimensionale Normalverteilung

Die mehrdimensionale Normalverteilung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Kapitel 2<br />

<strong>Die</strong> <strong>mehrdimensionale</strong><br />

<strong>Normalverteilung</strong><br />

Zunächst etwas Wiederholung aus WTII.<br />

Sei (Ω, F,P) ein Wahrscheinlichkeitsraum. Sei X eine Zufallsvariable mit Verteilung P X und<br />

Verteilungsfunktion F. <strong>Die</strong> charakteristische Funktion ψ X ist erklärt durch<br />

∫<br />

∫<br />

ψ X (t) := Ee itX = e itx P X (dx) = e itx F(dx).<br />

Einige wichtige Eigenschaften:<br />

1) Sind X,Y Zufallsvariablen mit X = aY + b, dann folgt ψ X (t) = e itb ψ Y (at).<br />

2) Sind X 1 ,... ,X n unabhängig und ist S n = ∑ n<br />

i=1 X i, so gilt ψ Sn = ∏ n<br />

i=1 ψ X i<br />

(t).<br />

3) Sei X nach N(µ,σ 2 )-verteilt, d.h. P(X ≤ α) = ∫ α<br />

−∞<br />

ψ X (t) = exp(itµ − 1 2 σ2 t 2 ).<br />

√ 1<br />

2πσ 2 e−(x−µ)2 2σ 2<br />

Wir weisen 3) nach:<br />

Sei Y = X−µ<br />

σ<br />

. Dann ist Y nach N(0,1)-verteilt und es gilt wegen 1)<br />

ψ X (t) = e itµ ψ Y (σt).<br />

Daher genügt es, ψ Y (t) = e − t2 2 nachzuweisen. Mit majorisierter Konvergenz folgt:<br />

∞∑<br />

ψ Y (t) = Ee itY (itY ) n ∞∑ (it) n<br />

= E = EY n<br />

n! n!<br />

n=0 n=0<br />

∞∑ (it) 2k<br />

=<br />

(2k)! EY 2k (aus Symmetriegründen)<br />

=<br />

=<br />

k=0<br />

∞∑<br />

k=0<br />

∞∑<br />

k=0<br />

= e −t2 /2 .<br />

(it) 2k (2k)!<br />

(2k)! 2 k k!<br />

(− t2 2 )k<br />

k!<br />

5<br />

dx, α ∈ R. Dann gilt


6 Kapitel 2: <strong>Die</strong> <strong>mehrdimensionale</strong> <strong>Normalverteilung</strong><br />

Dabei haben wir die Identität EY 2k = (2k)! benutzt, die in den Übungen nachgerechnet worden<br />

2 k k!<br />

ist.<br />

Notation:<br />

Ein Zufallsvektor ist ein Vektor X = (X 1 ,... ,X n ) T von Zufallsvariablen X i ,(1 ≤ i ≤ n).<br />

Der Erwartungswert von X wird komponentenweise definiert: EX := (EX 1 ,... ,EX n ) T . <strong>Die</strong><br />

Kovarianzmatrix von X wird durch Kov(X) := (Kov(X i ,X j )) 1≤i,j≤n definiert, falls EX 2 i < ∞<br />

ist für i = 1,... ,n. Dann gilt<br />

Kov(X) ij = Kov(X i ,X j ) = E((X i − EX i )(X j − EX j ))<br />

= E(X i X j − EX i EX j )<br />

= E((X − EX)(X − EX) T ) ij .<br />

Kov(X) ist also offensichtlich eine symmetrische n×n-Matrix. Außerdem ist Kov(X) nichtnegativdefinit<br />

(d.h. für alle a ∈ R n gilt a T Kov(X)a ≥ 0), denn<br />

a T Kov(X)a = a T E((X − EX)(X − EX) T )a<br />

= E ( a T (X − EX)(X − EX) T a ]<br />

= E((a T (X − EX)) 2 )<br />

( n∑<br />

= E a i (X i − EX i )<br />

i=1<br />

≥ 0.<br />

Im Folgenden sehen wir, dass umgekehrt jede nichtnegativ-definite symmetrische Matrix Kovarianzmatrix<br />

eines Zufallsvektors ist. Hierzu bemerken wir: Zu jeder nichtnegativ-definiten<br />

symmetrischen n × n-Matrix Σ gibt es eine nichtnegativ-definite und symmetrische “Wurzel”<br />

Q mit Σ = Q · Q T : Ist Σ nichtnegative und symmetrische n × n-Matrix, dann gibt es eine<br />

orthogonale Matrix O mit<br />

⎛<br />

˜Σ = OΣO −1 und ˜Σ = ⎜<br />

⎝<br />

˜σ 2 1<br />

) 2<br />

. ..<br />

˜σ 2 n<br />

⎞<br />

⎟<br />

⎠ .<br />

Dabei sind ˜σ 2 i ≥ 0,(i = 1,... ,n), denn für a ∈ Rn gilt a T ˜Σa = a T OΣO −1 a = (O T a) T ΣO T a ≥<br />

0.<br />

Definition 2.1 Ein Zufallsvektor X : Ω → R n , X = (X 1 ,... ,X n ) T heißt n-dimensional<br />

normalverteilt, wenn für jedes a ∈ R n die Zufallsvariable a T X = ∑ n<br />

i=1 a iX i eindimensional<br />

normalverteilt ist.<br />

Bemerkung 2.2 Ist X n-dimensional normalverteilt und ist A eine m×n-Matrix, so ist AX<br />

m-dimensional normalverteilt.


7<br />

Satz 2.3 Sei Σ eine symmetrische und nichtnegativ-definite n × n-Matrix und sei µ ∈ R n .<br />

Dann existiert ein Zufallsvektor X mit EX = µ und Kov(X) = Σ, der n-dimensional normalverteilt<br />

ist. Außerdem gilt Ee itT X = exp{it T µ − 1 2 tT Σ t} für t ∈ R n .<br />

Beweis: 1. Schritt: Wir zeigen die Behauptung für µ = 0 und Σ = E (wobei E die<br />

Einheitsmatrix in R n × R n bezeichnet).<br />

Seien Y 1 ,... ,Y n u.i.v. nach N(0,1), dann ist der Zufallsvektor Y = (Y 1 ,...,Y n ) T n-dimensional<br />

normalverteilt mit EY = 0 und Kov(Y ) = E. Weiter gilt für s ∈ R<br />

⎧ ⎫<br />

⎨ n∑ ⎬<br />

Ee isaT Y<br />

= E exp<br />

⎩ is a j Y j<br />

⎭<br />

=<br />

=<br />

n∏<br />

j=1<br />

n∏<br />

j=1<br />

= exp<br />

Ee isa jY j<br />

e −1 2 (sa j) 2<br />

j=1<br />

{<br />

− 1 }<br />

2 s2 a T a .<br />

<strong>Die</strong>s ist die charakteristische Funktion einer N(0,a T a)-verteilten Zufallsvariablen. Daher ist<br />

a T Y normalverteilt.<br />

2. Schritt: Sei Q symmetrisch und nichtnegativ-definit mit Σ = QQ T und sei Y wie in Schritt<br />

1. Dann ist X := QY +µ nach Bemerkung 2.2 n-dimensional normalverteilt mit EX = µ und<br />

Kov(X) = E((X − µ)(X − µ) T ) = E(QY (QY ) T ) = QQ T = Σ.<br />

<strong>Die</strong> charakteristische Funktion ist<br />

Ee itT X = Ee itT (QY +µ) = e itT µ Ee itT QY<br />

und<br />

{<br />

Ee itT QY = Ee i(QT t) T Y = exp − 1 } {<br />

2 (QT t) T Q T t = exp − 1 }<br />

2 tT Σ t . ✷<br />

Satz 2.4 Seien Σ = QQ T und X = µ + QY mit Y = (Y 1 ,...Y n ) T und Y 1 ,... ,Y n u.i.v. nach<br />

N(0,1). Ist det(Σ) > 0, so hat die Verteilung L(X) eine Dichte f bezüglich des Lebesgue-<br />

Maßes λ n auf R n mit<br />

f(x) =<br />

1<br />

√<br />

{− √<br />

(2π) n det(Σ) exp 1 }<br />

2 (x − µ)T Σ −1 (x − µ)<br />

für x ∈ R n .<br />

Beweis: Für eine beliebige Borelmenge A ⊂ R n gilt<br />

∫<br />

P(X ∈ A) = P(µ + QY ∈ A) = P(Y ∈ Q −1 (A − µ)) =<br />

Y ∈Q −1 (A−µ)<br />

g(y)dy


8 Kapitel 2: <strong>Die</strong> <strong>mehrdimensionale</strong> <strong>Normalverteilung</strong><br />

mit<br />

g(y) =<br />

n∏<br />

i=1<br />

1<br />

√<br />

2π<br />

e −y2 i/ 2<br />

,<br />

da Y 1 ,... ,Y n unabhängig verteilt sind. Mit der Transformationsformel für Lebesgue-Integrale<br />

folgt<br />

∫<br />

P(X ∈ A) = g(Q −1 1<br />

(x − µ))<br />

A<br />

|det(Q)| dx<br />

∫<br />

1<br />

( )<br />

= √ g Σ −1 / 2<br />

(x − µ) dx<br />

det(Σ)<br />

=<br />

A<br />

1<br />

√<br />

(2π) n det(Σ)<br />

∫<br />

A<br />

{<br />

exp − 1 }<br />

2 (x − µ)Σ−1 (x − µ) dx.<br />

✷<br />

Korollar 2.5 Sei X n-dimensional normalverteilt. <strong>Die</strong> Komponenten X 1 ,... ,X n sind genau<br />

dann unabhängig, wenn Kov(X) Diagonalgestalt hat.<br />

Beweis: Sei Rg(Σ) = n, so ist<br />

⎛ ⎞<br />

Σ = ⎜<br />

⎝<br />

σ 2 1<br />

. .. ⎟<br />

⎠ mit σ2 i > 0 und Σ−1 = ⎜<br />

⎝<br />

σn<br />

2<br />

⎛<br />

σ −2<br />

1<br />

. ..<br />

σ −2<br />

n<br />

⎞<br />

⎟<br />

⎠ .<br />

Mit dem vorangehenden Satz folgt, dass die Verteilung von X eine λ n -Dichte f der Gestalt<br />

{<br />

}<br />

1<br />

f(x) = √ √ (2π) n σ1 2 · · · exp − 1 n∑ (x i − µ i ) 2<br />

σ2 2 2σ<br />

n<br />

2 i=1 i<br />

n∏ 1<br />

= √ e −1 (x i −µ i )<br />

2 2 σ<br />

i<br />

2<br />

i=1 2π σi<br />

2<br />

hat. Da die Dichte in ein Produkt von Wahrscheinlichkeitsdichten zerfällt, ist P X ein Produktmaß<br />

und X 1 ,...,X n sind stochastisch unabhängig.<br />

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!