Preview only show first 10 pages with watermark. For full document please download

Zettel 12

   EMBED


Share

Transcript

Institut f¨ ur Angewandte Mathematik WS 2015/16 Prof. Patrik Ferrari, Dr. Martin Huesmann ,,Einf¨ uhrung in die Wahrscheinlichkeitstheorie” ¨ 12. Ubungsblatt ¨ Wird in den Ubungen besprochen Aufgabe 1 [0 Pkt ] Es seien N weisse und N schwarze Kugeln auf zwei Urnen verteilt, so dass in jeder Urne N Kugeln enthalten sind. Der Zustand des Systems zum Zeitpunkt n wird beschrieben durch eine Zufallsvariable Xn , die die Anzahl der weissen Kugeln in der ersten Urne angibt. Bei jedem Schritt wird zuf¨allig je eine Kugel aus jeder Urne gezogen und die beiden Kugeln werden vertauscht. Dann ist Xn eine Markovkette mit Zustandsraum {0, . . . , N }. ¨ Bestimmen Sie die Ubergangsmatrix dieser Markovkette. Aufgabe 2 [0 Pkt ] Im Folgenden betrachten wir ein einfaches Wettermodell. Es sei Xn eine zeitlich homogene Markovkette mit den Zust¨anden 0 (= Regen) und 1 (= Sonnenschein). Die ¨ Ubergangsmatrix ist gegeben durch   1 − p01 p01 P = , 0 < p01 , p10 < 1. p10 1 − p10 1. Zeigen Sie 1 P = p01 + p10 n     (1 − p01 − p10 )n p01 −p01 p10 p01 + , p10 p01 −p10 p10 p01 + p10 und berechnen Sie den Grenzwert limn→∞ P n . 2. Bestimmen Sie zun¨achst allgemein die Wahrscheinlichkeiten der Ereignisse A = {in 100 Tagen regnet es} = {X100 = 0}, B = { in einem Jahr regnet es 3 Tage hintereinander} = {X365 = X366 = X367 = 0}, jeweils unter der Annahme, dass es heute regnet (= {X0 = 0}) bzw. dass heute die Sonne scheint (= {X0 = 1}). Berechnen Sie dann die Wahrscheinlichkeiten f¨ ur die konkreten Parameter p01 = 0.4 und p10 = 0.3. 3. Die invariante Verteilung π der Markovkette l¨ost die Gleichung πP = π. 1 Mit anderen Worten ist π linksseitiger auf L¨ange 1 normierter Eigenvektor von P zum Eigenwert 1. Weil π eine Wahrscheinlichkeitsverteilung ist, muss π positive Eintr¨age haben und die Summe der Eintr¨age muss 1 sein. Bestimmen Sie die invariante Verteilung von Xn . Ist diese eindeutig? 4. In diesem Teil ist es unser Ziel, die Parameter p01 und p10 aus konkreten (in diesem Fall mit p10 = 0.2 und p01 = 0.6 simulierten) Daten zu sch¨atzen. Angenommen wir haben ein Jahr lang uns interessierende Wetterdaten gesammelt. Dann haben wir einen Vektor der L¨ange 365 mit Eintr¨agen 0 f¨ ur einen regnerischen bzw. 1 f¨ ur einen sonnigen Tag. Die L¨angen der Regen- bzw. Sonnenscheinperioden kann man als Realisierungen geometrisch verteilter Zufallsvariablen τ0 = inf{n ∈ N : Xn = 0, X0 = 1} und τ1 = inf{n ∈ N : Xn = 1, X0 = 0} ansehen. Es gilt n¨amlich (muss nicht gezeigt werden) P (τ0 = k) = p10 (1 − p10 )k−1 und P (τ1 = k) = p01 (1 − p01 )k−1 f¨ ur k ≥ 1. (1) Eine Realisierung von Xn k¨onnte z.B. wie folgt aussehen: 00 11111111 00 |{z} 111 0000 1 0000 111 1 |{z} 00 |{z} 111 |{z} 000 1111 | {z } . . . |{z} |{z} |{z} |{z} |{z} |{z} |{z} |{z} t1 s1 t2 s2 t3 s3 t4 s4 t5 s5 t6 s6 t7 Die Werte t1 , . . . , t7 sind dann unabh¨angige Realisierungen von τ0 . Genauso sind die Werte s1 , . . . , s6 unabh¨angige Realisierungen von τ1 . Dabei sind die Realisierungen unabh¨angig wegen der Markov-Eigenschaft. Mit den untenstehenden Daten kann man Maximum-Likelihood Sch¨atzungen f¨ ur die Parameter p10 und p01 bestimmen. Es wird sich herausstellen, dass die Reihenfolge der einzelnen Perioden f¨ ur die Sch¨atzung nicht relevant ist. Es reicht also zu wissen, wie oft jeweils die einzelnen Perioden vorkamen. Berechnen Sie jeweils eine ML-Sch¨atzung f¨ ur p01 und p10 mit den folgenden Vektoren der H¨aufigkeiten der Perioden y = (y1 , . . . , y18 ) = (9, 11, 10, 3, 7, 4, 2, 4, 1, 2, 0, 2, 0, 0, 1, 1, 0, 1) und z = (z1 , . . . , z4 ) = (36, 16, 3, 2). Dabei bedeutet beispielsweise y1 = 9, dass 9 mal die Sonnenscheinperiode von einem Tag beobachtet wurde; z2 = 16 bedeutet, dass 16 mal die RegenperiodeP von zwei Tagen beobachtet wurde. Der Vektor y fasst somit die Ergebnisse von n = 18 i=1 yi = 58 Realisierungen von τ0 zusammen. Genauso fasst der Vektor z die Ergebnisse von m = 36 + 16 + 3 + 2 = 57 Realisierungen von τ1 zusammen. 2 Aufgabe 3 [0 Pkt ] Ein Finanzjongleur erzielt mit 91 Prozent Wahrscheinlichkeit pro Arbeitstag 1 Million Gewinn sowie mit 9 Prozent Wahrscheinlichkeit 10 Millionen Verlust. Wie groß ist die Wahrscheinlichkeit, dass er am Ende seines Berufslebens (10.000 Arbeitstage) seinen Arbeitsplatz nicht wie zu erwarten mit einem Gewinn von 100 Millionen sondern mit einem Verlust von mehr als 100 Millionen verl¨asst? Verwenden Sie die Normalverteilungsapproximation und runden Sie großz¨ ugig. Hier einige Werte f¨ ur Z x  r2  1 exp − dr : φ(x) = √ 2 2π −∞ φ(0, 1) = 0, 539 φ(0, 2) = 0, 579 φ(0, 3) = 0, 617 φ(0, 4) = 0, 655 φ(0, 5) = 0, 691 φ(0, 6) = 0, 725 φ(0, 7) = 0, 758 φ(0, 8) = 0, 788 φ(0, 9) = 0, 815 φ(1, 0) = 0, 841 φ(1, 1) = 0, 864 φ(1, 2) = 0, 884 φ(1, 3) = 0, 903 φ(1, 4) = 0, 919 φ(1, 5) = 0, 933 φ(1, 6) = 0, 945 φ(1, 7) = 0, 955 φ(1, 8) = 0, 964 φ(1, 9) = 0, 971 φ(2, 0) = 0, 977 φ(2, 1) = 0, 982 φ(2, 2) = 0, 986 φ(2, 3) = 0, 989 φ(2, 4) = 0, 991 φ(2, 5) = 0, 993 φ(2, 6) = 0, 995 φ(2, 7) = 0, 996 φ(2, 8) = 0, 997 φ(2, 9) = 0, 998 φ(3, 0) = 0, 998 Aufgabe 4 [0 Pkt ] 2 Sei (Xn )n∈N eine Folge von L -Zufallsvariablen auf (Ω, F, P) mit festem Erwartungswert Pn E[Xn ] = m f¨ ur alle n und sei Sn := i=1 Xi . Es gelte Cov(Xi , Xj ) ≤ ε|i−j| , ∀i, j ∈ N, mit endlichen Konstanten εn ∈ (0, ∞), n = 0, 1, 2, . . .. Beweisen Sie die folgenden Erweiterungen (der L2 -Versionen) des schwachen und starken Gesetzes der großen Zahlen. 1. Konvergiert εn → 0 f¨ ur n → ∞, dann folgt Sn →m n 2. Falls P∞ n=1 εn in L2 (Ω, F, P) und in P-Wahrscheinlichkeit. < ∞, dann ist Var(Sn /n) von der Ordnung O(1/n), und es folgt dass Sn →m n 3 P-f.s.