Elementi di Probabilit` a e Statistica Prova di verifica intermedia del giorno 3/04/14 Esercizio 1 Un canale di trasmissione dati pu`o ricevere messaggi binari da due sorgenti A e B: ognuna delle due sorgenti produce messaggi i cui bit successivi sono indipendenti tra loro. Per la sorgente A per`o i bit possono essere 0 o 1 con probabilit`a 1/2 mentre per B il bit 0 viene inviato con probabilit`a 1/3 (ed il bit 1 con probabilit`a 2/3). ` arrivato un messaggio di lunghezza 10 del quale si ignora se sia stato E inviato da A o da B (e in totale incertezza si suppone che sia stato inviato da A o da B con probabilit`a 1/2). a) Sia X la v.a. che indica il numero di bit 1 presenti nel messaggio: qual `e la distribuzione di probabilit`a di X e la sua speranza? b) Supponiamo che X assuma il valore 3 (cio`e 3 volte `e stato inviato il bit 1): `e pi` u probabile che il segnale sia stato inviato da A o da B? E se X assume il valore 7? Esercizio 2 Sia θ un numero con 0 < θ < 1 e si consideri una variabile aleatoria a valori in IN = 0, 1, . . . tale che P(X = k) = c(θ) . (k + 1) . θk , dove c(θ) `e una opportuna costante. a) Calcolare il valore di c(θ) che rende la funzione sopra scritta una funzione di probabilit`a. b) Presa X con tale legge, calcolarne la funzione generatrice delle probabilit`a (precisando dove `e definita), la speranza e la varianza. c) Prese X e Y indipendenti entrambe con questa legge di probabilit`a, calcolare la legge di probabilit`a di X +Y . Suggerimento. Ricordiamo che, per m ∈ N e x ∈ (−1, 1), si ha ∞ X n+m n 1 x . = (1 − x)m+1 m n=0 Esercizio 3 Consideriamo ora come modello statistico un campione X1 , . . . , Xn di variabili aleatorie indipendenti aventi la distribuzione di probabilit`a sopra indicata, al variare di θ ∈ 0 , 1 . d) Determinare un riassunto esaustivo e, se esiste, la stima di massima verosimiglianza di θ ; questa stima `e consistente? 1 e) Determinare un test per l’ipotesi H θ ≥ 0,3 contro l’alternativa 0 H1 θ < 0,3 al livello 0,05 , portando avanti i conti fin dove sono fattibili. Soluzione commentata: Esercizio 1 Identifichiamo con A (rispettivamente B) l’evento “il messaggio `e stato inviato dalla sorgente A” (risp. sorgente B). a) Vale la formula (per 0 ≤ k ≤ 1) P{X = k} = P{X = k|A}.P(A) + P{X = k|B}.P(B) = 10 2 k 1 10−k 1 10 1 10 1 . + . = 2 2 k 3 3 2 k Il calcolo della speranza `e semplificato dal fatto che si pu`o scrivere 10 10 1 X 10 1 10 1 X 10 2 k 1 10−k E[X] = k k + . k k 2 k=0 2 2 k=0 3 3 e ci si riporta facilmente al calcolo (ben noto) della speranza di variabili + 21 20 = 35 . binomiali ottenendo il risultato E[X] = 12 10 2 3 6 Commento: diversi studenti hanno scritto che la variabile X `e binomiale 7 di parametri 10 e 21 12 + 12 32 = 12 . Il calcolo della speranza risulta casualmente esatto ma la modellizzazione `e sbagliata. b) Prendiamo un generico k con 0 ≤ k ≤ 10 : dalla formula di Bayes si ricava P{X = k|A}P(A) P{A|X = k} = P{X = k} e formula analoga per P{B|X = k} . Poich´e P(A) = P(B) = 12 per decidere se `e pi` u probabile A o B (condizionatamente a {X = k} ) `e sufficiente verifi10 k 10−k care se `e maggiore (o minore) 21 oppure 23 . 13 : facili conti provano che con k = 3 `e pi` u probabile A e con k = 7 `e pi` u probabile B. Esercizio 2 P 1 n Derivando il noto sviluppo (1−x) = ∞ n=0 x (valido per −1 < x < 1) si ottiene ∞ ∞ X X 1 n−1 = nx = (n + 1)xn (1 − x)2 n=1 n=0 (che `e un caso particolare dello sviluppo del suggerimento, ponendo m = 1). a) Applicando la formula precedente con x = θ si ottiene che c(θ) = (1 − θ)2 . 2 b) Applicandola di nuovo con x = tθ si ottiene la funzione generatrice, che `e ∞ X (1 − θ)2 GX (t) = tn (n + 1)(1 − θ)2 θn = (1 − tθ)2 n=0 Questa funzione `e definita per |t| < θ−1 , dunque in un intervallo che contiene strettamente [−1 , 1] : ne segue che la variabile ha momenti primo e secondo (anzi, tutti i momenti). Dalla funzione generatrice si ricavano la speranza lim t→1− G0X (t) (1 − θ)2 2θ 2θ = lim = t→1− (1 − tθ)3 (1 − θ) poi si calcola lim t→1− G00X (t) (1 − θ)2 6θ2 6θ2 = lim = t→1− (1 − tθ)4 (1 − θ)2 da cui la varianza `e 6θ2 2θ 4θ2 2θ2 + − = . (1 − θ)2 (1 − θ) (1 − θ)2 (1 − θ)2 c) La legge di X + Y , data dalla formula di convoluzione, `e 4 n P{X + Y = n} = (1 − θ) θ n X (k + 1)(n − k + 1) = k=0 (1 − θ)4 θn n X 1 + n + nk − k 2 ; k=0 il non `e agevole (richiedendo la conoscenza della formula Pcalcolo n 2 e k=0 k = n(n + 1)(2n + 1)/6), il risultato ` P{X + Y = n} = (1 − θ)4 θn (1 + n)2 + n(n + 1)/2 − n(n + 1)(2n + 1)/6 = = (1 − θ)4 θn (1 + 11n/6 + n2 + n3 /6) ; ` pi` E u semplice procedere come segue: dalla teoria sappiamo che GX+Y (t) = GX (t)GY (t) = (1 − θ)4 (1 − tθ)4 usando la formula in suggerimento, con m = 3, otteniamo ∞ X 1 n+3 n = x . (1 − x)3+1 3 n=0 3 da cui, ponendo x = tθ, ∞ X (1 − θ)4 n+3 n n 4 GX+Y (t) = t θ . = (1 − θ) (1 − tθ)4 3 n=0 Sempre dalla teoria sappiamo che la funzione generatrice individua unicamente la legge di probabilit`a, e dunque n+3 n P{X + Y = n} = θ (1 − θ)4 3 Commento: un altro modo di procedere. Consideriamo una v.a. Z2 binomiale negativa di parametri p ∈]0, 1[ e k = 2: la sua legge `e P (Z2 = h) = (h − 1)p2 (1 − p)h−2 per h ≥ 2; se definiamo p = 1 − θ e Y = Z2 − 2 otteniamo una v.a. che ha legge data da P (Y = h) = (h + 1)(1 − θ)2 θh per ogni n naturale, si ottiene dunque che c(θ) = (1 − θ)2 . A esercitazione `e stato mostrato che la somma di v.a. indipendenti e binomiali negative `e ancora una v.a. binomiale negativa; infatti la funzione generatrice di una generica v.a. Zk binomiale negativa di parametri p ∈ (0, 1) e k ≥ 1 `e tk pk (1 − t(1 − p))k (e questo era stato mostrato usando lo sviluppo riportato nel suggerimento). Dunque Z2 ha la stessa legge della somma di due v.a. geometriche e indipendenti: questo permette di dire che la speranza e la varianza di Z2 sono 2/p e 2p/(1−p)2 , e dunque la speranza e la varianza di X sono 2/p−2 = 2θ/(1−θ) e 2(1 − p)/p2 = 2θ/(1 − θ)2 . Notiamo inoltre che GX (t) = GZ2 (t)t−2 : questo si pu`o vedere come facile conseguenza della relazione Y = Z2 − 2. Per lo stesso motivo, la legge di X + Y coincide con la legge di Z4 − 4, dove Z4 `e binomiale negativa di parametri p = 1 − θ e k = 4. Esercizio 3 a) Sullo spazio Ω = INn , la verosimiglianza ha l’espressione L θ ; k1 , . . . , kn n Y = (1 − θ) (ki + 1) θk1 +···+kn 2n i=1 ed `e evidente che P un riassunto esaustivo `e la v.a. T (k1 , . . . , kn ) = k1 +· · ·+kn (o anche T = ni=1 Xi indicando come d’uso con Xi la proiezione canonica di indice i). Dato a ≥ 0 , il massimo della funzione θ → (1 − θ)2n θa si ottiene nel punto a/(2n + a) (bisogna considerare separatamente il caso a = 0 e a > 0 ) 4 e da qui P seguirebbe la formula per la stima di massima verosimiglianza i≤n Xi b ` scritto seguirebbe poich´e in realt`a non `e definita se θn = 2n+P . E i≤n Xi T (k1 , . . . , kn ) = 0 . Tuttavia non `e difficile vedere che la successione (θbn )n≥1 `e consistente: ad esempio se si estende l’insieme dei parametri a [0, 1[ si ottiene che la stima `e ben definita e che la successione `e consistente poich´ P e siamo in un θ b θ modello esponenziale. Si vede poi che P {θn = 0} = P { i≤n Xi = 0} = (1 − θ)2n −→ 0 . ` facile constatare che il modello `e a rapporto di verosimiglianza creb) E scente P rispetto a T e di conseguenza la buona regione critica `e della forma i≤n Xi ≤ d : si tratta allora di trovare il massimo intero k tale che si abbia X P0,3 Xi ≤ k ≤ 0,05 i≤n I conti a questo punto non sono fattibili in pratica; alcuni studenti hanno utilizzato (a volte propriamente ed a volte no) l’approssimazione data dal teorema Limite Centrale. Bisogna per`o osservare che questa approssimazione diventa ragionevole quando la taglia del campione `e grande, inoltre si sarebbe dovuto utilizzare una forma del T.L.C pi` u generale di quella data a lezione. 5
© Copyright 2024 ExpyDoc