DIARO delle LEZIONI CALCOLO DELLE
PROBABILITA' (INFORMATICA) a.a. 2013-14
Potete usare come riferimento, anche il file del diario delle
lezioni dello scorso anno
http://twiki.di.uniroma1.it/twiki/viewfile/CP/WebHome?rev=1;filename=lezioni-CALCOLO_PROBABILITA_INFORMATICA-2012-13-fino-al-31-maggio2013.pdf
dove alcuni temi sono sviluppati in dettaglio,
ma si consiglia vivamente di utilizzare anche un testo di
probabilità (solo questi appunti non bastano)
mercoledì 5 marzo 2014
Considerazioni generali su frequenza e probabilità classica (numero
dei casi favorevoli diviso il numero dei casi possibili), eventi e
loro rappresentazione come insiemi, sono stati introdotti gli
assiomi delle probabilità.
venerdì 7 marzo 2014
Esempi sui dadi (lancio di due dadi, rappresentazione di vari
eventi, non unicità dello spazio di probabilità)
e prime conseguenze dagli assiomi: probabilita' del complementare,
probabilità dell'evento impossibilie (o insieme vuoto) proprieta' di
monotonia della probabilita'.
lunedì 10 marzo 2014
Soluzione del problema del compleanno; le definzioni di Disposizione
(con ripetizione e senza ripetizione) di m elementi di classe k di
Permutazione di k elementi e di Combinazione di m elementi di
classe k; dimostrazione della formula (di Stieffel) che permette di
calcolare le combinazioni attrevarso il triangolo di TARTAGLIA
(anche detto di PASCAL)
mercoledì 12 marzo 2014
Formula di inclusione ed esclusione per due eventi, e subadditività
della probabilità (la probabilità dell'unione di due eventi è minore
o uguale della somma delle probabilità dei singoli eventi) Formula
delle probabilità composte. Esempi e applicazioni.
venerdì 14 marzo 2014
Formula delle probabilità composte e costruzione di alberi, vari
modelli di spazi di probabilità per estrazioni da un'urna di
composizione nota. Calcolo di probabilità inverse (prima versione
della formula di Bayes, senza dire il nome)
lunedì 17 marzo 2014
Formula di Bayes e delle probabilità totali. Esempio del Test medico
(HIV). Verifica del fatto che, fissato B con P(B)>0, la funzione
che all'evento A associa P_B(A) : = P(A|B) è una probabilità.
mercoledì 19 marzo 2014
SCIOPERO MEZZI DI TRASPORTO
SOLO ESERCIZI, e precisamente
dal TUTORAGGIO di PROBABILITA' per MATEMATICI del 2010
http://twiki.di.uniroma1.it/twiki/viewfile/CP/WebHome?rev=1;filename=tutoraggio_2010.pdf
(attenzione il file contiene delle risposte, ma non tutte sono state
controllate)
2-3 marzo 2010 ES.2
16-17 marzo 2010 ES.2 (N.B. la condizone P(A)=P(B) serve solo nella
domanda d), ES.6, ES.7
23-24-marzo 2010 ES.1, ES.2
dalle
lezioni dello scorso anno, data del 13 marzo 2013, Es. 2a e 2b
venerdì 21 marzo 2014
Estrazioni senza reinserimento da urna di composizione nota, b
palline bianche ed r rosse, (n= numero delle estrazioni) calcolo
della probabilità di estrarre k palline bianche.
applicazione al lotto, calcolo di cinquina, quaterna, terno, ambo.
Esercizio 3.l (pag.81) del Ross su probabilità condizionate.
lunedì 24 marzo 2014
Anagrammi, esempio di anagrammi di MATEMATICA: 1) semplici 2)
che contengono ICE 3) che contengono MAT, relazione con il principio
di icnlusione ed esclusione per due eventi
(attenzione sugli appunti delle
lezioni dello scorso anno c'e' un ovvio errore di stampa
10!/(2!3!2! 1! 1! 1!) invece di 10! (2!3!2! 1! 1! 1!)
Principio di inclusione ed esclusione per n eventi. Applicazione: il
problema delle concordanze (o degli accoppiamenti o del matching)
per la probabilità di nessuna concordanza e per esattametne k
conconrdanze)
mercoledì 26 marzo 2014
Esercizi sulla formula di Bayes, con scelta tra due urne ed
estrazioni cone senza renserimento 1) di una palline e 2) di
due palline. Estrazioni con reinserimento da urne con composizione
nota (b bianche r rosse, n= numero delle estrazioni). Probabilità di
estrazione di esattamente k palline bianche (k=0,1,2,...,n).
venerdì 28 marzo 2014
Definizione di indipendenza di due eventi. L'evento impossibile e'
indipendente da ogni evento. Un evento di probabilità zero è
indipendente da ogni evento. Se due eventi hanno probabilità
strettamente positiva e sono disgiunti allora NON sono indipendenti.
Se due eventi A e B sono indipendenti lo sono anche A e B^c, A^c e
B, A^c e B^c. Conseguenza: se A e B sono indipendenti e P(A) e P(B)
sono noti allora posso calcolare tutte le probabilità di eventi che
si esprimono solo tramite A, B e le operazioni logiche.
Definizione di Indipendenza di tre eventi. Esempi lancio di tre dadi
A={I dado pari}, B={II dado pari}, C={III dado pari} sono
indipendenti. Lancio di due monete Controesempio.1
A={I moneta testa} B={II moneta testa} C={le due monete sono
diverse} NON sono tre eventi indipendenti [P(AB)=P(A)P(B),
P(AC)=P(A)P(C), P(BC)=P(B)P(C) ma P(ABC) diverso da P(A)P(B)P(C)
] Controesempio.2 A= evento impossibile B e C
disgiunti con P(B) e P(C) strettamente positive
[P(AB)=P(A)P(B), P(AC)=P(A)P(C), P(ABC) =P(A)P(B)P(C), ma
P(BC) diverso da P(B)P(C) ]
Esercizi sul gioco del poker Calcolo delle probabilità del poker, di
colore, di full, di tris, di doppia coppia.
lunedì 31 marzo 2014
Equivalenza delle diverse definizioni di indipendenza di tre
eventi (con dimostrazione). Costruzione di controesempi di
eventi per i quali P(AB)=P(A)P(B), P(AC)=P(A)P(C),
P(ABC)=P(A)P(B)P(C), ma P(BC) diverso da P(B)P(C), e costruzione di
un modello in cui tre eventi sono indipendenti e con
probabilita' assegnate. Definizioni equivalenti di n eventi
indipendenti (senza dimostrazione). Prototipo di n eventi
equivalenti: n estrazioni con reinserimento da un'urna con
composizione nota (b palline bianche ed r rosse con b ed r numeri
fissati), gli eventi B_i={i-sima pallina estratta Bianca}, per i=
1,..., n, formano una famiglia di n eventi (globalmente,
completamente, mutuamente) indipendenti. SE LA COMPOSIZIONE NON E'
NOTA allora gli eventi B_i NON SONO INDIPENDENTI
controesempio: con la scelta fra due urne di composizione diversa,
(urna 1, con b=2 ed r=1, urna 2 con b=1 ed r=2, H_i={scelta di urna
i} e P(H_1)=1/4, due estrazioni con reinserimento dalla stessa urna.
Nel caso specifico si mostra che P(B_1B_2) è strettamente maggiore
di P(B_1)P(B_2).
Esercizi 3.9 da Spizzichino Nappo (per il testo vedere anche
venerdi' 22 marzo 2013 delle lezioni dell'a.a. 2012-13)
mercoledì 2 aprile 2014
Esercizi sulle reti elettriche (o piu' in generale reti di
connessioni), nell'ipotesi che gli eventi C_i={connessione del ramo
i} siano eventi indipendenti di probabilità p_i
CONNESSIONE in serie [P(C)=P(C_1 C_2
...C_n)=P(C_1)P(C_2)....P(C_n)=p_1p_2...p_n) ]
CONNESSIONE in parallelo [P(C)=P(almeno uno tra C_1 o
C_2 o...oC_n)=1-P(nessuno tra C_1, C_2,...C_n)=
1-P(C_1^c)P(C_2^c)....P(C_n^c)=1- (1-p_1)(1-p_2)...(1-p_n) ]
CONNESSIONI composte che si possono ricondurre a a connessione
in serie di connessioni in parallelo oppure a connessioni in serie
di connessioni in parallelo
Esercizio 66 (b) dove si usa P(C)=P(C|C_3)P(C_3)+P(C|C_3^c)P(C_3^c)
PROBABILITA' binomiali per il numero di successi su n prove
indipendenti con la stessa probabilità p (ossia in uno schema di
BERNOULLI o delle prove ripetute):
partend dall'Esempio: si lancia un dado 5 volte Alberto punta su
{1,2} e Bruno su {3,4,5,6} e si calcolano le probabiltia' che
Alberto vinca k volte (e Bruno 5-k) per k=0,1,2,...5.
(P(X_A=k)=P(X_A=k, X_B=5-k)= C^5_2 (2/6)^k
(1-2/6)^(5-k). Generalizzazione
Esempio del lotto quando si punta un ambo fissato su tutte le ruote.
Discussione della caccia all'errore su un articolo del 1996. Cenno
al motivo per cui le estrazioni senza reinserimento possono essere
approssimate con n estrazioni senza reinserimento (SOLO se n rimane
fissato e nel limite in cui il numero delle palline tende ad
infinito e la proporzione rimane costante: mb palline bianche ed mr
palline rosse n estrazioni m tende ad infinito, così
P(B_i)=(mb)/(mb+mr)=b/(b+r), ed n e' fissato).
venerdì 4 aprile 2014
Cenno a prove indipendenti a piu' esiti, a partire dall'esempio si
lancia un dado 5 volte Alberto punta su {1,2} e Bruno su {3,4,5} e
Carlo su {6} e si calcolano le probabiltita' che Alberto vinca
k_1 volte Bruno k_2 volte e Carlo k_3 volte, con k_1, k_2, k_3
interi maggiori o uguali a zero e con k_1+k_2+k_3=5.
Generalizzazione al caso di n lanci e al caso di prove ad r esiti.
Calcolo delle soluzioni (k_1,k_2,...,k_r) con k_i maggiore o uguale
a 0 e k_1+k_2+...+k_r=n [per il metodo usato vedere gli
appunti Spizzizhino Nappo: idea mettere in corrispondenza le
soluzione con gli anagrammi di due simboli n * e r-1 |,
ad esempio per r=3 e n=5 ***|*|* corrisponde a
(k_1,k_2,k_3)=(3,1,1) e viceversa (k_1,k_2,k_3)=(0,3,2) corrisponde
a |***|** e quindi il numero di soluzioni sono (n+r-1)!/( n! (r-1)!)
]
Esercizio su doppia coppia nel lancio di 5 dadi: (6!/(2!4!) ) 4
5!/(2! 2! 1!) (1/6^5), infatti
fissati i due numeri delle due coppie e il terzo numero, ad esempio
due "1" due "3" e un "6" la probabilita' di doppia coppia di
{1e 3} e un {6} vale 5!/(2! 2! 1!) (1/6)^2
(1/6)^0(1/6)^2 (1/6)^0 (1/6)^0
(1/6)^1= 5!/(2! 2! 1!) (1/6^5) [corrisponde a 5
prove a sei esiti e calcolo la probabilità di {per 2 volte
l'esito "1", 0 volte l'esito "2",2 volte l'esito "3", 0
volte l'esito "4", 0 volte l'esito "5", 1 volta l'esito "6"}]
poi devo pero' considerare i casi in cui gli esiti sono diversi e
quindi devo scegliere due tipi di esiti (senza tenere conto
dell'ordine e quindi in C^6_2=6!/(2!4!) modi ) e uno fra i 4
rimasti.
Esercizi 1 e 2 del compito del novembre 2012 (reperibile su twiki )
Le domande (v) escluse.
lunedì 7 aprile 2014
Svolti tutti gli esercizi dell'esonero del 17 aprile 2013
(reperibile su twiki)
mercoledì 9 aprile 2014
Studio del caso di n Estrazioni da urne con palline a tre colori (b
Bianche r Rosse e g Gialle) (con b, r e g fissati e noti)
Posto X_B il numero di palline bianche estratte, X_R il numero di
palline rosse estratte, X_G il numero di palline gialle
estratte, Calcolo delle probabilita' condizionate P(X_B=k_B|
X_G=k_G) sia nel caso di estrazioni SENZA REINSERIMENTO che CON
REINSERIMENTO: è necessario che k_B e k_G siano maggiori o
uguali a zero e che k_B+k_G sia minore o uguale a n. Sia nel caso
di estrazioni SENZA REINSERIMENTO che CON REINSERIMENTO si
ottiene che tali probabilità condizionate sono le stesse che
otterremmo se facessimo n-k_G estrazioni da un'urna che contiene
solo le b palline bianche e le r palline rosse.
Esercizi 1, 2,3 del tutoraggio del 7 aprile 2010 ed esercizio del 16
marzo 2010 (disposizione di 4 libri di Algebra, 7 di Calcolo, 5 di
Geometria, la cui soluzione si trova sugli appunti delle lezioni del
2012-13 di lunedi' 8 aprile 2013)
venerdì 11 aprile 2014
Problema sui tempi di primo successo, secondo successo, ... r-simo
successo. Esercizi riassuntivi di preparazione alla prima prova in
itinere
lunedì 14
aprile 2014 martedì
12 aprile 2014 (ricevimento studenti in aula)
mercoledì 16 aprile 2014 (periodo delle prove in
itinere)
venerdì 18
aprile 2014 lunedì 21 aprile 2014 (vacanze
di Pasqua)
mercoledì 23
aprile 2014 (periodo delle prove in itinere) prima prova in itinere
venerdì 25
aprile 2014 (vacanza: anniversario della Liberazione)
lunedì 28 aprile 2014
Definizione di variabile aleatoria: il caso delle variabili
aleatorie (v.a.) discrete, densita' discreta e funzione di
distribuzione (o funzione di distribuzione) per le variabili
aleatorie discrete: esempio del lancio di un dado e v.a. uniformi,
esempio 1.d del Ross (sez 4.1 pagina 131) [vedere anche sugli
appunti del 2012/13] Correzione degli esercizi della prima prova in
itinere.
mercoledì 30 aprile 2014
I principali tipi di distribuzione di variabili aleatorie discrete:
Uniforme, Binomiale di parametri n e p (prototipo S_n= il numero dei
successi in uno schema di Bernoulli o delle prove ripetute,
A_1,...,A_n indipendenti e P(A_i)=p), Bernoulli (ossia il caso n=1)
Ipergeometrica (numero di palline bianche estratte con n estrazioni
senza reinserimento da un'urna con palline bianche e rosse di cui b
bianche e un totale di M=b+r palline), Geometrica di
parametro p, a partire da 1 (prototipo T_1= tempo di primo successo=
numero delle prove necessarie per ottenere per la prima volta un
successo in uno schema di Bernoulli infinito A_i, i=1,2,....),
Poisson di parametro lambda (richiamo su serie di Taylor/Mac Laurin
per la funzione exp(x)). Esercizi su v.a. Geometrica, con richiami
su somma della serie geometrica calcolo di
P(X>2)=1-P(X=1)-P(X=2)=1-p-(1-p)p oppure
P(X>2)=P(T_1>2)=P(A_1^c A_2^c)=(1-p)^2. Calcolo di P(X pari).
Correzione delle domande facoltative della prima prova in itinere.
venerdì 2 maggio 2014
Esercizio: Alberto, Bruno e Carlo, lanciano a turno (e
nell'ordine) un dado: vince chi per primo ottiene un sei.
1) Calcoalre le probabiltà degli eventi A={vince Alberto}, B={vince
Bruno} e C={vince Carlo}.
2) Calcolare la probabilità che il gioco termini in (al massimo) 10
lanci.
SOLUZIONE (schema):
posto T_1=il numero di lanci effettuati fino alla prima volta che
esce un sei, si ha che
A={vince Alberto}={T_1 appartiene a {3n+1, n >=0} },
B={vince Bruno}={T_1 appartiene a {3n+2, n >=0} }
e C={vince Carlo}={T_1 appartiene a {3n+3, n >=0} },
INOLTRE T_1 è una variabile aleatoria geometrica di paramentro p=1/6
in quanto gli eventi E_i={all'i-simo lancio esce sei} sono eventi
indipendenti, tutti di probabilità p=1/6
Quindi la risposta alla domanda 1 diviene
P(A)= somme per n=0,1,... P(T=3n+1)= somme per n=0,1,...
p(1-p)^(3n+1-1)= p /[ 1 - (1-p)^3] (=36/91 con p=1/6)
P(B)= somme per n=0,1,... P(T=3n+2)= somme per n=0,1,...
p(1-p)^(3n+2-1)= p(1-p) /[ 1 - (1-p)^3]=(1-p)P(A) (= 30/91
con p=1/6)
P(C)= somme per n=0,1,... P(T=3n+3)= somme per n=0,1,...
p(1-p)^(3n+3-1)= p(1-p)^2 /[ 1 - (1-p)^3]=(1-p) P(B)=(1-p)^2
P(A) (=25/91 con p=1/6)
La risposta alla domanda 2 invece equivale a
P(T_1 <=10) che si puo' calcolare in 3 modi tenendo
conto che
posto s_m(x)=1+x+...+x^m
si ha
s_m(x)=[1-x^{m+1}]/[1-x] (per x diverso da
1), [ da cui per |x|<1 si ha che la serie
1+x+...+x^k+... . (= somma per k>=0 di x^k=1/(1-x) ]
e che, posto r_m(x)= x^m+x^(m+1)+..... (= somma per k>=m di
x^k)
si ha (sempre per |x|<1)
r_m(x)=x^m / (1-x)
I MODO
P(T_1 <= n )= P(T_1=1)+P(T_1=2)+....+P(T_1=n)=
p+p(1-p)+....p(1-p)^(k-1) +... p(1-p)^(n-1) = p s_{n-1}(1-p) = p
[1-x^(n-1+1)]/[1-x] (dove x=(1-p) )
ossia P(T_1 <= n )= p [1-(1-p)^(n-1+1)]/[1-(1-p)] =
1-(1-p)^n
II MODO
P(T_1 <= n )=1- P(T_1 >n)= 1- [P(T_1=n+1) +P(T_1=n+2) +......]
=1- [p(1-p)^(n+1-1) + p(1-p)^(n+2-1) +....]
= 1- p r_n(1-p)= 1- p (1-p)^n/[1-(1-p)]= 1-(1-p)^n
III modo
P(T_1 <= n )=1- P(T_1 >n)=1- P(E_1^c E_2^c....
E_n^c)=1-P(E_1^c) P(E_2^c).... P(E_n^c)=1- (1-p)^n.
ESERCIZIO si estraggono tre palline in blocco da un'urna che ne
contiene 8 bianche 4 nere e 2 gialle, e per ogni pallina nera si
ottiene +2 per ogni pallina bianca si ottiene -1, mentre per le
palline gialle si ottiene 0. CALCOLARE la densità discreta di
X=vincita (algebrica)
SOLUZIONE (schema) si tratta di individuare i casi possibili ossia
{BBB}, {NNN}, {BBN}, {BBG},{NNB},{NNG},{GGB},{GGN},{BNG} (attenzione
non si tiene conto dell'ordine) e osservare che su {BBB} si ha X=-6,
su {NNN} si ha X=+6, su {BBN} si ha X= - 2, su{BBG} si ha X= -
4, su {NNB} si ha X=+2, su {NNG} si ha X=+4, su {GGB} si ha X= - 2,
su {GGN} si ha X=+2, su {BNG} si ha X=0, e quindi
X(OMEGA)={-6,-4,-2,0,+2,+4,+6} e poi calcolare le probabilità P(X=k)
per k in {-6,-4,-2,0,+2,+4,+6}.
Ad esempio P(X=2)=P({NNB})+P({GGN}).
Ripreso l'esempio delle concordanze (ossia il problema della
segretaria con N lettere intestate messe a caso nelle N buste
intestate) per mostrare che in realtà si era calcolata la densità
discreta della variabile aleatoria X_N che conta il numero di
lettere nella busta giusta e che
P(X_N=n)= C^N_n (N-n)! (sum_{k=0,...N-n} (-1)^k/k! )/N! =
N!/[n! (N-n)!] (N-n)! (sum_{k=0,...N-n} (-1)^k/k! )/N!=
(sum_{k=0,...N-n} (-1)^k/k! )/n!
converge, per N che tende a infinito a P(X=n)=e^{-1}/n!
(dove X e' una variabile aleatoria di Poisson di parametro 1)
in quanto e^x= somma_{k>=0} x^k/k! = limite_{per m che
tende ad infinito} somma_{k:0<=k<=m} x^k/k! (per
x=-1).
lunedì 5 maggio 2014
Approssimazione di Poisson: teorema di Poisson, con
dimostrazione, e applicazione. Definizione del valore atteso per
variabili aleatorie discrete, DEF1 nel caso di spazi di probabilità
finiti DEF2 attraverso la densità discreta. Constatato su un esempio
che le due definizioni coincidono, (nel caso di v.a. definite in
spazi di probabilità finiti). Interpretazione del valore atteso come
baricentro (facoltativo) Esempi di calcolo di valore atteso:
variabili uniformi discrete, funzioni indicatrici.
mercoledì 7 maggio 2014
Richiamo sulle definizioni del valore atteso. Dimostrazione
che DEF1=DEF2 (si veda la lezione prcedente) nel caso di v.a.
definite su spazi di probabilità finiti. Proprietà di linearità e di
monotonia del valore atteso (dimostrazione solo nel caso di spazi di
probabilità finiti, ossia con la DEF 1) [per queste dimostrazioni si
vedano gli appunti delle lezioni dell'a.a. 2012-13]
Calcolo del valore atteso di una variabile aleatoria Binomiale X
~Bin(n,p) : (i) in un caso particolare (n=3 p=1/4) (ii)
in generale, con la definizione attraverso la densità discreta, e
(iii) utilizzando il fatto che E(X)=E(S_n) dove S_n è il numero di
successi in n prove ripetute (ossia in uno schema di Bernoulli:
A_1,...,A_n indipendenti globalmente e P(A_i)=p) e utilizzando il
fatto che S_n è la somma delle funzioni indicatrici degli eventi A_i
(per i=1,..n) e la proprietà di linearità.
Calcolo del valore atteso per una Ipergeometrica (n estrazioni senza
reinserimento da un'urna con b palline bianche ed r rosse)
utilizzando il fatto che una v.a. ipergeometrica si può
rappresentare come somma (per i =1,..n) delle funzioni indicatrici
degli eventi B_i={i-sima estratta binaca} e che P(B_i)=b/(b+r).
Esercizio 3 del 4-5- maggio del tutoraggio per matematici 2010.
venerdì 9 maggio 2014
Richiami sulle derivate delle serie di potenze e calcolo del
valore atteso di una v.a. Geom(p). Calcolo del valore atteso di una
v.a. Poisson(lambda). Calcolo della densità discreta e del valore
atteso di una trasformata di una v.a. X discreta finita (ossia,
posto Z:=g(X) calcolo di p_Z(z)=P(Z=z) e di E(Z)=E[g(X)]) con
dimostrazione.
[ATTENZIONE l'esempio di applicazione sugli appunti delle lezioni
dell'a.a. 2012-13 contiene un errore: il procedimento e' giusto ma i
valori della densità della v.a. X, vanno chiaramente cambiati, si
suggerisce di mettere P(X=-2)=P(X=-1)=1/5, P(X=1)=P(X=2)=1/10 e
P(X=0)=2/5, in questo modo E(Z)=E(X^2)=3/2]
Cenno alla varianza e allo scarto quadratico medio.
Esempi su andamento della densità discreta nel
caso di una v.a.S_n, di tipo binomiale Bin(n,p):
si dimostra che esiste un k* compreso tra 0 ed n, tale che per
k<= k* si ha P(S_n=k+1)>=P(S_n=k), ossia la densità discreta
cresce,
mentre per k>= k*si ha P(S_n=k+1)<=P(S_n=k), ossia la densità
discreta decresce:
IDEA P(S_n=k+1)/P(S_n=k) >=1 se e solo se (n-k) p
/[(k+1)(1-p) ]>=1 ossia se e solo se (n-k)p
>=(k+1)(1-p) ossia se e solo se
np+p >= k+1.
Osservazione 1: il valore k+1 è "vicino" ad np,
che rappresenta il valore atteso
Stesso procedimento per Y, v.a. di Poisson(lambda), per cui si ha un
fenomeno analogo: P(Y=k+1)/P(Y=k)=\lambda/(k+1)>=1 se e
solo lambda>= k+1
Osservazione1: per p=lambda/n la condizione np+p
>= k+1 equivale a n(\lambda/n)+\lambda/n >= k+1 che diviene,
mandando n all'infinito, esattamente lambda>= k+1)
Osservazione 2: per lambda minore di 1 si ha
sempre lambda<k+1 e quindi la densità discreta è sempre
decrescente.
Stesso procedimento per X, v.a. Geom(p) (con 0<p<1) allora
P(Y=k+1)/P(Y=k)=p(1-p)^k/[p(1-p)^{k-1}]=1-p <1 per ogni k>=1 e
quindi la densità discreta è sempre decrescente.
Esercizio 74 cap.4 del Ross: Una giornalista deve
intervistare almeno 5 persone da una lista: è noto che ogni persona
della lista accetterà l'intervista con probabilità p=2/3
INDIPENDENTEMENTE l'una dall'altra. Si tratta di calcolare la
probabilità di ottenere almeno 5 interviste a) nel caso si rivolga a
5 persone, b) nel caso si rivolga a 8 persone c) di dimostrare che,
posto p(a) e p(b) le due probabilità precedenti, p(b)>5 p(a).
lunedì 12 maggio 2014
Definizione di Varianza di una variabile aleatoria
X: Var(X)=E[(X-E(X))^2]. e dello scarto quadratico medio
=\sqrt{Var(X)}(ossia la radice quadrata della varianza)
Proprietà: Var(X)>=0, Var(aX+b)=a^2Var(X), Espressione
equivalente Var(X)=E(X^2)-{E(X)}^2. Cenno all'utilità della
varianza: enunciato della disuguaglianza di Chebyshev [la
dimostrazione verrà fatta in seguito] e deduzione del fatto che
P(|X-E(X)|/ \sqrt{Var(X)} >=k) <= 1/k^2.
Calcolo della varianza di una costante, della funzione indicatrice
di un evento, di una v.a. U_n, Uniforme in {1,2,...,n}
E(U_n)=(n+1)/2, Var(U_n)=(n^2-1)/12,di i una v.a. S_n, Binomiale di
parameri n e p E(S_n)=np, Var(S_n)=np(1-p).
Esercizio Proposto: due persone A e B giocano e ad ogni prova
ciascuno 1 euro e poi chi vince prende i due euro e l'altro nulla
cosi' che il guadagno ad ogni prova vale 2-1 se si si vince e 0-1 se
si perde. Calcolare valore atteso e Varianza di G_n il guadagno
(algebrico) del giocatore A nell'ipotesi che gli eventi vincita di A
formino uno schema di Bernoulli ( ossia n eventi indipendenti e con
la stessa probabilità p).
SOLUZIONE: posto A_i l'evento "il giocatore A vince nell'i-sima
prova" sappiamo che S_n=1_{A_1}+1_{A_2}+.....+1_{A_n} è una
variabile aleatoria Bin(n,p) e che ad ogni prova il guadagno vale 2
1_{A_i}-1 (infatti se A vince si ha 1_{A_i}=1, allora 2
1_{A_i}-1 =2-1, mentre se A perde si ha 1_{A_i}=0 e allora 2
1_{A_i}-1=0-1) quindi G_n= (2 1_{A_1}-1)+(2 1_{A_2}-1)+....+(2
1_{A_n}-1)= 2 (1_{A_1}+1_{A_2}+.....+1_{A_n})-n=2S_n - n
per cui
E(G_n)=2E(S_n)-n= 2np-n= n (2p-1)
Var(G_n)= Var(2S_n-n)= 2^2 Var(S_n)= 4 n p (1-p)
mercoledì 14 maggio 2014
Calcolo della varianza di una v.a. di Poisson di
parametro lambda (premessa: ci si aspetta che venga \lambda in
quanto se X^(n) è una v.a. Bin(n, \lmabda/n) allora Var(X^(n))=n
lambda/n (1- lambda/n)= lambda(1-lambda/n) che tende a lambda.
Calcolo della varianza di una v.a. Geom(p). Formula della
Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) (con dimostrazione), dove
Cov(X,Y)=E[(X-E(X)) (Y-E(Y))]. Verifica che Cov(X,Y)=E(XY)-E(X)E(Y).
Generalizzazione al caso di
Var(X_1+X_2+...X_n)=Var(X_1)+...+Var(X_n)+ somma delle Cov(X_i,X_j)
per i diverso da j. Calcolo della covarianza della somma di due
funzioni indicatrici: Cov(1_A, 1_B)=P(AB)-P(A)P(B), osservazione: se
A e B indipendenti allora Cov(1_A, 1_B)=P(AB)-P(A)P(B)=0. Calcolo
della varianza di una Binomiale utilizzando questo risultato con
X_i=1_{A_i}: poiché gli eventi A_i sono indipendenti si ha che
Cov(X_i,X_j) =P(A_i A_j)-P(A_i)P(A_j)=0 (per i diverso da j) e
quindi Var(S_n)=Var(1_{A_1}+1_{A_2}+.....1_{A_n})=
Var(1_{A_1})+Var(1_{A_2})+.....+Var(1_{A_n} )=np(1-p).
Calcolo della Varianza per l'ipergeometrica: n estrazioni da un'urna
che contiene b palline bianche ed r rosse, in questo caso
Z_n=1_{B_1}+1_{B_2}+.....+1_{B_n}, dove B_i={i-sime estratta
bianca}, posto p=b/(b+r)=P(B_i) ed osservato che (per i
diverso da j) P(B_i B_j)=P(B_1B_2) =P(B_1)P(B_2|B_1)=
[b/(b+r)] [(b-1)/(b+r-1)] si ha che
Var(Z_n)=Var(1_{B_1}+1_{B_2}+.....1_{B_n})=Var(1_{B_1})+Var(1_{B_2})+.....+Var(1_{B_n}
)+ somma (per i diverso da j) [P(B_iB_j)-P(B_i)P(B_j)] = np(1-p) +
n(n-1) { [b/(b+r)] [(b-1)/(b+r-1)] - [b/(b+r)]^2 }=...= np(1-p)[1-
(n-1)/(b+r-1)].
venerdì 16 maggio 2014
Esercizi vari, tra cui:
ESERCIZIO 1 si lanciano due dati ben equilibrati, postp X_1 il
valore del dado 1 e X_2 il valore del dado 2,
(a) calcolare della densità discreta di Y=massimo(X_1,X_2), della
sua funzione di distribuzione, il suo valore atteso e la sua
varianza (b) calcolare della densità discreta di X= minimo
(X_1,X_2), il suo valore atteso e la sua varianza
la soluzione di (a) in diversi modi:
I MODO utilizzando i valori che possono assumere X_1 e X_2 ,
ad esempio P(Y=3)=P( (X_1,X_2)=(1,3) oppure (X_1,X_2)=(2,3) oppure
(X_1,X_2)=(3,3) oppure (X_1,X_2)=(3,2) oppure (X_1,X_2)=(3,1) )
=P( (X_1,X_2)=(1,3) ) + P( (X_1,X_2)=(2,3) ) + P(
(X_1,X_2)=(3,3) ) + P((X_1,X_2)=(3,2) ) + P( (X_1,X_2)=(3,1) )
= 5/36
e trovare che P(Y=k)=(2k-1)/36
II MODO P(Y=k)=P(X_1=k e X_2<= k oppure X_1 <=k e
X_2=k)=P(X_1=k e X_2<=k) + P(X_1<=k e X_2=k)- P(X_1=k e
X_2=k)=P(X_1=k)P(X_2<=k) + P(X_1<=k)P(X_2=k) -
P(X_1=k)P(X_2=k)=...=(2k-1)/36
III MODO sfruttare il fatto che P(Y=k)+P(Y <=k-1) =P(Y<=k) da
cui P(Y=k)=P(Y<=k) - P(Y<=k-1) =....=(2k-1)/36 in
quanto P(Y<=k)=P(X_1<=k e
X_2<=k)=P(X_1<=k)P(X_2<=k)=(k/6)(k/6)=k^2/36
Per il valore atteso di Y e di Y^2 si utilizzano le formule
E(Y)=somme_{k=1,...,6} kP(Y=k) = somme_{k=1,...,6} k
(2k-1)/36= (2/36) somme_{k=1,...,6} k ^2 - (1/36)
somme_{k=1,...,6} k = 7*23/36
e E(Y^2)=somme_{k=1,...,6} k^2P(Y=k) =
somme_{k=1,...,6} k^2 (2k-1)/36=
(2/36)somme_{k=1,...,6} k ^3 - (1/36) somme_{k=1,...,6} k^2
e il fatto che somme_{k=1,...,n} k =n(n+1)/2,
somme_{k=1,...,n} k^2 =n(n+1/2)(n+1)/3= n(2n+1)(n+1)/6,
somme_{k=1,...,n} k^3 = [n(n+1)/2]^2
e infine che Var(Y):=E[(Y-E(X))^2]=E(Y^2) -[E(Y)]^2
Simile per la soluzione di (b) ricordiamo qui solo il III MODO,
sfruttando il fatto che P(X=k)+P(X >=k+1)=P(X >=k) da cui
P(X=k)=P(X>=k)-P(X>=k+1) e che P(X>=k)=P(X_1>=k e
X_2>=k)=P(X_1>=k)P( X_2>=k)= [(6-k+1)/6]^2=(7-k)^2/36
e quindi P(X=k)= [(7-k)^2 - (6-k)^2]/36 = [49 - 14 k +k^2 - 36
+12 k - k^2]/36 = (13-2k)/36
Per il valore atteso si è osservato che c'è un modo alternativo:
OSSERVAZIONE X_1+X_2=X+Y e quindi E(X_1+X_2)=E(X+Y) e quindi
E(X_1)+E(X_2)=E(X)+E(Y) da cui E(X)= E(X_1)+E(X_2)-E(Y) =
(7/2)+(7/2)-7*23/36= 7(1-23/36)=7*13/36
OSSERVAZIONE X=min(X_1,X_2)<= X_i <=Y=Max(X_1,X_2) e si ha
quindi E(X) <= E(X_i) <= E(Y) ed in effetti
7*13/36<= 7<= 7*23/36.
ESERCIZIO 2 Sia X una v.a. Geom(2/3) calcolare esattamente
P(|X-3/2|>= 3/2) e dare una maggiorazione con la disuguaglianza
di Chebyshev.
Esercizio 3 del tutoraggio per matematici 11-12 maggio 2010,
esercizio 4 del tutoraggio per matematici 4-5 maggio 2010
(attenzione la risposta è 1-7/e^2 )
lunedì 19 maggio 2014
Dimostrazione della Disuguaglianza di Chebyshev in tre modi
caso di spazio finito, caso X v.a. discreta, e attraverso la
disuguaglianza di Markov (come sul Ross)
Esercizi: esercizio 2 (punti a. e b.) ed Esercizio 3 (punto
3.) del tutoraggio per matematici 18-19 maggio 2010, Esercizio 6 del
tutoraggio per matematici 11-12 maggio 2010.
mercoledì 21 maggio 2014
Densità discreta congiunta di due variabili aleatorie X e Y,
densità discrete marginali di X e di Y. Densità discreta di Z=g(X,Y)
e valore atteso E[g(X,Y)] =Somme_k Somme_h g(x_k,y_h) P(X=x_k,
Y=y_h), ossia senza bisogno di calcolare la densità discreta di
Z=g(X,Y).
Applicazione al caso Z=X+Y in modo da ridimostrare che
E(X+Y)=E(X)+E(Y). Calcolo della Cov(X,Y), utilizzando il fatto che
Cov(X,Y) =E[ (X-E(X) ) ( Y-E(Y) ) ] ) = E(XY) -E(X)E(Y)
e che E(XY)=Somme_k Somme_h (x_k*y_h) P(X=x_k, Y=y_h)
Esempi: tra cui 1) densità discreta congiunta di S_n e I_n, dove S_n
è il numero dei successi ed I_n è il numero degli insuccessi in n
prove indipendenti e con probabilità p: P(S_n=k,
I_n=h)=P(S_n=k)=P(I_n=h) SE 0<=k<=n e k+h=n (ossia h=n-k) e
P(S_n=k, I_n=h)=0 in tutti gli altri casi; 2) Esercizio 1 della
seconda prova in itinere del 6 giugno 2012 (escluse le domande
riguardanti l'indipendenza delle v.a.)
venerdì 23 maggio 2014
Definizione di due variabili aleatorie indipendenti. Ripreso
l'esercizio 1 della seconda prova in itinere del 6 giugno 2012
(incluse le domande riguardanti l'indipendenza delle v.a.)
Dimostrazione che per le v.a. discrete se X e Y sono indipendenti
allora la densità discreta congiunta è il prodotto delle densità
discreta marginali, e (senza dimostrazione) che se a densità
discreta congiunta di X,Y è il prodotto delle densità discreta
marginali allora X e Y sono indipendenti. Proposizione: Se X e Y
sono indipendenti allora E[g_1(X)g_2(Y)]=E[g_1(X)]E[g_2(Y)] (purché
esistano finiti E[g_1(X)] ed E[g_2(Y)]) [dimostrazione solo nel caso
discreto finito]. Relazioni tra indipendenza e non correlazione: se
X eY indipendenti allora Cov(X,Y)=0, ma non vale il viceversa (con
controesempi) . Calcolo della densità discreta della somma di due
variabili aleatorie discrete: Z=X+Y allora P(Z=z)=Somma_k P(X=x_k,
Y=z-x_k). Applicazione a: (i) X~ Bin(n,p), Y~ Bin(m,p), X e Y
indipendenti, allora X+Y ~ Bin(n+m,p), (ii) X~
Poisson(lambda, Y~ Poisson(mu), X e Y indipendenti, allora X+Y
~ Poisson(lambda+mu). Caso di v.a. multinomiali: ossia X_A, X_B,
X_C rispettivamente numero di palline arancioni, bianche e
celesti, in n estrazioni con reiserimento da un'urna con m_a palline
arancioni, m_b bianche e m_c celesti.
Calcolo della densità discreta congiunta, calcolo delle densità
marginali, osservazione che X_A~ Bin(n,p_A), X_B~ Bin(n,p_B),
X_C~ Bin(n,p_C), con p_A=m_a/m, p_B=m_b/m, p_C=m_c/m, dove m
=m_a+m_b+m_c,
X_A+ X_B~ Bin(n,p_A+p_B), X_A+ X_C~ Bin(n,p_A+p_C), X_B+ X_C~
Bin(n,p_B+p_C) e che quindi n
(p_A+p_B)(1-p_A-p_B)=Var(X_A+X_B)= Var(X_A)+Var(X_B)+2Cov(X_A,X_B)=
np_A(1-p_A) + np_B(1-p_B) + 2 Cov(X_A, X_B) da cui si può calcolare
facilmente Cov(X_A,X_B)= (1/2) [ n (p_A+p_B)(1-p_A-p_B) -
np_A(1-p_A) + np_B(1-p_B) ]
lunedì 26 maggio 2014
Calcolo della densità discreta di X+Y, dove X~ Geom(p), Y~
Geom(p), X e Y indipendenti: P(X+Y=k)= (k-1) p^2 (1-p)^{k-2}.
Relazione con il fatto che se T_1 e T_2 sono rispettivamente il
tempo di primo successo e di secondo successo in prove indipendenti
e tutte con la stessa probabilità p, allora T_2= D_1+D_2, dove
D_1=T_1 e D_2=T_2-T_1, e che D_1 è Geom(p) (ovvio) e D_2 anche è
Geom(p) e D_1 e D_2 sono indipendenti:
infatti, per ogni k_1 e k_2 >=1 si ha
P(D_1=k_1, D_2=k_2)=P(A^c_1 A^c_2 ... A^c_{k_1-1}
A_{k_1} A^c_{k_1+1} A^c_{k_1+2} ... A^c_{k_1+k_2-1}
A_{k_1+k_2})=(1-p)^{k_1-1}p (1-p)^{k_2-1}p =P(D_1=k_1)
(1-p)^{k_2-1}p,
da cui P(D_2=k_2)= Somme_{k_1} P(D_1=k_1, D_2=k_2)=
Somme_{k_1}P(D_1=k_1) (1-p)^{k_2-1}p = (1-p)^{k_2-1}p
Somme_{k_1}P(D_1=k_1) = (1-p)^{k_2-1}p [in
quanto Somme_{k_1}P(D_1=k_1)=1]
ossia D_2 è Geom(p) e inoltre P(D_1=k_1,
D_2=k_2)=P(D_1=k_1) (1-p)^{k_2-1}p = P(D_1=k_1) P(D_2=k_2) e
quindi D_1 e D_2 sono indipendenti.
Generalizzazione al caso dei tempi di n-simo successo Ossia se T_i è
il tempo di i-simo successo e D_i=T_i-T_{i-1} alllora D_1, D_2,...
D_n sono v.a. Geom(p) indipendenti, cioè P(D_1=k_1, .., D_i=k_i, ...
, D_n=k_n)= P(D_1=k_1) ... P(D_i=k_i) ... P(D_n=k_n) e quindi
P(D_1+...+D_i+...+D_n=k)=P(T_n=k)= C^{k-1}_{n-1} (1-p)^{k-n}
p^n per k interi con k>=n.
Generalizzazione al caso di n variabili aleatorie indipendenti,
Geom(p): Se X_1,X_2,... X_n sono v.a. Geom(p) INDIPENDENTI (ossia la
densità discreta congiunta è il prodotto delle densità discrete
marginali) allora
P(X_1=k_1, .., X_i=k_i, ... , X_n=k_n) P(D_1=k_1, .., D_i=k_i, ... ,
D_n=k_n) e quindi
P(X_1+...+X_i+...+X_n=k)=P(D_1+...+D_i+...+D_n=k)=P(T_n=k)=
C^{k-1}_{n-1} (1-p)^{k-n} p^n per k interi con k>=n.
Enunciati della Legge dei grandi numeri e del Teorema centrale del
limite, cenno all'approssimazione normale.
Esercizio proposto: I PARTE Si lanciano n=7 volte un dado ben
equilibrato e si vince 2 se escono 1 o 2 e si perde 1 altrimenti.
Posto X= guadagno ottenuto, calcolare E(X), Var(X), densità
discreta di X. II PARTE Si ripete il gioco precedente fino
alla prima volta in cui si ottiene una perdita. Posto T il numero
delle "giocate" effettuate, Calcolare E(T)
suggerimento: Porre S_n= numero dei successi su n prove
(successo= esce 1 o 2) e I_n il numero degli insuccessi, si osservi
che si vince 2 tutte le volte che si ha un successo e sim perde 1
tutte le volte che si ha un insuccesso per cui X=2S_n-I_n, inoltre
S_n+I_n=n per cui X=2S_n-I_n= 2S_n-(n-S_n)= 3S_n-n, per cui
valore atteso e varianza si possono calcolare facilmente. La
v.a. assume solo valori del tipo 3k-n per k=0,1,...n, da cui
P(X=3k-n)=P(S_n=k)
Infine T è Geom(p) con
p=P(X<0)=P(X=-7)+P(X=-4)+P(X=-1)=P(S_7=0)+P(S_7=1)+P(S_7=2).
mercoledì 28 maggio 2014
Dimostrazione della Legge dei Grandi Numeri, per successioni
di variabili aleatorie indipendenti X_i, i>=1 e con la stessa
distribuzione (i.i.d.= indipendenti identicamente distribuite)
valore atteso mu_X e varianza (sigma_X)^2. Relazione con il Teorema
Centrale del Limite (anche detto Teorema del Limite Centrale, con
scarto quadratico medio, anche detto deviazione standard,
sigma_X>0). (il teorema senza dimostrazione, la relazione
dimostrata) : P(il valore assoluto della differenza tra media
aritmentica di X_1, ..., X_n e valore atteso mu_X sia minore o
uguale ad epsilon) è approssimato da PHI(epsilon radice n/sigma_X) -
PHI(-epsilon radice n/sigma_X) [=2PHI(epsilon radice n/sigma_X) -1]
Studio della funzione PHI(x), in particolare PHI(-x)=1-PHI(x)
e uso delle Tavole della Gaussiana. Interpretazione di PHI(x) come
funzione di distribuzione o di ripartizione, con richiami alle
proprietà delle funzioni di distribuzione (anche dette funzioni di
ripartizione): F_X(x)=P(X<=x) sono 1) funzioni monotone crescenti
in senso lato (se x<=y allora F_X(x)<= F_X(y) in quanto
{X<=x} è incluso in{X<=y}) 2) funzioni continue a destra e con
i limiti a sinistra (senza dim) 3) F_X(y) tende a 1 per y che
tende a infinito, e F_X(x) tende a 0 per x che tende a meno
infinito (senza dim).
Proprietà fondamentale F_X(b) - F_X(a)= P(a<X<=b), in quanto
F_X(b)=P(X<=b)=P(X<= a)
+P(a<X<=b)=F_X(a)+P(a<X<=b).
Le v.a. che ammettono densità sono quelle per le quali F_X(x) è
l'integrale da "- infinito" a "x" di una funzione f_X(y) in dy, con
f_X(y) >=0 per ogni y e con l'integrale da "- infinito" a
"+ infinito" di f_X(y) in dy =1, per cui
F_X(b) - F_X(a)= P(a<X<=b)= l'integrale da "a" a "b" di
f_X(y) in dy.
Esempi: Esercizio 15 cap 8 del Ross: una compagnia di assicurazione
ha 10000 clienti. Ogni cliente ha una richiesta annua di
risarcimento che "in media" è di mu=240 euro con una devianzione
standard sigma=800 euro. Caloclare approssimativamente la
probabilità che le richieste totali superino i 2,6 milioni di
euro.(suggerimento: posto X_i la richiesta annua di risarcimento il
risarcimento totale è S_n= X_1+...+X_10000 e si può supporre in
prima approssimazione che le v.a. X_i siano indipendenti, e quindi
si può applicare l'approssimazione normale ossia il fatto che
P(a<S_n<=b)=P(a*_n<S*_n<=b*_n),
dove S*_n=(S_n-n mu_X)/(sigma_X radice(n)), a*_n=(a-n
mu_X)/(sigma_X radice(n)), b*_n=(b-n mu_X)/(sigma_X radice(n)) , con
n=10000=10^4, mu_X=240=2,4 10^2, sigma_X=800=8 (10^2), a=(2,6)
(10^6) e b=+infinito
(con la convenzione PHI(+infinito)=1 e PHI(-infinito)=0)
Esercizio 6 cap8 del Ross: un dado ben equilibrato viene lanciato
fino a quando la somma dei punteggi ottenuti supera 300. Calcolare
approssimativamente la probabilità che sia necessario effettuare
almeno 80 lanci.
suggerimento: posto T il numero dei lanci da effettuare
l'evento {T>=80} coincide con l'evento {S_{79} <300}= {S_{79}
<= 299,5}: a questo punto possiamo utilizzare l'approssimazione
normale.
venerdì 30 maggio 2014
Interpretazione del teorema centrale del limite come
P(a<S*_n<=b) è vicina a P(a<Z<=b), dove Z è una v.a.
gaussiana standard (anche detta Normale N(0,1)) Calcolo di
E(Z)=0 e Var(Z)=1 (ATTENZIONE nella seconda edizione del Ross
ci sono degli errori di stampa)
Approssimazione normale: esercizi e applicazioni.
Applicazione1: calcolo approssimato di P(X>x) [o P(X<=x) ]per
X Poisson(lambda) per lambda grande, utilizzando il fatto che X ha
la stessa distribuzione della somma di n v.a. indipendenti con
distribuzione Poisson(lambda/n) per cui P(X<=x)=P(
(X-\lambda)/radice(lambda) <= (x-lambda)/radice(lambda) ) è circa
PHI( (x-lambda)/radice(lambda) ). Esercizio: Sia X una v.a. di
Poisson di parametro 10000, scrivere l'espressione esatta di
P(X>9850) [= somme _{per k>=9851} (10000)^k/(k!)
exp(-10000)=1-P(X<=9850)= 1- somme _{per 0<=k<=9850}
(10000)^k/(k!) exp(-10000) ] e l'espressione approssimata di
P(X>9850) [si può pensare X come la somma S_n di n=1000 v.a.
indipendenti e di Poisson di parametro 1 e quindi, per il Teorema
centrale del limite,
P(X>9850)=1-P(X<=9850)=1-P(S_n<=9850)=1-P( (S_n-10000)/100
<= (9850-10000)/100)=1-P(S_n*<= -150/100)=1-P(S_n*<= -1,5)
circa uguale a 1-PHI(-1,5)=PHI(1,5)=9.332
Applicazione 2: Calcolo esattp e approssimato di P(T_n >x) [o di
P(T_n<=x) ] per T_n binomiale negativa ovvero il tempo di n-simo
successo in uno schema di Bernoulli infinito, con probabilità p,
utilizzando il fatto che T_n=D_1+...+D_n, dove D_i sono Geom(p)
indipendenti, per cui P(T_n<=x)=P((T_n-n/p)/radice(n(1-p)/p^2)
<=(x-n/p)/radice(n(1-p)/p^2) )=P( T_n*<= (px-n)/radice(n
(1-p)) ) è circa PHI( (px-n)/radice(n (1-p)) )
Esercizi ispirati agli esercizi 13, 14 e 15 del Capitolo8 del Ross:
ESERCIZIO 1 Il punteggio (in centesimi) di un test svolto dagli
studenti nella classe di Probabilità ha valore medio mu_X=74 e
deviazione standard sigma_X=16. Ci sono due classi una da 25
studenti e l'altra da 64. Calcolare approssimativamente la
probabilità che la media artimetica nella classe da 25 sia superiori
a 80 e calcolare approssimativamente la probabilità che
la media artimetica nella classe da 64 sia superiori a 80:
nella prima classe si tratta di calcolare, per M=80,
p_1:=P(1/25 somme_{i=1,..,25} X_i >M) =P(somme_{i=1,..,25} X_i
> 25 M)= P(S_25 > 25 M) = P(S_25* > [25M-25mu_x]/ 5
sigma_X] che vale circa
1-PHI( (25/5) [M-\mu_X](\sigma_X) )= 1-PHI(5
[80-74]/16)=1-PHI( 15/8)=1-PHI(1,875) [ PHI(1,875) si puo' ad
esempio approssimare facendo la semisomma tra PHI(1,87) e PHI(1,88),
ossia con (0.9693+0.9699)/2 =0.9696] e quindi p_1 è
approssimato da 0.0304
Per la seconda classe si arriva invece a p_2:=P(1/64
somme_{i=1,..,64} Y_i >M)= P(S_64* > [64M-64mu_x]/8
sigma_X] che vale circa 1-PHI(8 [80-74]/16)=1-PHI(3)=1-0.9987=0.0013
OSSERVAZIONE1 il legame tra teorema centrale del limite e legge dei
grandi numeri spiega come mai la probabilità nella seconda classe
viene più piccola che nella prima classe, che è meno numerosa.
OSSERVAZIONE2 si potrebbero ottenere approssimazioni leggermente
migliori osservando che, poiché S_25 assume solo valori interi,
P(S_25 > 25 M)= P(S_25 > 25 M+(1/2)) e poi proseguire nei
conti
ESERCIZIO 2 Un certo componente è essenziale per il
funzionamento di un apparecchio e, quando si guasta, viene
rimpiazzato immediatamente con un componente nuovo. Supponendo che
il valore medio di ciascun componente è 100 ore e che la deviazione
standard è 30 ore. (a) mostrare che n=25 componenti
garantiscono che la probabilità che l'apparecchio funzioni per
almeno 2000 ore consecutive valga almeno 0,95.
(b) quanti componenti dobbiano mettere in magazzino in modo
che la probabilità che l'apparecchio funzioni per almeno 2000 ore
consecutive valga almeno 0,95?
Si tratta di trovare n in modo che P(X_1+...+X_n>=2000)
>=0.95, dove X_i rappresenta il tempo di funzionamento del
compnente i-simo
Ora possiamo approssimare P(X_1+...+X_n>=2000) =
P(S_n>=2000)=P(S*_n >= (2000-n100)/(radice(n)30) ) con 1-PHI(
(200-10n)/(radice(n) 3) )=PHI( (10n-200)/(radice(n)
3) ) e che 0.95=PHI(1.64485)
per cui basta controllare se vale PHI( (10n-200)/(radice(n)
3) ) >= 0.95=PHI(1.64485) . Essendo PHI, la funzione
di distribuzione di una Gaussiana standard, una funzione crescente,
basta che valga
(10n-200)/(radice(n) 3) >= 1.64485, ossia,
posto x=radice(n) basta che
valga 10x^2 -200 >= 3 (1.64485) x. ossia
10x^2-200>= 4,93455 x,
Per il punto (a) si tratta di un semplice controllo:
(250-200)/15=50/15=3,333, mentre, per il punto (b), che equivale
trovare il minino n>=(x_2)^2 dove x_1<=x_2 sono le radici
di 10x^2 -4,93455 x-200 =0 ossia x_2=[4,93455+
radice(4,93455^2+8000)]/20
osservando che x_2>= [5+radice(8025) ]/20=4,73 per cui viene
n>=22,36 ossia n_min=23 [del resto per n=22,
(10n-200)/(radice(n) 3)=1,4213 mentre per n=23
(10n-200)/(radice(n) 3)=2,085 ]
ESERCIZIO 3 Una compagnia di assicurazioni ha 10000 clienti (che
hanno assicurato la propria automobile). La richiesta media annua
per assicurato è pari a 240 euro con deviazione standard pari a 800
euro. Approssimare la probabilità che le richieste totali di
risarcimento superino 2.6 milioni di euro.
Posto X=S_10000=X_1+..+X_1000, con X_i= la richiesta dell'assicurato
i-simo (che, ovviamente, può valere anche 0), si tratta si
approssimare P(X>=2,6 10^6)=P(X*>= (2.6 10^6- 2.4 10^2
10^4)/10^2 8 10^2) che vale circa 1- PHI(0.2 10^2/8) =1- PHI
(2,5)=1-0,9938=0,0272.
lunedì 2
giugno 2014 (vacanza: anniversario della Repubblica)
mercoledì 4 giugno 2014
Valore atteso condizionato ad un evento A, con P(A)>0, per
v.a. discrete: E[X|A]:=somme_k x_k P(X=x_k|A). Formula
del valore atteso totale (con dimostrazione): se H_i, i=1,..m sono
una partizione e P(H_i)>0 per ogni i allora E(X)=somme_i
P(H_i)E[X|H_i]. e sua immediata estensione: E[g(X)]=somme_i
P(H_i)E[g(X)|H_i]. Esempi da vari compiti, tra cui ESERCIZIO 2 del
secondo esonero 6 giugno 2012 (per cui per calcolare E(Y_C) non è
necessario calcolare esplicitamente la densità discreta, ma basta
osservare che P(Y_C=k|X=i) è una binomiale di parametri i e p=1/7
per cui E(Y_C|X=i)=i/7 e quindi E(Y_C)=somme_{i=1,..6}
P(X=i)E(Y_C|X=i)=somme_{i=1,..6} (1/6) i/7=1/2 . Esempio per
calcolare la varianza di uyan v.a. X come
Var(X)=E(X^2)-(E(X))^2 = somme_i P(H_i)E[X^2|H_i]- (somme_i
P(H_i)E[X|H_i])^2.
Applicazione Calcolo del valore atteso di una v.a. Geom(p),
utilizzando la proprietà della mancanza di memoria ossia che
P(T-k=h|T>k)=P(T=h): sia T il tempo di primo successo in una
successione di prove ripetute (ossia A_n, n>=1 sono eventi
indipendenti e con probabilita' P(A_i)=p) e siano H_1=A_1={T=1} e
H_2=A_1^c={T>1} allora P(A_1)=p e P(A_1^c)=1-p.
Inoltre chiaramente E(T_1|A_1)=E(T_1|T_1=1)=1 invece per E(T|A_1^c)
osserviamo che E(T|A_1^c)=E(1+(T-1)|A_1^c)= 1+E(T-1|A_1^c)= 1+
E(T-1|T>1) =1+E(T) dove nell'ultima uguaglianza abbiamo usato la
proprietà della mancanza di memoria.
La formula del valore atteso totale diviene
E(T)=E(T|A_1) P(A_1) + E(T|A_1^c) P(A_1^c)= 1 p + (1+E(T)) (1-p) = p
+ 1-p + (1-p) E(T) =1+E(T) - pE(T)
da cui 0=1-p E(T) e quindi E(T)=1/p
(in realtà senza dirllo abbiamo usato il fatto che E(T) è finito
perché altrimenti non avremmo potuto semplificare dall'uguaglianza
E(T)= 1+E(T) - pE(T), ossia avrebbe potuto essere una uguaglianza
del tipo infinito=infinito)
In n estrazioni senza reinserimento da un'urna che contiene m_A
palline di tipo A, m_B di tipo B ed m_C di tipo C, posto Y_A, Y_B e
Y_C le v.a. che rappresentano il numeto di palline di tipo A, B e C,
rispettivamente: Calcolo della densità discreta di Y_C dato che
Y_B=m: si tratta della distribuzione ipergeometrica relativa a n-m
estrazioni senza reinserimento da un'urna che contiene m_A palline
di tipo A e m_C di tipo C e NESSUNA di tipo B (idea: le palline di
tipo C possono essere state estratte solo nelle n-m estrazioni
in cui non sono state estratte quelle di tipo B e quindi è come se
fossero state estratte da un'urna che contiene solo le palline di
tipo A e C) la verifica formale non è difficile.
venerdì 6 giugno 2014
Formula del valore atteso totale e connessione con E(X)=
E[E(X|Y)]: Se la partizione H_i={Y=y_i} allora E(X)= somme_i
P(Y=y_i) E(X|Y=y_i); posto phi(y_i)=E(X|Y=y_i) si ha che E(X)=
somme_i P(Y=y_i) phi(y_i)= E[phi(Y)].
CON E(X|Y) si intende esattamente la v.a. phi(Y) ossia
E(X|Y):=phi(Y) da cui E(X)= somme_i P(Y=y_i) phi(y_i)= E[phi(Y)]=
E[E(X|Y)].
Applicazione: siano X_i, per i>=1 variabili aleatorie
indipendenti e con la stessa distribuzione e con valore atteso mu_X,
e sia N una variabile aleatoria a valori nei naturali e indipendenti
da tutte le X_i, e sia X= somma_{i=1,...,N}X_i, cioè X è la somma
aleatoria di N variabili aleatorie indipendenti X_i (con la
convenzione che per n=0 somma_{i=1,...,n} X_i=0). Allora
E(X|N=n)= n mu_X (infatti se N=n allora
somma_{i=1,...,N}X_i= somma_{i=1,...,n}X_i ) e quindi
E(X|N=n)=
E[somma_{i=1,...,N}X_i|N=n]=E[somma_{i=1,...,n}X_i|N=n]=somma_{i=1,...,n}E[X_i|N=n]
(questa uguaglianza vale perché E(X|A) è un valore atteso, fatto
rispetto alla probabilità condizionata ad A che è una probabilità, e
quindi le proprietà di linearità, e similmente di monotonia,
continuano a valere anche per il valore atteso condizionato)
A questo punto si osserva che E(X_i|N=n)=E(X_i)=mu_X e quindi
( infatti E(X_i|N=n)= somme_k x_k P(X_i=x_k|N=n)= somme_k x_k
P(X_i=x_k ), in quanto le v.a. X_i e N sono indipendenti e quindi
gli eventi {X_i=x_k} e {N=n} sono indipendenti). di
conseguenza E(X|N=n)=somma_{i=1,...,n}E[X_i|N=n]
somma_{i=1,...,n}E[X_i]= n mu_X e phi(n)=n mu_X e quindi E[X|N]=N
mu_X
applicando la formula con Y=N, si ha E(X) = E
[somma_{i=1,...,N}X_i]= E[ E(X|N)] = E( N mu_X) = E(N) mu_X
(oppure direttamente: E(X)= somme_n P(N=n) E(X|N=n) = somme_n P(N=n)
n mu_X= E(N) mu_X )
OSSERVAZIONE: per calcolare il valore atteso NON E' NECESSARIO
calcolare la densità discreta di X e neppure la densità discreta di
X condizionata a N=n.
Nel caso particolare in cui X_i=1_{A_i} dove A_i sono eventi
indipendenti e tutti con P(A_i)=p si puo' calcolare anche la
densità condizionata di X dato {N=n}: viene una Bin(n,p) e quindi
ritroviamo E(X|N=n)= np.
Siano X e Y v.a. indipendenti e con X Bin(n_X,p) e Y
Bin(n_Y,p): calcolo della densità discreta di X dato X+Y=n: si
ottiene una distribuzione ipergeometrica con n estrazioni (senza
reinserimento) da un'urna che contiene n_X palline di tipo "x" e n_Y
palline di tipo "y" (si tratta di semplici conti P(X=k|X+Y=n)=
P(X=k, X+Y=n)/P(X+Y=n) =P(X=k, k+Y=n)/P(X+Y=n) =P(X=k) P(
Y=n-k)/P(X+Y=n) (ovviamente risulta maggiore di zero solo se
0<=k<= n_X e
0<= n-k <= n_Y) e poi bisogna utilizzare il fatto che
X+Y è di tipo Bin (n_X+n_Y, p)
Siano X e Y v.a. indipendenti e con X Poisson di parametro lambda e
Y Poisson di parametro lambda : calcolo della densità
discreta di X dato X+Y=n: si ottiene una distribuzione binomiale
Bin(n,p) con p=\lambda/(lambda+mu)
il calcolo è simile si richiede solo che k>=0 e n-k>=0 ossia
0<=k<=n), e si utlizza il fatto che X+Y è una v.a. di Poisson
di parametri lambda+mu.
Idea prendiamo il caso lambda e mu sono tali per cui esiste un p
(piccolo) ed n_X ed n_Y grandi con lambda=n_X p e mu=n_Y p (si
tratta del caso in cui lambda/mu è razionale)
allora, per l'approssimazione di POISSON ci aspettiamo che il
rispultato precedente ci aiuti: e quindi venga una approssimazione
di una Ipergeometrica in cui si fanno n estrazioni senza
reinserimento da un'urna che contiene n_X palline di tipo "x" e n_Y
palline di tipo "y" con n_X ed n_Y che tendono ad infinito mentre n
è fissato (sappiamo che possiamo approssimare tale distribuzione con
una Bin( n, q) con q = n_X/(n_X+n_Y), ma per ipotesi
abbiamo che q = n_Xp/(n_Xp+n_Yp)= lmabda/(lambda+mu),
In n estrazioni con reinserimento da un'urna che contiene m_A
palline di tipo A, m_B di tipo B ed m_C di tipo C, posto X_A, X_B e
X_C le v.a. che rappresentano il numeto di palline di tipo A, B e C,
rispettivamente: Calcolo della densità discreta di X_C dato che
X_B=m: si tratta della distribuzione binomiale relativa a n-m
estrazioni con reinserimento da un'urna che contiene m_A palline di
tipo A e m_C di tipo C e NESSUNA di tipo B ( idea: le palline ti
tipo C possono essere state estratte solo nelle n-m estrazioni
in cui non sono state estratte quelle di tipo B e quindi è come se
fossero state estratte da un'urna che contiene solo le palline di
tipo A e C) la verifica formale non è difficile.
suggerito di guardare il compito del 15 novembre 2012 Esercizio 3
e gli esercizi 2,3,4,5 del tutoraggio per matematici del 1 giugno
2010
lunedì 9 giugno 2014
E
mercoledì 11 giugno 2014
ore 16-18 AULA 3 di MATEMATICA seconda prova in itinere