DIARO delle LEZIONI CALCOLO DELLE PROBABILITA' (INFORMATICA)  a.a. 2013-14
Potete usare come riferimento, anche il file del diario delle lezioni dello scorso anno
http://twiki.di.uniroma1.it/twiki/viewfile/CP/WebHome?rev=1;filename=lezioni-CALCOLO_PROBABILITA_INFORMATICA-2012-13-fino-al-31-maggio2013.pdf
dove alcuni temi sono sviluppati in dettaglio,
ma si consiglia vivamente di utilizzare anche un testo di probabilità (solo questi appunti non bastano)

mercoledì 5 marzo 2014
Considerazioni generali su frequenza e probabilità classica (numero dei casi favorevoli diviso il numero dei casi possibili), eventi e loro rappresentazione come insiemi, sono stati introdotti gli assiomi delle probabilità.
venerdì 7 marzo 2014
Esempi sui dadi (lancio di due dadi, rappresentazione di vari eventi, non unicità dello spazio di probabilità)
e prime conseguenze dagli assiomi: probabilita' del complementare, probabilità dell'evento impossibilie (o insieme vuoto) proprieta' di monotonia della probabilita'.
lunedì 10 marzo 2014
Soluzione del problema del compleanno; le definzioni di Disposizione (con ripetizione e senza ripetizione) di m elementi di classe k di Permutazione di k elementi  e di Combinazione di m elementi di classe k; dimostrazione della formula (di Stieffel) che permette di calcolare le combinazioni attrevarso il triangolo di TARTAGLIA (anche detto di PASCAL)
mercoledì 12 marzo 2014
Formula di inclusione ed esclusione per due eventi, e subadditività della probabilità (la probabilità dell'unione di due eventi è minore o uguale della somma delle probabilità dei singoli eventi) Formula delle probabilità composte. Esempi e applicazioni.
venerdì 14 marzo 2014
Formula delle probabilità composte e costruzione di alberi, vari modelli di spazi di probabilità per estrazioni da un'urna di composizione nota. Calcolo di probabilità inverse (prima versione della formula di Bayes, senza dire il nome)
lunedì 17 marzo 2014 
Formula di Bayes e delle probabilità totali. Esempio del Test medico (HIV). Verifica del fatto che, fissato B con P(B)>0, la funzione che all'evento A associa P_B(A) : = P(A|B) è una probabilità.
mercoledì 19 marzo 2014 SCIOPERO MEZZI DI TRASPORTO
SOLO ESERCIZI, e precisamente
dal TUTORAGGIO di PROBABILITA' per MATEMATICI del 2010
http://twiki.di.uniroma1.it/twiki/viewfile/CP/WebHome?rev=1;filename=tutoraggio_2010.pdf
(attenzione il file contiene delle risposte, ma non tutte sono state controllate)
2-3 marzo 2010 ES.2
16-17 marzo 2010 ES.2 (N.B. la condizone P(A)=P(B) serve solo nella domanda d), ES.6, ES.7
23-24-marzo 2010 ES.1, ES.2
dalle lezioni dello scorso anno, data del 13 marzo 2013, Es. 2a e 2b
venerdì 21 marzo 2014
Estrazioni senza reinserimento da urna di composizione nota, b palline bianche ed r rosse, (n= numero delle estrazioni) calcolo della probabilità di estrarre k palline bianche.
applicazione al lotto, calcolo di cinquina, quaterna, terno, ambo. Esercizio 3.l (pag.81) del Ross su probabilità condizionate.
lunedì  24 marzo 2014
Anagrammi, esempio di  anagrammi di MATEMATICA: 1) semplici 2) che contengono ICE 3) che contengono MAT, relazione con il principio di icnlusione ed esclusione per due eventi
(attenzione sugli appunti delle  lezioni dello scorso anno c'e' un ovvio errore di stampa 10!/(2!3!2! 1! 1! 1!) invece di 10! (2!3!2! 1! 1! 1!)
Principio di inclusione ed esclusione per n eventi. Applicazione: il problema delle concordanze (o degli accoppiamenti o del matching) per la probabilità di nessuna concordanza e per esattametne k conconrdanze)
mercoledì 26 marzo 2014
Esercizi sulla formula di Bayes, con scelta tra due urne ed estrazioni cone  senza renserimento 1) di una palline e 2) di due palline. Estrazioni con reinserimento da urne con composizione nota (b bianche r rosse, n= numero delle estrazioni). Probabilità di estrazione di esattamente k palline bianche (k=0,1,2,...,n).
venerdì 28 marzo 2014
Definizione di indipendenza di due eventi. L'evento impossibile e' indipendente da ogni evento. Un evento di probabilità zero è indipendente da ogni evento. Se due eventi hanno probabilità strettamente positiva e sono disgiunti allora NON sono indipendenti. Se due eventi A e B sono indipendenti lo sono anche A e B^c, A^c e B, A^c e B^c. Conseguenza: se A e B sono indipendenti e P(A) e P(B) sono noti allora posso calcolare tutte le probabilità di eventi che si esprimono solo tramite A, B e le operazioni logiche.
Definizione di Indipendenza di tre eventi. Esempi lancio di tre dadi A={I dado pari}, B={II dado pari}, C={III dado pari} sono indipendenti.  Lancio di due monete  Controesempio.1  A={I moneta testa}  B={II moneta testa} C={le due monete sono diverse} NON sono tre eventi indipendenti  [P(AB)=P(A)P(B), P(AC)=P(A)P(C), P(BC)=P(B)P(C) ma P(ABC) diverso da P(A)P(B)P(C) ]  Controesempio.2  A= evento impossibile B e C disgiunti  con P(B) e P(C) strettamente positive [P(AB)=P(A)P(B), P(AC)=P(A)P(C),  P(ABC) =P(A)P(B)P(C), ma P(BC) diverso da P(B)P(C) ]
Esercizi sul gioco del poker Calcolo delle probabilità del poker, di colore, di full, di tris, di doppia coppia.
lunedì 31 marzo 2014
Equivalenza delle diverse definizioni di indipendenza  di tre eventi (con dimostrazione).  Costruzione di controesempi di eventi per i quali P(AB)=P(A)P(B), P(AC)=P(A)P(C),  P(ABC)=P(A)P(B)P(C), ma P(BC) diverso da P(B)P(C), e costruzione di un modello in cui  tre eventi sono indipendenti e con probabilita' assegnate. Definizioni equivalenti  di n eventi indipendenti (senza dimostrazione). Prototipo di n eventi equivalenti: n estrazioni con reinserimento da un'urna con composizione nota (b palline bianche ed r rosse con b ed r numeri fissati), gli eventi B_i={i-sima pallina estratta Bianca}, per i= 1,..., n, formano una famiglia di n eventi (globalmente, completamente, mutuamente) indipendenti. SE LA COMPOSIZIONE NON E' NOTA allora gli eventi B_i  NON SONO INDIPENDENTI controesempio: con la scelta fra due urne di composizione diversa, (urna 1, con b=2 ed r=1, urna 2 con b=1 ed r=2, H_i={scelta di urna i} e P(H_1)=1/4, due estrazioni con reinserimento dalla stessa urna. Nel caso specifico si mostra che P(B_1B_2) è strettamente maggiore di P(B_1)P(B_2).
Esercizi 3.9 da Spizzichino Nappo (per il testo vedere anche venerdi' 22 marzo 2013 delle lezioni dell'a.a. 2012-13)
mercoledì 2 aprile 2014
Esercizi sulle reti elettriche (o piu' in generale reti di connessioni), nell'ipotesi che gli eventi C_i={connessione del ramo i} siano eventi indipendenti di probabilità p_i
CONNESSIONE in serie [P(C)=P(C_1 C_2 ...C_n)=P(C_1)P(C_2)....P(C_n)=p_1p_2...p_n) ] 
CONNESSIONE in parallelo  [P(C)=P(almeno uno tra C_1 o  C_2 o...oC_n)=1-P(nessuno tra C_1, C_2,...C_n)= 1-P(C_1^c)P(C_2^c)....P(C_n^c)=1- (1-p_1)(1-p_2)...(1-p_n) ]
CONNESSIONI composte che  si possono ricondurre a a connessione in serie di connessioni in parallelo oppure a connessioni in serie di connessioni in parallelo
Esercizio 66 (b) dove si usa P(C)=P(C|C_3)P(C_3)+P(C|C_3^c)P(C_3^c)
PROBABILITA' binomiali per il numero di successi su n prove indipendenti con la stessa probabilità p (ossia in uno schema di BERNOULLI o delle prove ripetute):
partend dall'Esempio: si lancia un dado 5 volte Alberto punta su {1,2} e Bruno su {3,4,5,6} e si calcolano le probabiltia' che Alberto vinca k volte (e Bruno 5-k) per k=0,1,2,...5.
(P(X_A=k)=P(X_A=k, X_B=5-k)= C^5_2 (2/6)^k (1-2/6)^(5-k). Generalizzazione
Esempio del lotto quando si punta un ambo fissato su tutte le ruote. Discussione della caccia all'errore su un articolo del 1996. Cenno al motivo per cui le estrazioni senza reinserimento possono essere approssimate con n estrazioni senza reinserimento (SOLO se n rimane fissato e nel limite in cui  il numero delle palline tende ad infinito e la proporzione rimane costante: mb palline bianche ed mr palline rosse n estrazioni m tende ad infinito, così P(B_i)=(mb)/(mb+mr)=b/(b+r), ed  n e' fissato).
venerdì 4 aprile 2014
Cenno a prove indipendenti a piu' esiti, a partire dall'esempio si lancia un dado 5 volte Alberto punta su {1,2} e Bruno su {3,4,5} e Carlo su {6}  e si calcolano le probabiltita' che Alberto vinca k_1 volte  Bruno k_2 volte e Carlo k_3 volte, con k_1, k_2, k_3 interi maggiori o uguali a zero e con k_1+k_2+k_3=5.  Generalizzazione al caso di n lanci e al caso di prove ad r esiti. Calcolo delle soluzioni (k_1,k_2,...,k_r) con k_i maggiore o uguale a 0 e k_1+k_2+...+k_r=n  [per il metodo usato vedere gli appunti Spizzizhino Nappo: idea mettere in corrispondenza le soluzione con gli anagrammi di due simboli n *  e r-1 |,  ad esempio  per r=3 e n=5 ***|*|* corrisponde a  (k_1,k_2,k_3)=(3,1,1) e viceversa (k_1,k_2,k_3)=(0,3,2) corrisponde a |***|** e quindi il numero di soluzioni sono (n+r-1)!/( n! (r-1)!) ]
Esercizio su doppia coppia nel lancio di 5 dadi: (6!/(2!4!) ) 4 5!/(2! 2! 1!)  (1/6^5), infatti
fissati i due numeri delle due coppie e il terzo numero, ad esempio due "1" due "3" e un "6"  la probabilita' di doppia coppia di {1e 3} e un {6} vale 5!/(2! 2! 1!) (1/6)^2 (1/6)^0(1/6)^2 (1/6)^0 (1/6)^0 (1/6)^1= 5!/(2! 2! 1!)  (1/6^5) [corrisponde a 5 prove a sei esiti e calcolo la probabilità di {per 2 volte l'esito  "1", 0 volte l'esito "2",2 volte l'esito  "3", 0 volte l'esito "4", 0 volte l'esito  "5", 1 volta l'esito "6"}] poi devo pero' considerare i casi in cui gli esiti sono diversi e quindi devo scegliere due tipi di esiti (senza tenere conto dell'ordine e quindi in C^6_2=6!/(2!4!) modi ) e uno fra i 4 rimasti.
Esercizi 1 e 2 del compito del novembre 2012 (reperibile su twiki ) Le domande (v) escluse.
lunedì 7 aprile 2014
Svolti tutti gli esercizi dell'esonero del 17 aprile 2013 (reperibile su twiki)
mercoledì 9 aprile 2014
Studio del caso di n Estrazioni da urne con palline a tre colori (b Bianche r Rosse e g Gialle)  (con b, r e g fissati e noti)
Posto X_B il numero di palline bianche estratte, X_R il numero di palline rosse estratte, X_G il numero di palline gialle estratte,  Calcolo delle probabilita' condizionate P(X_B=k_B| X_G=k_G) sia nel caso di estrazioni SENZA REINSERIMENTO che CON REINSERIMENTO:  è necessario che k_B e k_G siano maggiori o uguali a zero e che k_B+k_G sia minore o uguale a n. Sia nel caso di  estrazioni SENZA REINSERIMENTO che CON REINSERIMENTO si ottiene che tali probabilità condizionate sono le stesse che otterremmo se facessimo n-k_G estrazioni da un'urna che contiene solo le b palline bianche e le r palline rosse.
Esercizi 1, 2,3 del tutoraggio del 7 aprile 2010 ed esercizio del 16 marzo 2010 (disposizione di 4 libri di Algebra, 7 di Calcolo, 5 di Geometria, la cui soluzione si trova sugli appunti delle lezioni del 2012-13 di lunedi' 8 aprile 2013)
venerdì 11 aprile 2014
Problema sui tempi di primo successo, secondo successo, ... r-simo successo. Esercizi riassuntivi di preparazione alla prima prova in itinere
lunedì 14 aprile 2014   martedì 12 aprile 2014 (ricevimento studenti in aula)    mercoledì 16 aprile 2014   (periodo delle prove in itinere)
venerdì 18 aprile 2014    lunedì 21 aprile 2014  (vacanze di Pasqua)
mercoledì 23 aprile 2014  (periodo delle prove in itinere) prima prova in itinere
venerdì 25 aprile 2014  (vacanza: anniversario della Liberazione)
lunedì 28 aprile 2014
Definizione di variabile aleatoria: il caso delle variabili aleatorie (v.a.) discrete, densita' discreta e funzione di distribuzione (o funzione di distribuzione) per le variabili aleatorie discrete: esempio del lancio di un dado e v.a. uniformi, esempio 1.d del Ross (sez 4.1 pagina 131) [vedere anche sugli appunti del 2012/13] Correzione degli esercizi della prima prova in itinere.
mercoledì 30 aprile 2014
I principali tipi di distribuzione di variabili aleatorie discrete: Uniforme, Binomiale di parametri n e p (prototipo S_n= il numero dei successi in uno schema di Bernoulli o delle prove ripetute, A_1,...,A_n indipendenti e P(A_i)=p), Bernoulli (ossia il caso n=1) Ipergeometrica (numero di palline bianche estratte con n estrazioni senza reinserimento da un'urna con palline bianche e rosse di cui b bianche  e  un totale di M=b+r palline), Geometrica di parametro p, a partire da 1 (prototipo T_1= tempo di primo successo= numero delle prove necessarie per ottenere per la prima volta un successo in uno schema di Bernoulli infinito A_i, i=1,2,....), Poisson di parametro lambda (richiamo su serie di Taylor/Mac Laurin per la funzione exp(x)). Esercizi su v.a. Geometrica, con richiami su somma della serie geometrica calcolo di P(X>2)=1-P(X=1)-P(X=2)=1-p-(1-p)p oppure P(X>2)=P(T_1>2)=P(A_1^c A_2^c)=(1-p)^2. Calcolo di P(X pari). Correzione delle domande facoltative della prima prova in itinere.
venerdì 2 maggio 2014
Esercizio: Alberto, Bruno e Carlo, lanciano a turno (e nell'ordine) un dado: vince chi per primo ottiene un sei.
1) Calcoalre le probabiltà degli eventi A={vince Alberto}, B={vince Bruno} e C={vince Carlo}.
2) Calcolare la probabilità che il gioco termini in (al massimo) 10 lanci.
SOLUZIONE (schema):
posto T_1=il numero di lanci effettuati fino alla prima volta che esce un sei, si ha che
A={vince Alberto}={T_1 appartiene a {3n+1, n >=0} },
B={vince Bruno}={T_1 appartiene a {3n+2, n >=0} }
e C={vince Carlo}={T_1 appartiene a {3n+3, n >=0} },
INOLTRE T_1 è una variabile aleatoria geometrica di paramentro p=1/6 in quanto gli eventi E_i={all'i-simo lancio esce sei} sono eventi indipendenti, tutti di probabilità p=1/6
Quindi la risposta alla domanda 1 diviene
P(A)= somme per n=0,1,... P(T=3n+1)= somme per n=0,1,... p(1-p)^(3n+1-1)= p /[ 1 - (1-p)^3]   (=36/91 con p=1/6)
P(B)= somme per n=0,1,... P(T=3n+2)= somme per n=0,1,... p(1-p)^(3n+2-1)= p(1-p) /[ 1 - (1-p)^3]=(1-p)P(A)   (= 30/91 con p=1/6)
P(C)= somme per n=0,1,... P(T=3n+3)= somme per n=0,1,... p(1-p)^(3n+3-1)= p(1-p)^2 /[ 1 - (1-p)^3]=(1-p) P(B)=(1-p)^2 P(A)  (=25/91 con p=1/6)
La risposta alla domanda 2 invece equivale a
P(T_1 <=10)  che si puo' calcolare in 3 modi  tenendo conto che
posto  s_m(x)=1+x+...+x^m     
si ha
s_m(x)=[1-x^{m+1}]/[1-x]   (per x diverso da 1),   [ da cui per |x|<1 si ha che la serie  1+x+...+x^k+... . (= somma per k>=0 di x^k=1/(1-x) ]
e che, posto  r_m(x)= x^m+x^(m+1)+..... (= somma per k>=m di x^k)
si ha  (sempre per |x|<1)
r_m(x)=x^m / (1-x)
I MODO
P(T_1 <= n )= P(T_1=1)+P(T_1=2)+....+P(T_1=n)= p+p(1-p)+....p(1-p)^(k-1) +... p(1-p)^(n-1) = p s_{n-1}(1-p) = p [1-x^(n-1+1)]/[1-x]  (dove x=(1-p) )
 ossia  P(T_1 <= n )= p [1-(1-p)^(n-1+1)]/[1-(1-p)] = 1-(1-p)^n
II MODO
P(T_1 <= n )=1- P(T_1 >n)= 1- [P(T_1=n+1) +P(T_1=n+2) +......] =1- [p(1-p)^(n+1-1) + p(1-p)^(n+2-1) +....]
= 1- p r_n(1-p)= 1- p (1-p)^n/[1-(1-p)]= 1-(1-p)^n
III modo
P(T_1 <= n )=1- P(T_1 >n)=1- P(E_1^c E_2^c.... E_n^c)=1-P(E_1^c) P(E_2^c).... P(E_n^c)=1- (1-p)^n.

ESERCIZIO si estraggono tre palline in blocco da un'urna che ne contiene 8 bianche 4 nere e 2 gialle, e per ogni pallina nera si ottiene +2 per ogni pallina bianca si ottiene -1, mentre per le palline gialle si ottiene 0.  CALCOLARE la densità discreta di X=vincita (algebrica)
SOLUZIONE (schema) si tratta di individuare i casi possibili ossia {BBB}, {NNN}, {BBN}, {BBG},{NNB},{NNG},{GGB},{GGN},{BNG} (attenzione non si tiene conto dell'ordine) e osservare che su {BBB} si ha X=-6, su  {NNN} si ha X=+6, su {BBN} si ha X= - 2, su{BBG} si ha X= - 4, su {NNB} si ha X=+2, su {NNG} si ha X=+4, su {GGB} si ha X= - 2, su {GGN} si ha X=+2, su {BNG} si ha X=0, e quindi X(OMEGA)={-6,-4,-2,0,+2,+4,+6} e poi calcolare le probabilità P(X=k) per k in {-6,-4,-2,0,+2,+4,+6}.
Ad esempio P(X=2)=P({NNB})+P({GGN}).

Ripreso l'esempio delle concordanze (ossia il problema della segretaria con N lettere intestate messe a caso nelle N buste intestate) per mostrare che in realtà si era calcolata la densità discreta della variabile aleatoria X_N che conta il numero di lettere nella busta giusta e che
P(X_N=n)= C^N_n   (N-n)! (sum_{k=0,...N-n} (-1)^k/k! )/N! = N!/[n! (N-n)!] (N-n)! (sum_{k=0,...N-n} (-1)^k/k! )/N!= (sum_{k=0,...N-n} (-1)^k/k! )/n!
converge, per N che tende a infinito a P(X=n)=e^{-1}/n! 
(dove X e' una variabile aleatoria di  Poisson di parametro 1)
in quanto  e^x= somma_{k>=0} x^k/k! = limite_{per m che tende ad infinito}  somma_{k:0<=k<=m} x^k/k!  (per x=-1).

lunedì 5 maggio 2014
Approssimazione di Poisson: teorema di Poisson, con dimostrazione, e applicazione. Definizione del valore atteso per variabili aleatorie discrete, DEF1 nel caso di spazi di probabilità finiti DEF2 attraverso la densità discreta. Constatato su un esempio che le due definizioni coincidono, (nel caso di v.a. definite in spazi di probabilità finiti). Interpretazione del valore atteso come baricentro (facoltativo)  Esempi di calcolo di valore atteso: variabili uniformi discrete, funzioni indicatrici.
mercoledì 7 maggio 2014
Richiamo sulle definizioni del valore atteso. Dimostrazione che DEF1=DEF2 (si veda la lezione prcedente)  nel caso di v.a. definite su spazi di probabilità finiti. Proprietà di linearità e di monotonia del valore atteso (dimostrazione solo nel caso di spazi di probabilità finiti, ossia con la DEF 1) [per queste dimostrazioni si vedano gli appunti delle lezioni dell'a.a. 2012-13]
Calcolo del valore atteso di una variabile aleatoria Binomiale X ~Bin(n,p) : (i) in un caso particolare (n=3 p=1/4)   (ii) in generale, con la definizione attraverso la densità discreta, e
(iii) utilizzando il fatto che E(X)=E(S_n) dove S_n è il numero di successi in n prove ripetute (ossia in uno schema di Bernoulli: A_1,...,A_n indipendenti globalmente e P(A_i)=p) e utilizzando il fatto che S_n è la somma delle funzioni indicatrici degli eventi A_i (per i=1,..n) e la proprietà di linearità.
Calcolo del valore atteso per una Ipergeometrica (n estrazioni senza reinserimento da un'urna con b palline bianche ed r rosse) utilizzando il fatto che una v.a. ipergeometrica si può rappresentare come somma (per i =1,..n) delle funzioni indicatrici degli eventi B_i={i-sima estratta binaca} e che P(B_i)=b/(b+r).
Esercizio 3 del 4-5- maggio del tutoraggio per matematici 2010.
venerdì 9 maggio 2014
Richiami sulle derivate delle serie di potenze e calcolo del valore atteso di una v.a. Geom(p). Calcolo del valore atteso di una v.a. Poisson(lambda). Calcolo della densità discreta e del valore atteso di una trasformata di una v.a. X discreta finita (ossia, posto Z:=g(X) calcolo di p_Z(z)=P(Z=z) e di E(Z)=E[g(X)]) con dimostrazione.
[ATTENZIONE l'esempio di applicazione sugli appunti delle lezioni dell'a.a. 2012-13 contiene un errore: il procedimento e' giusto ma i valori della densità della v.a. X, vanno chiaramente cambiati, si suggerisce di mettere P(X=-2)=P(X=-1)=1/5, P(X=1)=P(X=2)=1/10 e P(X=0)=2/5, in questo modo E(Z)=E(X^2)=3/2]
Cenno alla varianza e allo scarto quadratico medio.
    Esempi su andamento della densità discreta nel caso di una v.a.S_n, di tipo binomiale Bin(n,p):
si dimostra che esiste un k* compreso tra 0 ed n, tale che per k<= k* si ha P(S_n=k+1)>=P(S_n=k), ossia la densità discreta cresce,
mentre per k>= k*si ha P(S_n=k+1)<=P(S_n=k), ossia la densità discreta decresce:
IDEA  P(S_n=k+1)/P(S_n=k) >=1 se e solo se (n-k) p /[(k+1)(1-p) ]>=1   ossia se e solo se (n-k)p >=(k+1)(1-p)     ossia se e solo se  np+p >= k+1.
    Osservazione 1: il valore k+1 è "vicino" ad np, che rappresenta il valore atteso
Stesso procedimento per Y, v.a. di Poisson(lambda), per cui si ha un fenomeno analogo: P(Y=k+1)/P(Y=k)=\lambda/(k+1)>=1 se e solo  lambda>= k+1
    Osservazione1: per p=lambda/n la condizione np+p >= k+1 equivale a n(\lambda/n)+\lambda/n >= k+1 che diviene, mandando n all'infinito, esattamente  lambda>= k+1)
    Osservazione 2: per lambda minore di 1 si ha sempre lambda<k+1 e quindi la densità discreta è sempre decrescente.
Stesso procedimento per X, v.a. Geom(p) (con 0<p<1) allora P(Y=k+1)/P(Y=k)=p(1-p)^k/[p(1-p)^{k-1}]=1-p <1 per ogni k>=1 e quindi la densità discreta è sempre decrescente.
    Esercizio 74 cap.4 del Ross: Una giornalista deve intervistare almeno 5 persone da una lista: è noto che ogni persona della lista accetterà l'intervista con probabilità p=2/3 INDIPENDENTEMENTE l'una dall'altra. Si tratta di calcolare la probabilità di ottenere almeno 5 interviste a) nel caso si rivolga a 5 persone, b) nel caso si rivolga a 8 persone c) di dimostrare che, posto p(a) e p(b) le due probabilità precedenti, p(b)>5 p(a).
lunedì 12 maggio 2014
 
Definizione di Varianza di una variabile aleatoria X: Var(X)=E[(X-E(X))^2]. e dello scarto quadratico medio =\sqrt{Var(X)}(ossia la radice quadrata della varianza)
Proprietà: Var(X)>=0, Var(aX+b)=a^2Var(X), Espressione equivalente Var(X)=E(X^2)-{E(X)}^2. Cenno all'utilità della varianza: enunciato della disuguaglianza di Chebyshev [la dimostrazione verrà fatta in seguito] e deduzione del fatto che P(|X-E(X)|/ \sqrt{Var(X)} >=k) <= 1/k^2.
Calcolo della varianza di una costante, della funzione indicatrice di un evento, di una v.a. U_n, Uniforme in {1,2,...,n} E(U_n)=(n+1)/2, Var(U_n)=(n^2-1)/12,di i una v.a. S_n, Binomiale di parameri n e p E(S_n)=np, Var(S_n)=np(1-p).
Esercizio Proposto: due persone A e B giocano e ad ogni prova ciascuno 1 euro e poi chi vince prende i due euro e l'altro nulla cosi' che il guadagno ad ogni prova vale 2-1 se si si vince e 0-1 se si perde. Calcolare valore atteso e Varianza di G_n il guadagno (algebrico) del giocatore A nell'ipotesi che gli eventi vincita di A formino uno schema di Bernoulli ( ossia n eventi indipendenti e con la stessa probabilità p).
SOLUZIONE: posto A_i l'evento "il giocatore A vince nell'i-sima prova" sappiamo che S_n=1_{A_1}+1_{A_2}+.....+1_{A_n} è una variabile aleatoria Bin(n,p) e che ad ogni prova il guadagno vale 2 1_{A_i}-1  (infatti se  A vince si ha 1_{A_i}=1, allora 2 1_{A_i}-1 =2-1, mentre se A perde si ha 1_{A_i}=0 e allora 2 1_{A_i}-1=0-1) quindi G_n= (2 1_{A_1}-1)+(2 1_{A_2}-1)+....+(2 1_{A_n}-1)= 2 (1_{A_1}+1_{A_2}+.....+1_{A_n})-n=2S_n - n
per cui
E(G_n)=2E(S_n)-n= 2np-n= n (2p-1)
Var(G_n)= Var(2S_n-n)= 2^2 Var(S_n)= 4 n p (1-p)
mercoledì 14 maggio 2014
 
Calcolo della varianza di una v.a. di Poisson di parametro lambda (premessa: ci si aspetta che venga \lambda in quanto se X^(n) è una v.a. Bin(n, \lmabda/n) allora Var(X^(n))=n lambda/n (1- lambda/n)= lambda(1-lambda/n) che tende a lambda.  Calcolo della varianza di una v.a. Geom(p). Formula della Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) (con dimostrazione), dove Cov(X,Y)=E[(X-E(X)) (Y-E(Y))]. Verifica che Cov(X,Y)=E(XY)-E(X)E(Y). Generalizzazione al caso di Var(X_1+X_2+...X_n)=Var(X_1)+...+Var(X_n)+ somma delle Cov(X_i,X_j) per i diverso da j. Calcolo della covarianza della somma di due funzioni indicatrici: Cov(1_A, 1_B)=P(AB)-P(A)P(B), osservazione: se A e B indipendenti allora Cov(1_A, 1_B)=P(AB)-P(A)P(B)=0. Calcolo della varianza di una Binomiale utilizzando questo risultato con X_i=1_{A_i}: poiché gli eventi A_i sono indipendenti si ha che Cov(X_i,X_j) =P(A_i A_j)-P(A_i)P(A_j)=0 (per i diverso da j) e quindi Var(S_n)=Var(1_{A_1}+1_{A_2}+.....1_{A_n})= Var(1_{A_1})+Var(1_{A_2})+.....+Var(1_{A_n} )=np(1-p).
Calcolo della Varianza per l'ipergeometrica: n estrazioni da un'urna che contiene b palline bianche ed r rosse, in questo caso Z_n=1_{B_1}+1_{B_2}+.....+1_{B_n}, dove B_i={i-sime estratta bianca}, posto p=b/(b+r)=P(B_i) ed osservato che   (per i diverso da j)  P(B_i B_j)=P(B_1B_2) =P(B_1)P(B_2|B_1)= [b/(b+r)] [(b-1)/(b+r-1)] si ha che Var(Z_n)=Var(1_{B_1}+1_{B_2}+.....1_{B_n})=Var(1_{B_1})+Var(1_{B_2})+.....+Var(1_{B_n} )+ somma (per i diverso da j) [P(B_iB_j)-P(B_i)P(B_j)] = np(1-p) + n(n-1) { [b/(b+r)] [(b-1)/(b+r-1)] - [b/(b+r)]^2 }=...= np(1-p)[1- (n-1)/(b+r-1)].
venerdì 16 maggio 2014
Esercizi vari, tra cui:
ESERCIZIO 1 si lanciano due dati ben equilibrati, postp X_1  il valore del dado 1 e X_2  il valore del dado 2,
(a) calcolare della densità discreta di Y=massimo(X_1,X_2), della sua funzione di distribuzione, il suo valore atteso e la sua varianza  (b) calcolare della densità discreta di X= minimo (X_1,X_2), il suo valore atteso e la sua varianza
la soluzione di (a)  in diversi modi:
I MODO utilizzando i valori che possono assumere X_1 e X_2 ,
ad esempio P(Y=3)=P( (X_1,X_2)=(1,3) oppure (X_1,X_2)=(2,3) oppure (X_1,X_2)=(3,3) oppure (X_1,X_2)=(3,2) oppure (X_1,X_2)=(3,1) )
=P( (X_1,X_2)=(1,3) ) + P( (X_1,X_2)=(2,3)  ) + P(  (X_1,X_2)=(3,3)  ) + P((X_1,X_2)=(3,2) ) + P( (X_1,X_2)=(3,1) ) = 5/36
e trovare che P(Y=k)=(2k-1)/36
II MODO P(Y=k)=P(X_1=k e X_2<= k oppure X_1 <=k e X_2=k)=P(X_1=k e X_2<=k) + P(X_1<=k e X_2=k)- P(X_1=k e X_2=k)=P(X_1=k)P(X_2<=k) + P(X_1<=k)P(X_2=k) - P(X_1=k)P(X_2=k)=...=(2k-1)/36
III MODO sfruttare il fatto che P(Y=k)+P(Y <=k-1) =P(Y<=k) da cui P(Y=k)=P(Y<=k) - P(Y<=k-1) =....=(2k-1)/36   in quanto P(Y<=k)=P(X_1<=k e X_2<=k)=P(X_1<=k)P(X_2<=k)=(k/6)(k/6)=k^2/36
Per il valore atteso di Y e di Y^2 si utilizzano le formule E(Y)=somme_{k=1,...,6}  kP(Y=k) = somme_{k=1,...,6}  k (2k-1)/36= (2/36) somme_{k=1,...,6}  k ^2 - (1/36) somme_{k=1,...,6} k = 7*23/36
 e  E(Y^2)=somme_{k=1,...,6}  k^2P(Y=k) = somme_{k=1,...,6}  k^2 (2k-1)/36=  (2/36)somme_{k=1,...,6}  k ^3 - (1/36) somme_{k=1,...,6} k^2
e il fatto che  somme_{k=1,...,n} k =n(n+1)/2,     somme_{k=1,...,n} k^2 =n(n+1/2)(n+1)/3= n(2n+1)(n+1)/6,     somme_{k=1,...,n} k^3 = [n(n+1)/2]^2
e infine che Var(Y):=E[(Y-E(X))^2]=E(Y^2) -[E(Y)]^2
Simile per la soluzione di (b) ricordiamo qui solo il III MODO, sfruttando il fatto che P(X=k)+P(X >=k+1)=P(X >=k) da cui P(X=k)=P(X>=k)-P(X>=k+1) e che P(X>=k)=P(X_1>=k e X_2>=k)=P(X_1>=k)P( X_2>=k)= [(6-k+1)/6]^2=(7-k)^2/36
e quindi  P(X=k)= [(7-k)^2 - (6-k)^2]/36 = [49 - 14 k +k^2 - 36 +12 k - k^2]/36 = (13-2k)/36
Per il valore atteso si è osservato che c'è un modo alternativo:
OSSERVAZIONE X_1+X_2=X+Y e quindi E(X_1+X_2)=E(X+Y) e quindi E(X_1)+E(X_2)=E(X)+E(Y) da cui E(X)= E(X_1)+E(X_2)-E(Y) = (7/2)+(7/2)-7*23/36= 7(1-23/36)=7*13/36
OSSERVAZIONE X=min(X_1,X_2)<= X_i <=Y=Max(X_1,X_2) e si ha quindi E(X) <= E(X_i) <= E(Y) ed in effetti   7*13/36<= 7<= 7*23/36.
ESERCIZIO 2 Sia X una v.a. Geom(2/3) calcolare esattamente P(|X-3/2|>= 3/2) e dare una maggiorazione con la disuguaglianza di Chebyshev.
Esercizio 3 del tutoraggio per matematici 11-12 maggio 2010, esercizio 4  del tutoraggio per matematici 4-5 maggio 2010 (attenzione la risposta è 1-7/e^2 )
lunedì 19 maggio 2014
Dimostrazione della Disuguaglianza di Chebyshev in tre modi caso di spazio finito, caso X v.a. discreta, e attraverso la disuguaglianza di Markov (come sul Ross)
Esercizi:  esercizio 2 (punti a. e b.) ed Esercizio 3 (punto 3.) del tutoraggio per matematici 18-19 maggio 2010, Esercizio 6 del tutoraggio per matematici 11-12 maggio 2010.
mercoledì 21 maggio 2014
Densità discreta congiunta di due variabili aleatorie X e Y, densità discrete marginali di X e di Y. Densità discreta di Z=g(X,Y) e valore atteso E[g(X,Y)] =Somme_k Somme_h g(x_k,y_h) P(X=x_k, Y=y_h), ossia senza bisogno di calcolare la densità discreta di Z=g(X,Y).
Applicazione al caso Z=X+Y in modo da ridimostrare che E(X+Y)=E(X)+E(Y). Calcolo della Cov(X,Y), utilizzando il fatto che Cov(X,Y) =E[ (X-E(X) ) ( Y-E(Y) ) ] ) = E(XY) -E(X)E(Y)
e che E(XY)=Somme_k Somme_h (x_k*y_h) P(X=x_k, Y=y_h)
Esempi: tra cui 1) densità discreta congiunta di S_n e I_n, dove S_n è il numero dei successi ed I_n è il numero degli insuccessi in n prove indipendenti e con probabilità p: P(S_n=k, I_n=h)=P(S_n=k)=P(I_n=h) SE 0<=k<=n e k+h=n (ossia h=n-k) e P(S_n=k, I_n=h)=0 in tutti gli altri casi; 2) Esercizio 1 della seconda prova in itinere del 6 giugno 2012 (escluse le domande riguardanti l'indipendenza delle v.a.)
venerdì 23 maggio 2014
Definizione di due variabili aleatorie indipendenti. Ripreso l'esercizio 1 della seconda prova in itinere del 6 giugno 2012 (incluse le domande riguardanti l'indipendenza delle v.a.)
Dimostrazione che per le v.a. discrete se X e Y sono indipendenti allora la densità discreta congiunta è il prodotto delle densità discreta marginali, e (senza dimostrazione) che se a densità discreta congiunta di X,Y è il prodotto delle densità discreta marginali allora X e Y sono indipendenti. Proposizione: Se X e Y sono indipendenti allora E[g_1(X)g_2(Y)]=E[g_1(X)]E[g_2(Y)] (purché esistano finiti E[g_1(X)] ed E[g_2(Y)]) [dimostrazione solo nel caso discreto finito]. Relazioni tra indipendenza e non correlazione: se X eY indipendenti allora Cov(X,Y)=0, ma non vale il viceversa (con controesempi) . Calcolo della densità discreta della somma di due variabili aleatorie discrete: Z=X+Y allora P(Z=z)=Somma_k P(X=x_k, Y=z-x_k). Applicazione a: (i)  X~ Bin(n,p), Y~ Bin(m,p), X e Y indipendenti,  allora X+Y ~ Bin(n+m,p),  (ii) X~ Poisson(lambda, Y~ Poisson(mu), X e Y indipendenti,  allora X+Y ~ Poisson(lambda+mu). Caso di v.a. multinomiali: ossia X_A, X_B, X_C  rispettivamente numero di palline arancioni, bianche e celesti, in n estrazioni con reiserimento da un'urna con m_a palline arancioni, m_b bianche e m_c celesti.
Calcolo della densità discreta congiunta, calcolo delle densità marginali, osservazione che  X_A~ Bin(n,p_A), X_B~ Bin(n,p_B), X_C~ Bin(n,p_C), con p_A=m_a/m, p_B=m_b/m, p_C=m_c/m, dove m =m_a+m_b+m_c,
X_A+ X_B~ Bin(n,p_A+p_B),  X_A+ X_C~ Bin(n,p_A+p_C), X_B+ X_C~ Bin(n,p_B+p_C) e che quindi  n (p_A+p_B)(1-p_A-p_B)=Var(X_A+X_B)= Var(X_A)+Var(X_B)+2Cov(X_A,X_B)= np_A(1-p_A) + np_B(1-p_B) + 2 Cov(X_A, X_B) da cui si può calcolare facilmente Cov(X_A,X_B)= (1/2) [ n (p_A+p_B)(1-p_A-p_B) - np_A(1-p_A) + np_B(1-p_B) ]
lunedì 26 maggio 2014
Calcolo della densità discreta di X+Y, dove X~ Geom(p), Y~ Geom(p), X e Y indipendenti: P(X+Y=k)= (k-1) p^2 (1-p)^{k-2}.  Relazione con il fatto che se T_1 e T_2 sono rispettivamente il tempo di primo successo e di secondo successo in prove indipendenti e tutte con la stessa probabilità p, allora T_2= D_1+D_2, dove D_1=T_1 e D_2=T_2-T_1, e che D_1 è Geom(p) (ovvio) e D_2 anche è Geom(p) e D_1 e D_2 sono indipendenti:
infatti, per ogni k_1 e k_2 >=1 si ha
P(D_1=k_1, D_2=k_2)=P(A^c_1  A^c_2 ... A^c_{k_1-1} A_{k_1}  A^c_{k_1+1}  A^c_{k_1+2} ... A^c_{k_1+k_2-1} A_{k_1+k_2})=(1-p)^{k_1-1}p   (1-p)^{k_2-1}p =P(D_1=k_1)  (1-p)^{k_2-1}p,
da cui P(D_2=k_2)= Somme_{k_1} P(D_1=k_1, D_2=k_2)= Somme_{k_1}P(D_1=k_1)  (1-p)^{k_2-1}p = (1-p)^{k_2-1}p Somme_{k_1}P(D_1=k_1) =  (1-p)^{k_2-1}p    [in quanto Somme_{k_1}P(D_1=k_1)=1]
ossia D_2 è Geom(p) e inoltre   P(D_1=k_1, D_2=k_2)=P(D_1=k_1)  (1-p)^{k_2-1}p = P(D_1=k_1) P(D_2=k_2) e quindi D_1 e D_2 sono indipendenti.
Generalizzazione al caso dei tempi di n-simo successo Ossia se T_i è il tempo di i-simo successo e D_i=T_i-T_{i-1} alllora D_1, D_2,... D_n sono v.a. Geom(p) indipendenti, cioè P(D_1=k_1, .., D_i=k_i, ... , D_n=k_n)= P(D_1=k_1) ... P(D_i=k_i) ...  P(D_n=k_n) e quindi P(D_1+...+D_i+...+D_n=k)=P(T_n=k)= C^{k-1}_{n-1} (1-p)^{k-n} p^n   per k interi con k>=n.
Generalizzazione al caso di n variabili aleatorie indipendenti, Geom(p): Se X_1,X_2,... X_n sono v.a. Geom(p) INDIPENDENTI (ossia la densità discreta congiunta è il prodotto delle densità discrete marginali) allora
P(X_1=k_1, .., X_i=k_i, ... , X_n=k_n) P(D_1=k_1, .., D_i=k_i, ... , D_n=k_n)  e quindi P(X_1+...+X_i+...+X_n=k)=P(D_1+...+D_i+...+D_n=k)=P(T_n=k)= C^{k-1}_{n-1} (1-p)^{k-n} p^n   per k interi con k>=n.
Enunciati della Legge dei grandi numeri e del Teorema centrale del limite, cenno all'approssimazione normale.  
Esercizio proposto: I PARTE Si lanciano n=7 volte un dado ben equilibrato e si vince 2 se escono 1 o 2 e si perde 1 altrimenti. Posto X= guadagno ottenuto, calcolare E(X), Var(X),  densità discreta di X.  II PARTE Si ripete il gioco precedente fino alla prima volta in cui si ottiene una perdita. Posto T il numero delle "giocate" effettuate, Calcolare E(T) 
suggerimento: Porre S_n= numero dei successi su n prove  (successo= esce 1 o 2) e I_n il numero degli insuccessi, si osservi che si vince 2 tutte le volte che si ha un successo e sim perde 1 tutte le volte che si ha un insuccesso per cui X=2S_n-I_n, inoltre S_n+I_n=n per cui  X=2S_n-I_n= 2S_n-(n-S_n)= 3S_n-n, per cui valore atteso e varianza si possono calcolare facilmente.  La v.a. assume solo valori del tipo 3k-n per k=0,1,...n, da cui  P(X=3k-n)=P(S_n=k)
Infine T è Geom(p) con p=P(X<0)=P(X=-7)+P(X=-4)+P(X=-1)=P(S_7=0)+P(S_7=1)+P(S_7=2).
mercoledì 28 maggio 2014
Dimostrazione della Legge dei Grandi Numeri, per successioni di variabili aleatorie indipendenti X_i, i>=1 e con la stessa distribuzione (i.i.d.= indipendenti identicamente distribuite) valore atteso mu_X e varianza (sigma_X)^2. Relazione con il Teorema Centrale del Limite (anche detto Teorema del Limite Centrale, con scarto quadratico medio, anche detto deviazione standard, sigma_X>0).  (il teorema senza dimostrazione, la relazione dimostrata) :  P(il valore assoluto della differenza tra media aritmentica di X_1, ..., X_n e valore atteso mu_X sia minore o uguale ad epsilon) è approssimato da PHI(epsilon radice n/sigma_X) - PHI(-epsilon radice n/sigma_X) [=2PHI(epsilon radice n/sigma_X) -1] Studio della funzione PHI(x), in particolare PHI(-x)=1-PHI(x)  e uso delle Tavole della Gaussiana. Interpretazione di PHI(x) come funzione di distribuzione o di ripartizione, con richiami alle proprietà delle funzioni di distribuzione (anche dette funzioni di ripartizione): F_X(x)=P(X<=x) sono 1) funzioni monotone crescenti in senso lato (se x<=y allora F_X(x)<= F_X(y) in quanto {X<=x} è incluso in{X<=y}) 2) funzioni continue a destra e con i limiti a sinistra (senza dim) 3)  F_X(y) tende a 1 per y che tende a infinito, e  F_X(x) tende a 0 per x che tende a meno infinito (senza dim).
Proprietà fondamentale F_X(b) - F_X(a)= P(a<X<=b), in quanto F_X(b)=P(X<=b)=P(X<= a) +P(a<X<=b)=F_X(a)+P(a<X<=b).
Le v.a. che ammettono densità sono quelle per le quali F_X(x) è l'integrale da "- infinito" a "x" di una funzione f_X(y) in dy, con f_X(y) >=0 per ogni y e con  l'integrale da "- infinito" a "+ infinito" di f_X(y) in dy =1, per cui
F_X(b) - F_X(a)= P(a<X<=b)= l'integrale da "a" a "b" di  f_X(y) in dy.
Esempi: Esercizio 15 cap 8 del Ross: una compagnia di assicurazione ha 10000 clienti. Ogni cliente ha una richiesta annua di risarcimento che "in media" è di mu=240 euro con una devianzione standard  sigma=800 euro. Caloclare approssimativamente la probabilità che le richieste totali superino i 2,6 milioni di euro.(suggerimento: posto X_i la richiesta annua di risarcimento il risarcimento totale è S_n= X_1+...+X_10000 e si può supporre in prima approssimazione che le v.a. X_i siano indipendenti, e quindi si può applicare l'approssimazione normale ossia il fatto che P(a<S_n<=b)=P(a*_n<S*_n<=b*_n),
 dove S*_n=(S_n-n mu_X)/(sigma_X radice(n)), a*_n=(a-n mu_X)/(sigma_X radice(n)), b*_n=(b-n mu_X)/(sigma_X radice(n)) , con n=10000=10^4, mu_X=240=2,4 10^2, sigma_X=800=8 (10^2), a=(2,6) (10^6) e b=+infinito
(con la convenzione PHI(+infinito)=1 e PHI(-infinito)=0)
Esercizio 6 cap8 del Ross: un dado ben equilibrato viene lanciato fino a quando la somma dei punteggi ottenuti supera 300. Calcolare approssimativamente la probabilità che sia necessario effettuare almeno 80 lanci.
suggerimento:  posto T il numero dei lanci da effettuare l'evento {T>=80} coincide con l'evento {S_{79} <300}= {S_{79} <= 299,5}: a questo punto possiamo utilizzare l'approssimazione normale.
venerdì 30 maggio 2014
Interpretazione del teorema centrale del limite come P(a<S*_n<=b) è vicina a P(a<Z<=b), dove Z è una v.a. gaussiana standard (anche detta Normale N(0,1)) Calcolo di E(Z)=0  e Var(Z)=1 (ATTENZIONE nella seconda edizione del Ross ci sono degli errori di stampa)
Approssimazione normale: esercizi e applicazioni.
Applicazione1: calcolo approssimato di P(X>x) [o P(X<=x) ]per X Poisson(lambda) per lambda grande, utilizzando il fatto che X ha la stessa distribuzione della somma di n v.a. indipendenti con distribuzione Poisson(lambda/n)  per cui P(X<=x)=P( (X-\lambda)/radice(lambda) <= (x-lambda)/radice(lambda) ) è circa PHI( (x-lambda)/radice(lambda) ). Esercizio: Sia X una v.a. di Poisson di parametro 10000, scrivere l'espressione esatta di P(X>9850) [= somme _{per k>=9851} (10000)^k/(k!) exp(-10000)=1-P(X<=9850)= 1- somme _{per 0<=k<=9850} (10000)^k/(k!) exp(-10000) ] e l'espressione approssimata di P(X>9850) [si può pensare X come la somma S_n di n=1000 v.a. indipendenti e di Poisson di parametro 1 e quindi, per il Teorema centrale del limite, P(X>9850)=1-P(X<=9850)=1-P(S_n<=9850)=1-P( (S_n-10000)/100 <= (9850-10000)/100)=1-P(S_n*<= -150/100)=1-P(S_n*<= -1,5) circa uguale a 1-PHI(-1,5)=PHI(1,5)=9.332
Applicazione 2: Calcolo esattp e approssimato di P(T_n >x) [o di P(T_n<=x) ] per T_n binomiale negativa ovvero il tempo di n-simo successo in uno schema di Bernoulli infinito, con probabilità p, utilizzando il fatto che T_n=D_1+...+D_n, dove D_i sono Geom(p) indipendenti, per cui P(T_n<=x)=P((T_n-n/p)/radice(n(1-p)/p^2) <=(x-n/p)/radice(n(1-p)/p^2) )=P( T_n*<= (px-n)/radice(n (1-p)) ) è circa PHI( (px-n)/radice(n (1-p)) )
Esercizi ispirati agli esercizi 13, 14 e 15 del Capitolo8 del Ross:
ESERCIZIO 1 Il punteggio (in centesimi) di un test svolto dagli studenti nella classe di Probabilità ha valore medio mu_X=74 e deviazione standard sigma_X=16. Ci sono due classi una da 25 studenti e l'altra da 64. Calcolare approssimativamente la probabilità che la media artimetica nella classe da 25 sia superiori a 80  e  calcolare approssimativamente la probabilità che la media artimetica nella classe da 64 sia superiori a 80:  nella prima classe si tratta di calcolare, per M=80,
p_1:=P(1/25 somme_{i=1,..,25} X_i >M) =P(somme_{i=1,..,25} X_i > 25 M)= P(S_25 > 25 M) = P(S_25* > [25M-25mu_x]/ 5  sigma_X] che vale circa
 1-PHI( (25/5) [M-\mu_X](\sigma_X) )= 1-PHI(5 [80-74]/16)=1-PHI( 15/8)=1-PHI(1,875) [ PHI(1,875) si puo' ad esempio approssimare facendo la semisomma tra PHI(1,87) e PHI(1,88), ossia  con (0.9693+0.9699)/2 =0.9696] e quindi p_1 è approssimato da 0.0304
Per la seconda classe si arriva invece a  p_2:=P(1/64 somme_{i=1,..,64} Y_i >M)= P(S_64* > [64M-64mu_x]/8  sigma_X] che vale circa 1-PHI(8 [80-74]/16)=1-PHI(3)=1-0.9987=0.0013

OSSERVAZIONE1 il legame tra teorema centrale del limite e legge dei grandi numeri spiega come mai la probabilità nella seconda classe viene più piccola che nella prima classe, che è meno numerosa.
OSSERVAZIONE2 si potrebbero ottenere approssimazioni leggermente migliori osservando che, poiché S_25 assume solo valori interi, P(S_25 > 25 M)= P(S_25 > 25 M+(1/2)) e poi proseguire nei conti


ESERCIZIO 2 Un certo componente  è essenziale per il funzionamento di un apparecchio e, quando si guasta, viene rimpiazzato immediatamente con un componente nuovo. Supponendo che il valore medio di ciascun componente è 100 ore e che la deviazione standard è 30 ore. (a) mostrare che n=25  componenti garantiscono che la probabilità che l'apparecchio funzioni per almeno 2000 ore consecutive valga almeno 0,95.
(b)  quanti componenti dobbiano mettere in magazzino in modo che la probabilità che l'apparecchio funzioni per almeno 2000 ore consecutive valga almeno 0,95?

Si tratta di trovare n in modo che P(X_1+...+X_n>=2000) >=0.95, dove X_i rappresenta il tempo di funzionamento del compnente i-simo
Ora possiamo approssimare  P(X_1+...+X_n>=2000) = P(S_n>=2000)=P(S*_n >= (2000-n100)/(radice(n)30) ) con 1-PHI( (200-10n)/(radice(n) 3)  )=PHI(  (10n-200)/(radice(n) 3)  ) e che 0.95=PHI(1.64485)
per cui basta controllare se vale PHI(  (10n-200)/(radice(n) 3)  ) >= 0.95=PHI(1.64485) .  Essendo PHI, la funzione di distribuzione di una Gaussiana standard, una funzione crescente, basta che valga
(10n-200)/(radice(n) 3)   >= 1.64485, ossia,          posto x=radice(n)    basta che valga  10x^2 -200 >= 3 (1.64485) x.  ossia 10x^2-200>= 4,93455 x,
Per il punto (a) si tratta di un semplice controllo: (250-200)/15=50/15=3,333, mentre, per il punto (b), che equivale trovare il minino n>=(x_2)^2 dove x_1<=x_2 sono le radici di  10x^2 -4,93455 x-200 =0 ossia  x_2=[4,93455+ radice(4,93455^2+8000)]/20
osservando che x_2>= [5+radice(8025) ]/20=4,73 per cui viene n>=22,36 ossia n_min=23 [del resto  per n=22,  (10n-200)/(radice(n) 3)=1,4213  mentre per n=23  (10n-200)/(radice(n) 3)=2,085 ]
 
ESERCIZIO 3 Una compagnia di assicurazioni ha 10000 clienti (che hanno assicurato la propria automobile). La richiesta media annua per assicurato è pari a 240 euro con deviazione standard pari a 800 euro. Approssimare la probabilità che le richieste  totali di risarcimento superino 2.6 milioni di euro.

Posto X=S_10000=X_1+..+X_1000, con X_i= la richiesta dell'assicurato i-simo (che, ovviamente, può valere anche 0), si tratta si approssimare P(X>=2,6 10^6)=P(X*>= (2.6 10^6- 2.4 10^2 10^4)/10^2 8 10^2) che vale circa 1- PHI(0.2 10^2/8) =1- PHI (2,5)=1-0,9938=0,0272.

lunedì 2 giugno 2014 (vacanza: anniversario della Repubblica)
mercoledì 4 giugno 2014
Valore atteso condizionato ad un evento A, con P(A)>0, per v.a. discrete: E[X|A]:=somme_k  x_k P(X=x_k|A).  Formula del valore atteso totale (con dimostrazione): se H_i, i=1,..m sono una partizione e P(H_i)>0 per ogni i allora E(X)=somme_i P(H_i)E[X|H_i].  e sua immediata estensione: E[g(X)]=somme_i P(H_i)E[g(X)|H_i]. Esempi da vari compiti, tra cui ESERCIZIO 2 del secondo esonero 6 giugno 2012 (per cui per calcolare E(Y_C) non è necessario calcolare esplicitamente la densità discreta, ma basta osservare che P(Y_C=k|X=i) è una binomiale di parametri i e p=1/7 per cui E(Y_C|X=i)=i/7  e quindi E(Y_C)=somme_{i=1,..6} P(X=i)E(Y_C|X=i)=somme_{i=1,..6} (1/6) i/7=1/2 . Esempio per calcolare la varianza di uyan v.a. X come
Var(X)=E(X^2)-(E(X))^2 = somme_i P(H_i)E[X^2|H_i]- (somme_i P(H_i)E[X|H_i])^2.
Applicazione Calcolo del valore atteso di una v.a. Geom(p), utilizzando la proprietà della mancanza di memoria ossia che P(T-k=h|T>k)=P(T=h): sia T il tempo di primo successo in una successione di prove ripetute (ossia A_n, n>=1 sono eventi indipendenti e con probabilita' P(A_i)=p) e siano H_1=A_1={T=1} e H_2=A_1^c={T>1} allora P(A_1)=p e P(A_1^c)=1-p.
Inoltre chiaramente E(T_1|A_1)=E(T_1|T_1=1)=1 invece per E(T|A_1^c) osserviamo che  E(T|A_1^c)=E(1+(T-1)|A_1^c)= 1+E(T-1|A_1^c)= 1+ E(T-1|T>1) =1+E(T) dove nell'ultima uguaglianza abbiamo usato la proprietà della mancanza di memoria.

 La formula del valore atteso totale diviene
E(T)=E(T|A_1) P(A_1) + E(T|A_1^c) P(A_1^c)= 1 p + (1+E(T)) (1-p) = p + 1-p + (1-p) E(T) =1+E(T) - pE(T)

da cui  0=1-p E(T)  e quindi E(T)=1/p 
(in realtà senza dirllo abbiamo usato il fatto che E(T) è finito perché altrimenti non avremmo potuto semplificare dall'uguaglianza E(T)= 1+E(T) - pE(T), ossia avrebbe potuto essere una uguaglianza del tipo infinito=infinito)

In n estrazioni senza reinserimento da un'urna che contiene m_A palline di tipo A, m_B di tipo B ed m_C di tipo C, posto Y_A, Y_B e Y_C le v.a. che rappresentano il numeto di palline di tipo A, B e C, rispettivamente: Calcolo della densità discreta di Y_C dato che Y_B=m: si tratta della distribuzione ipergeometrica relativa a n-m estrazioni senza reinserimento da un'urna che contiene m_A palline di tipo A e m_C di tipo C e NESSUNA di tipo B (idea: le palline di tipo C possono essere state estratte solo nelle n-m estrazioni  in cui non sono state estratte quelle di tipo B e quindi è come se fossero state estratte da un'urna che contiene solo le palline di tipo A e C)  la verifica formale non è difficile.

venerdì 6 giugno 2014
Formula del valore atteso totale e connessione con E(X)= E[E(X|Y)]: Se la partizione H_i={Y=y_i} allora E(X)= somme_i P(Y=y_i) E(X|Y=y_i); posto phi(y_i)=E(X|Y=y_i) si ha che E(X)= somme_i P(Y=y_i) phi(y_i)= E[phi(Y)].
CON E(X|Y) si intende esattamente la v.a. phi(Y) ossia E(X|Y):=phi(Y) da cui E(X)= somme_i P(Y=y_i) phi(y_i)= E[phi(Y)]= E[E(X|Y)].

Applicazione: siano X_i, per i>=1 variabili aleatorie indipendenti e con la stessa distribuzione e con valore atteso mu_X, e sia N una variabile aleatoria a valori nei naturali e indipendenti da tutte le X_i, e sia X= somma_{i=1,...,N}X_i, cioè X è la somma aleatoria di N variabili aleatorie indipendenti X_i (con la convenzione che per n=0 somma_{i=1,...,n} X_i=0). Allora
E(X|N=n)= n mu_X  (infatti se N=n allora  somma_{i=1,...,N}X_i= somma_{i=1,...,n}X_i ) e quindi  E(X|N=n)= E[somma_{i=1,...,N}X_i|N=n]=E[somma_{i=1,...,n}X_i|N=n]=somma_{i=1,...,n}E[X_i|N=n] (questa uguaglianza vale perché E(X|A) è un valore atteso, fatto rispetto alla probabilità condizionata ad A che è una probabilità, e quindi le proprietà di linearità,  e similmente di monotonia, continuano a valere anche per il valore atteso condizionato)
A questo punto si osserva che E(X_i|N=n)=E(X_i)=mu_X  e quindi ( infatti  E(X_i|N=n)= somme_k x_k P(X_i=x_k|N=n)= somme_k x_k P(X_i=x_k ), in quanto le v.a. X_i e N sono indipendenti e quindi gli eventi {X_i=x_k} e {N=n} sono indipendenti). di conseguenza  E(X|N=n)=somma_{i=1,...,n}E[X_i|N=n] somma_{i=1,...,n}E[X_i]= n mu_X e phi(n)=n mu_X e quindi E[X|N]=N mu_X

applicando la formula con Y=N, si ha E(X) =   E [somma_{i=1,...,N}X_i]= E[ E(X|N)] = E( N mu_X) = E(N) mu_X 
(oppure direttamente: E(X)= somme_n P(N=n) E(X|N=n) = somme_n P(N=n) n mu_X= E(N) mu_X  )

OSSERVAZIONE: per calcolare il valore atteso NON E' NECESSARIO calcolare la densità discreta di X e neppure la densità discreta di X condizionata a N=n.
Nel caso particolare in cui X_i=1_{A_i} dove A_i sono eventi indipendenti e tutti con P(A_i)=p  si puo' calcolare anche la densità condizionata di X dato {N=n}: viene una Bin(n,p) e quindi ritroviamo E(X|N=n)= np.

Siano X e Y v.a. indipendenti e con X Bin(n_X,p) e Y Bin(n_Y,p):  calcolo della densità discreta di X dato X+Y=n: si ottiene una distribuzione ipergeometrica con n estrazioni (senza reinserimento) da un'urna che contiene n_X palline di tipo "x" e n_Y palline di tipo "y" (si tratta di semplici conti P(X=k|X+Y=n)= P(X=k, X+Y=n)/P(X+Y=n) =P(X=k, k+Y=n)/P(X+Y=n) =P(X=k) P( Y=n-k)/P(X+Y=n) (ovviamente risulta maggiore di zero solo se 0<=k<= n_X e
0<= n-k <= n_Y) e  poi bisogna utilizzare il fatto che X+Y è di tipo Bin (n_X+n_Y, p)

Siano X e Y v.a. indipendenti e con X Poisson di parametro lambda e Y  Poisson di parametro lambda :  calcolo della densità discreta di X dato X+Y=n: si ottiene una distribuzione binomiale Bin(n,p) con p=\lambda/(lambda+mu)
il calcolo è simile si richiede solo che k>=0 e n-k>=0 ossia 0<=k<=n), e si utlizza il fatto che X+Y è una v.a. di Poisson di parametri lambda+mu.

Idea prendiamo il caso lambda e mu sono tali per cui esiste un p (piccolo) ed n_X ed n_Y grandi con lambda=n_X p e mu=n_Y p  (si tratta del caso in cui lambda/mu è razionale)
allora, per l'approssimazione di POISSON ci aspettiamo che il rispultato precedente ci aiuti: e quindi venga una approssimazione di una Ipergeometrica in cui si fanno n estrazioni senza reinserimento da un'urna che contiene n_X palline di tipo "x" e n_Y palline di tipo "y" con n_X ed n_Y che tendono ad infinito mentre n è fissato (sappiamo che possiamo approssimare tale distribuzione con una Bin( n, q) con  q =  n_X/(n_X+n_Y), ma per ipotesi abbiamo che  q =  n_Xp/(n_Xp+n_Yp)= lmabda/(lambda+mu),

In n estrazioni con reinserimento da un'urna che contiene m_A palline di tipo A, m_B di tipo B ed m_C di tipo C, posto X_A, X_B e X_C le v.a. che rappresentano il numeto di palline di tipo A, B e C, rispettivamente: Calcolo della densità discreta di X_C dato che X_B=m: si tratta della distribuzione binomiale relativa a n-m estrazioni con reinserimento da un'urna che contiene m_A palline di tipo A e m_C di tipo C e NESSUNA di tipo B ( idea: le palline ti tipo C possono essere state estratte solo nelle n-m estrazioni  in cui non sono state estratte quelle di tipo B e quindi è come se fossero state estratte da un'urna che contiene solo le palline di tipo A e C) la verifica formale non è difficile.

suggerito di guardare il compito del 15 novembre 2012 Esercizio 3
e gli esercizi 2,3,4,5 del tutoraggio per matematici del 1 giugno 2010


lunedì 9 giugno 2014
E

mercoledì 11 giugno 2014 
ore 16-18 AULA 3 di MATEMATICA seconda prova in itinere