Pagina 1 di 1

Semplici probabilità, ancora più semplici!

Inviato: dom dic 01, 2013 7:27 pm
da panurgo
Da un'urna sono state estratte alcune palline bianche: qual è la probabilità che sia bianca anche la prossima pallina estratta? :shock:

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 9:15 am
da delfo52
mancando il dato "quante palline c'erano nel sacco" e "quante sono quelle estratte",
pongo per assioma che, per ogni opzione, valga un principio di "equivalenza".
-Ci cono ancora palline nell'urna? 50% NO
-Se ce ne sono, di che colore sono? 16,66% B; 16,66% BN; 16,66% N
-Nella opzione intermedia, 8,33% B; 8,33% N
Viene 25%
Ma...
nulla viene detto sulla possibile presenza di più di due colori.
In questo caso, la probabilità tende a zero, perché ci sono infinite possibilità contro una

Parlando più seriamente, dopo una sequenza monocroma, la probabilità che essa si prolunghi, tende invece a 1

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 10:26 am
da Info
Effettivamente si puo' dire poco mancando alcuni dati come il numero di palline presenti nell'urna....
comunque avendo gia`estratto delle palline posso dire che la probabilita`e`certamente diminuita,

poniamo ci fossero T palline all'inizio, di cui B palline bianche e N non bianche (non cambia il colore, basta che non sia bianco).

adesso ho estratto b palline bianche, quindi ne rimangono (T-b) di cui N non bianche.
la probabilita`dovrebbe essere (B-b)/(T-b).

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 12:13 pm
da franco
:D
Nella prima frase si dice che "dall'urna sono state estratte alcune palline bianche".
Può anche essere che, oltre alle bianche, ne siano state estratte anche di colorate?

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 12:29 pm
da panurgo
Le informazioni fornite riguardano ciò che è: che siano state estratte altre palline di altri colori è irrilevante perché, non sapendolo, non possiamo usare questo dato nel calcolo senza introdurre un condizionamento $X$ sui tutti i valori di probabilità: $p\left(\,\cdot\,\middle|\,X\,I\right)$.

E' un ragionamento possibile ma è un altro problema.

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 2:18 pm
da franco
La probabilità che la prossima pallina estratta sia bianca è pari a B/T dove:
B è il numero di palline bianche ancora nell'urna
T è il numero totale di palline ancora nell'urna.

(o l'ho fatta troppo semplice :D :D :D ?)

ciao

Re: Semplici probabilità, ancora più semplici!

Inviato: lun dic 02, 2013 10:33 pm
da delfo52
se oltre alle bianche ne sono state estratte altre di diversa colorazione, la stima migliore che si possa fare è presumere che il rapporto B/nonB tra le palline ancora nell'urna sia lo stesso B/nonB delle biglie estratte.
il problema, a mio avviso, assomiglia alla situazione di un osservatore "ignorante" che esamina dati empirici, ma è all'oscuro delle leggi sottese, e a cui mancano molti dati. Dati che magari a chi osserva da altra angolazione, e che conosce molte più cose, sembrano ovvi.
Immagino un marziano che arriva nel mio paese alle porte di Bologna. E' in grado di tradurre l'italiano scritto, e osservando i muri e i cartelli del paese, registra i dati anagrafici riportati sugli annunci necrologici. Immaginiamo che i primi cinque necrologi riguardino cinque maschi; tutti di età compresa tra 78 e 88 anni.
Non sa se a Bologna esistano solo maschi, o se ci siano anche individui di altri sessi.
Potrebbe essere portato a credere che esistano solo maschi; oche solo i maschi muoiano; o che sulla terra (o almeno a Bologna) si muoia solo tra i 78 e gli 88 anni...
Per noi che sappiamo che esistono uomini e donne (e spero di non essere accusato di gender-fobia...), e che sia gli uni che le altre muoiono, e che l'età di morte va da zero a centoventi, con una distribuzione tale da concentrare gli eventi nella ottava e nona decade...per noi osservare cinque morti maschi su cinque è un evento appena appena anomalo, ma certo non degno di particolare attenzione.
Immaginiamo ora di andare in vacanza nel Kissandostan; e di osservare trentaquattro manifesti mortuari, tutti di donne. Saremmo portati a dare per scontato che anche in quella remota regione, vivano, e muoiano, tanti maschi quante femmine. Un rapporto 34 a 0 è davvero strano. Potremmo immaginare che, per consuetudine culturale, gli avvisi mortuari vengano riservati solo alle persone morte di sesso femminile.
Una volta avanzata una ipotesi, il marziano a Bologna, o noi nel Kissandostan, dovremo proseguire l'indagine, cercando altri dati, architettando esperimenti (falsificabili!)...E' questa la scienza; almeno da Galileo in poi

Re: Semplici probabilità, ancora più semplici!

Inviato: ven dic 06, 2013 7:10 am
da panurgo
La parte più difficile di un problema di teoria della probabilità è, spesso, l’assegnazione di una distribuzione di probabilità a fronte di ciascuna informazione. Una volta fatto questo non resta che usare le regole della teoria per calcolare le altre distribuzioni, quelle per le quali non abbiamo informazioni o che sono troppo difficili da assegnare direttamente.
Le distribuzioni che assegniamo dipendono, ovviamente, dalle informazioni che abbiamo ma possono anche dipendere da altre informazioni non in nostro possesso: ciò che bisogna fare di queste ultime è l’argomento di questo topic.
È abbastanza facile assegnare una probabilità per l'estrazione delle palline se il contenuto dell’urna è noto. Perciò noi ipotizziamo di conoscerlo: sia $W$ il numero di palline bianche contenute (prima delle estrazioni) nell’urna, $R$ il numero delle palline non-bianche (il cui colore, come qualcuno ha fatto notare, è irrilevante: a noi interessano le palline bianche), e siano state pescate $w$ palline bianche e (per farvi contenti) $r$ non-bianche.
Con queste informazioni vogliamo assegnare $p \left( w\, \middle|\, r\, W\, R\, I\right)$, la probabilità di estrarre le palline bianche condizionata alle altre informazioni.
Possiamo estrarre la prima pallina bianca in $W$ modi, la seconda in $W - 1$ ecc.: in totale sono

$\displaystyle W \left( W - 1 \right) \left( W - 2 \right) \cdots \left( W - w + 1 \right) = \frac{W!}{\left( W - w \right)!}$

Ovviamente lo stesso vale, mutatis mutandis, le palline non-bianche

$\displaystyle R\left(R - 1\right)\left(R - 2\right)\cdots\left(R - r + 1\right)=\frac{R!}{\left(R - r\right)!}$

e per le palline senza distinzione di colore

$\displaystyle \left(W + R\right)\left(W + R - 1\right)\left(W + R - 2\right)\cdots\left(W + R - w - r + 1\right)=\frac{\left(W + R\right)!}{\left(W + R - w - r\right)!}$

Inoltre bisogna inserire un termine che tenga conto dell’ordine con cui vengono pescate le palline, $\textstyle {w + r \choose w}$. Mettiamo tutto insieme ed abbiamo

$\displaystyle p\left(w\,\middle|\,r\,W\,R\,I\right)={w + r \choose w}\frac{\frac{W!}{\left(W - w\right)!}\times\frac{R!}{\left(R - r\right)!}}{\frac{\left(W + R\right)!}{\left(W + R - w - r\right)!}}=\frac{{W \choose w}{R \choose r}}{{W + R} \choose {w + r}}$

una distribuzione ipergeometrica.

Ora poniamo (per far contento me) $r = 0$ e inglobiamo questa informazione nelle informazioni generali $I$; inoltre poniamo $W + R = N$ e otteniamo

$\displaystyle p \left( w\, \middle|\, W\, N\, I \right) = \frac{{W \choose w}} {N \choose w}$

A questo punto non ci resta che trovare la strada per passare, secondo le regole della teoria della probabilità, da

$p \left( w\, \middle|\, W\, N\, I \right)$

la probabilità di estrarre $w$ palline bianche dall'urna, a

$p \left( w + 1\, \middle|\, w\, I \right)$

la probabilità di estrarre un’altra pallina bianca dall’urna dopo che ne sono già state estratte $w$.

Ha ragione delfo52 quando paragona l’estrazione dell’urna ad un esperimento scientifico: estraendo le palline dall’urna impariamo qualcosa circa il suo contenuto, parametrizzato da $W$ e $N$.
Dalla formulazione del problema sappiamo già che deve essere $0\leq w\leq W\leq N$ e il nostro primo passo sarà passare da $p \left( w\, \middle|\, W\, N\, I \right)$ a $p \left( W\, \middle|\, w\, N\, I \right)$, cioè capire cosa impariamo su $W$ conoscendo $w$.

Per operare questa inversione ci serviamo il Teorema di Bayes $p \left( B\, \middle|\, A\, I \right) = \frac{p \left( B\, \middle|\, I \right)\,p \left( A\, \middle|\, B\, I \right)}{p \left( A\, \middle|\, I \right)}$ che deriva direttamente dalla regola del prodotto

$\displaystyle p \left( A\, B\, \middle|\, I \right) = p \left( B\, \middle|\, I \right)\, p \left( A\, \middle|\, B\, I \right) = p \left( A\, \middle|\, I \right)\, p \left( B\, \middle|\, A\, I \right)$

e, nel nostro caso recita

$\displaystyle p \left( W\, \middle|\, w\, N\, I \right) = \frac{p \left( W\, \middle|\, N\, I \right)\, p \left( w\, \middle|\, W\, N\, I \right)} {p \left( w\, \middle|\, N\, I \right)}$

La distribuzione che abbiamo assegnato prima, $p \left( w\, \middle|\, W\, N\, I \right)$, prende il nome tecnico di “likelihood”; la distribuzione $p \left( W\, \middle|\, N\, I \right)$, che non dipende da $w$ e rappresenta quindi quello che sappiamo su $W$ prima di fare l’esperimento, prende il nome tecnico di “prior” mentre la distribuzione $p \left( W\, \middle|\, w\, N\, I \right)$ prende il nome tecnico di “posterior” e rappresenta l’aggiornamento della “prior” alla luce della nuova informazione $w$. Anche $p \left( w\, \middle|\, N\, I \right)$ ha un nome tecnico: “evidence”; questa distribuzione non dipende da $W$ ed è quindi una costante di normalizzazione.
Infatti deve essere

$\displaystyle \sum_{\small W} p \left( W\, \middle|\, w\, N\, I \right) = \frac {\sum_{\small W} p \left( W\, \middle|\, N\, I \right) p \left( w\, \,\middle|\, W\, N\, I \right)} {p \left( w\, \middle|\, N\, I \right)} = 1$

e quindi

$p \left( w\, \middle|\, N\, I \right) = \sum_{\small W} p \left( W\, \middle|\, N\, I \right)\, p \left( w\, \middle|\, W\, N\, I \right)$

Per poter calcolare $p \left( w\, \middle|\, N\, I \right)$ è necessario assegnare la “prior”, $p \left( W\, \middle|\, N\, I \right)$: l’unica cosa che sappiamo di $W$ è che deve essere $0 \leq W \leq N$ quindi assegniamo una distribuzione uniforme in questo intervallo

$\displaystyle p \left( W\, \middle|\, N\, I \right) = \frac 1 {N + 1}\qquad 0 \leq W \leq N$

Passiamo ora a calcolare

$\displaystyle p \left( w\, \middle|\, N\, I \right) = \sum_{\small W = 0}^{\small N} \frac { W \choose w }{\left( N + 1 \right) {N \choose w}}$

il denominatore del termine della sommatoria è indipendente da $W$ quindi possiamo scrivere

$\displaystyle p \left( w\, \middle|\, N\, I \right) = \frac 1 {\left( w + 1 \right) {{ N + 1 } \choose { w + 1 }}}\sum_{\small W = 0}^{\small N} { W \choose w }$

dove il cambio al denominatore è giustificato dall'identità

$\displaystyle {{ N + 1 } \choose { w + 1 }} = \frac { N + 1 } { w + 1 } { W \choose w }$

Ma quanto vale $\textstyle \sum_{\small W = 0}^{\small N} { W \choose w }$?

Scriviamo il triangolo di Pascal-Tartaglia in forma tabellare ($n$ in riga e $k$ in colonna) con l’usuale convenzione che $\textstyle { n \choose k }$ solo per $0 \leq k \leq n$ e focalizziamo la nostra attenzione, per esempio, su $\textstyle { 6 \choose 3 }$

$\begin{array}{c|ccccccccC}
n,k & 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 \\
\hline \\
0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\
1 & 1 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\
2 & 1 & 2 & 1 & 0 & 0 & 0 & 0 & 0 \\
3 & 1 & 3 & 3 & 1 & 0 & 0 & 0 & 0 \\
4 & 1 & 4 & 6 & 4 & 1 & 0 & 0 & 0 \\
5 & 1 & 5 & \mathbf{10} & \mathbf{10} & 5 & 1 & 0 & 0 \\
6 & 1 & 6 & 15 & \mathbf{20} & 0 & 0 & 0 & 0
\end{array}$

Il coefficiente è la somma dei due che lo sovrastano, $\textstyle { 5 \choose 2 }$ e $\textstyle { 5 \choose 3 }$.

$\begin{array}{c|ccccccccC}
n,k & 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 \\
\hline \\
0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\
1 & 1 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\
2 & 1 & 2 & 1 & 0 & 0 & 0 & 0 & 0 \\
3 & 1 & 3 & 3 & 1 & 0 & 0 & 0 & 0 \\
4 & 1 & 4 & \mathbf{6} & \mathbf{4} & 1 & 0 & 0 & 0 \\
5 & 1 & 5 & \mathbf{10} & \scriptsize{10} & 5 & 1 & 0 & 0 \\
6 & 1 & 6 & 15 & \mathbf{20} & 0 & 0 & 0 & 0
\end{array}$

Il coefficiente $\textstyle { 5 \choose 3 }$ è a sua volta la somma dei due che lo sovrastano, $\textstyle { 4 \choose 1 }$ e c$\textstyle { 4 \choose 3 }$.
Continuiamo così fino al coefficiente $\textstyle { 1 \choose 3 }$.

$\begin{array}{c|ccccccccC}
n,k & 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 \\
\hline \\
0 & 1 & 0 & \mathbf{0} & \mathbf{0} & 0 & 0 & 0 & 0 \\
1 & 1 & 1 & \mathbf{0} & \scriptsize{0} & 0 & 0 & 0 & 0 \\
2 & 1 & 2 & \mathbf{1} & \scriptsize{0} & 0 & 0 & 0 & 0 \\
3 & 1 & 3 & \mathbf{3} & \scriptsize{1} & 0 & 0 & 0 & 0 \\
4 & 1 & 4 & \mathbf{6} & \scriptsize{4} & 1 & 0 & 0 & 0 \\
5 & 1 & 5 & \mathbf{10} & \scriptsize{10} & 5 & 1 & 0 & 0 \\
6 & 1 & 6 & 15 & \mathbf{20} & 0 & 0 & 0 & 0
\end{array}$

e vediamo che $\textstyle { 6 \choose 3 } = \sum_{\small n = 0}^{\small 5} { n \choose 2 }$. Siccome questo risultato dipende dalla relazione ricorsiva con cui è costruito il triangolo di Pascal-Tartaglia, $\textstyle { n \choose k } = {{ n - 1} \choose k } + {{ n - 1 } \choose { k - 1 }}$, esso è valido per qualsiasi coefficiente binomiale.
Lo possiamo dimostrare anche algebricamente: prendiamo la relazione

$\displaystyle {{ N + 1 } \choose { w + 1 }} = { N \choose { w + 1 }} + { N \choose w }$

Sostituiamo il primo termine al secondo membro con i suoi generatori

$\displaystyle {{ N + 1 } \choose { w + 1 }} = {{ N - 1 } \choose { w + 1 }} + {{ N - 1 } \choose w } + { N \choose w }$

ripetiamo la sostituzione

$\displaystyle {{ N + 1 } \choose { w + 1 }} = {{ N - 2 } \choose { w + 1 }} + {{ N - 2 } \choose w } + {{ N - 1 } \choose w } + { N \choose w }$

e ancora fino alla fine ottenendo

$\displaystyle {{ N + 1 } \choose { w + 1 }} = \cdots + {{ N - 3 } \choose w } + {{ N - 2 } \choose w } + {{ N - 1 } \choose w } + { N \choose w } = \sum_{ \small W = 0 }^{ \small N } { W \choose w }$

cioè

$\displaystyle \sum_{\small W = 0}^{\small N} { W \choose w } = {{ N + 1 } \choose { w + 1 }}$

e

$\displaystyle p \left( w\; \middle|\, N\, I \right) = \frac 1 { w + 1 }$

Notiamo che (a parte la necessità che sia $N > w$) questo risultato è indipendente da $N$ oltre che da $W$.

Mettiamo ora tutto insieme per calcolare

$\displaystyle p \left( W\, \middle|\, w\, N\, I \right) = \frac {\frac 1 { N + 1 } \times \frac {W \choose w } { N \choose w }} {\frac 1 { w + 1 }} = \frac { W \choose w } {\frac { N + 1} {w + 1} { N \choose w }} = \frac { W \choose w } {{ N + 1} \choose { w + 1 }}$

Adesso assegniamo facilmente

$\displaystyle p \left( w + 1\, \middle|\, W\, w\, N\, I \right) = \frac { W - w } { N - w }$

la probabilità di estrarre un'ulteriore pallina bianca nota la composizione dell'urna ($W$ e $N$) e il numero di palline bianche estratte ($w$).
Calcoliamo, con la regola del prodotto

$\displaystyle p \left( W\, w + 1\, \middle|\, w\, N\, I \right) = p \left( W\, \middle|\, w\, N\, I \right) p \left( w + 1\, \middle|\, W\, w\, N\, I \right) = \frac { \left( W - w \right) { W \choose w }} { \left( N - w \right) {{ N + 1 } \choose { w + 1 }}}$

la probabilità che l'urna contenga in totale $W$ palline bianche e che la prossima pallina pescata sia bianca (condizionata a $w$ e $N$).
Utilizziamo l'identità $\textstyle \left( n – k \right) { n \choose k } = \left( k + 1 \right) { n \choose {k + 1}}$, sia al numeratore sia al denominatore, ottenendo

$\displaystyle p \left( W\, w + 1\, \middle|\, w\, N\, I \right) = \frac { w + 1 } { w + 2 } \times \frac { W \choose { w + 1 }} { N \choose { w + 2 }}$

e applichiamo il teorema di marginalizzazione $\textstyle p \left( A\, \middle|\, I \right) = \sum_{\small B} p \left( A\, B\, \middle|\, I \right)$: nel caso specifico

$\displaystyle p \left( w + 1\, \middle|\, w\, N\, I \right) = \sum_{\small W} p \left( W\, w + 1\, \middle|\, w\, N\, I \right) = \frac { w + 1 } { w + 2 } \times \frac 1 { N \choose { w + 2 }} \sum_{\small W = 0 }^{\small N } { W \choose { w + 1 }}$

Ma abbiamo visto prima che vale l'identità

$\displaystyle \sum_{\small W = 0}^{\small N} { W \choose { w + 1 }} = {{ N + 1 } \choose { w + 2 }}$

per cui otteniamo

$\displaystyle p \left( w + 1\, \middle|\, w\, N\, I \right) = \frac { w + 1 } { w + 2 }$

che è proprio la risposta che volevamo perché il risultato è chiaramente indipendente da $N$, cioè

$\displaystyle p \left( w + 1\, \middle|\, w\, I \right) = p \left( w + 1\, \middle|\, w\, N\, I \right) = \frac { w + 1 } { w + 2 }$

Vi faccio notare che questa soluzione è basata solamente sulle informazioni che realmente possediamo: al crescere del numero di palline bianche estratte diveniamo via via più sicuri che la prossima pallina sarà bianca (o, che è lo stesso, che ci sono solo palline bianche nell’urna); all'altro estremo, prima di pescare la prima pallina ($w = 0$) assegniamo una probabilità pari a $1/2$, e ciò è dovuto al fatto che identifichiamo solo due possibilità, bianco e non-bianco. Naturalmente non vi è nulla di strano se la risposta che otteniamo è influenzata dalla domanda che facciamo.

In conclusione, quando le informazioni sono insufficienti per assegnare le distribuzioni di probabilità possiamo sempre introdurre uno o più parametri, assegnare a ciascuno la sua distribuzione (prior) ed eliminarlo mediante il teorema di marginalizzazione: $W$ e $N$ erano indispensabili per assegnare $\textstyle p \left( w\, \middle|\, W\, N\, I \right)$, la distribuzione che è stata il nostro punto di partenza. Viceversa, il parametro $r$, numero di palline non-bianche estratte, non era necessario e, introducendolo e marginalizzandolo avremmo ottenuto precisamente lo stesso risultato. Solo, a prezzo di uno sforzo più grande per la maggiore complessità delle distribuzioni: e questa doveva essere una Semplice Probabilità. :wink:

Re: Semplici probabilità, ancora più semplici!

Inviato: ven dic 06, 2013 8:18 am
da franco
Guido,

anche stavolta ci vorrà un po' di tempo per metabolizzare il tuo post :)

Leggendo le prime righe ho però una considerazione da fare.
Tu dici:
È abbastanza facile assegnare una probabilità per l'estrazione delle palline se il contenuto dell’urna è noto. Perciò noi ipotizziamo di conoscerlo: sia W il numero di palline bianche contenute (prima delle estrazioni) nell’urna,...
In realtà però dal testo dato noi non possiamo dedurre nemmeno se dopo ogni estrazione la pallina veniva rimessa nell'urna oppure no.
In teoria, per estremizzare, potrebbe anche essere che le palline bianche erano rimesse nell'urna e le colorate no (oppure viceversa, oppure venivano rimesse dentro solo quelle delle estrazioni dispari ...).

E' per tale motivo che, ipotizzare per ipotizzare, ho ipotizzato di conoscere il contenuto dell'urna DOPO le estrazioni e ho calcolato la probabilità in maniera semplice (ancora più semplice :D )

ciao

Re: Semplici probabilità, ancora più semplici!

Inviato: ven dic 06, 2013 4:21 pm
da Dani Ferrari
Ho letto megatrattati sul calcolo delle probabilità, sono stato in corrispondenza con matematici famosi. Ho sempre capito non dico tutto quello che leggevo (provati a parlare con uno come John Conway, e a un certo punto non ce la fai più), ma, insomma, il ragionamento lo seguivo. Nel posting di Panurgo non capisco assolutamente nulla. Anche perché, tanto per semplificare le cose, c'è un gran casino di pezzi ripetuti due volte, oltre che il continuo ricorso ad algoritmi normalmente non usati nel calcolo delle probabilità, e che sembrano fatti apposta per rendere la cosa quanto più incomprensibile possibile. Dico: lo sanno tutti che il calcolo delle probabilità è mal fondato (non esiste una definizione universalmente accettata di probabilità), e allora bisogna tenersi terra terra, con definizioni ben chiare. Qui, mi sembra di capire (ma non mi sono sforzato molto di capire) che per Panurgo è possibile definire esattamente la probabilità cercata solo in funzione del numero w di palline bianche estratte. Che poi nel frattempo siano state estratte 0 o 1000000000 palline non bianche è irrilevante. Be', è una cavolata. Panurgo scriva pure 700 pagine per convincermi del contrario (non ci mette molto, visto che è solito ripetere più volte un pezzo), resta una cavolata.
Ma questo strampalato problema mi ha dato lo spunto per inventare ben due nuovi problemi, che vi propongo in un nuovo thread. Mi sembrano buoni, roba da pubblicare sul JRM - ma vedete voi.

Dani

Re: Semplici probabilità, ancora più semplici!

Inviato: sab dic 07, 2013 1:04 pm
da Massimo
la probabilità a posteriori è un bell'1, in questo caso suffragato dai dati in possesso.

quello che non so è l'accuratezza a di quell'1



ragionando con la probabilità a priori intesa come numero rappresentativo in base ai dati noti non otteniamo nulla non conoscendo il contenuto del sacchetto.

Re: Semplici probabilità, ancora più semplici!

Inviato: sab dic 07, 2013 5:39 pm
da panurgo
franco ha scritto:Guido,

anche stavolta ci vorrà un po’ di tempo per metabolizzare il tuo post :)

Leggendo le prime righe ho però una considerazione da fare.
Tu dici:
È abbastanza facile assegnare una probabilità per l’estrazione delle palline se il contenuto dell’urna è noto. Perciò noi ipotizziamo di conoscerlo: sia W il numero di palline bianche contenute (prima delle estrazioni) nell’urna,...
In realtà però dal testo dato noi non possiamo dedurre nemmeno se dopo ogni estrazione la pallina veniva rimessa nell’urna oppure no.
In teoria, per estremizzare, potrebbe anche essere che le palline bianche erano rimesse nell’urna e le colorate no (oppure viceversa, oppure venivano rimesse dentro solo quelle delle estrazioni dispari ...).

E’ per tale motivo che, ipotizzare per ipotizzare, ho ipotizzato di conoscere il contenuto dell’urna DOPO le estrazioni e ho calcolato la probabilità in maniera semplice (ancora più semplice :D )

ciao
Non capisco come si possa dedurre da "Da un’urna sono state estratte alcune palline bianche" che le palline stesse sono state reinserite...

Comunque, se tu vuoi considerare le due ipotesi

$\displaystyle \begin{array}{lC}
H_{\small 1} \equiv \text{palline non reintrodotte} \\
H_{\small 2} \equiv \text{palline reintrodotte}
\end{array}$

puoi farlo, assegnare una probabilità all’ipotesi $H_{\small 1}$, la probabilità complementare all’ipotesi $H_{\small 2}$ e ottenere la risposta

$\displaystyle p \left( w + 1\, \middle|\, w\, I \right) = p \left( H_{\small 1}\, \middle|\, I \right) \times p \left( w + 1\, \middle|\, w\, H_{\small 1}\, I \right) +p \left( H_{\small 2}\, \middle|\, I \right) \times p \left( w + 1\, \middle|\, w\, H_{\small 2}\, I \right)$

Sotto $H_{\small 2}$ la frazione di palline bianche nell’urna è una costante incognita, $f$, e la “likelihood” che assegniamo è, in questo secondo caso, una binomiale

$\displaystyle p \left( w\, \middle|\, f\, I \right) = {{ w + r } \choose w }\, f^{ \small w } \left( 1 – f \right)^{ \small r }$

che però si riduce a $\textstyle p \left( w\, \middle|\, f\, I \right) = f^{ \small w }$ perché per quel che ne sappiamo noi sono state estratte solo palline bianche ($r = 0$).
In questo caso il teorema di Bayes è

$\displaystyle p \left( f\, \middle|\, w\, I \right) = \frac { p \left( f\, \middle|\, I \right)\, p \left( w\, \middle|\, f\, I \right) } { p \left( w\, \middle|\, I \right) }$

Nell’assegnare la prior per $f$ introduciamo l’usuale approssimazione di ammettere che $f$ stessa possa assumere, al posto di $N + 1$ valori, tutti i valori reali compresi tra $0$ e $1$: questa approssimazione migliora al crescere di $N$.

Assegniamo dunque una prior uniforme, $\textstyle p \left( f\, \middle|\, I \right) = 1$ per $0 \leq f \leq 1$.

Dato che $f$, considerata come variabile di $p \left( f\, \middle|\, I \right)\, p \left( w\, \middle|\, f\, I \right)$, è continua, nel calcolo di $p \left( w\, \middle|\, I \right)$ la sommatoria deve essere sostituita da un integrale

$\displaystyle p \left( w\, \middle|\, I \right) = \int df\, p \left( f\, \middle|\, I \right)\, p \left( w\, \middle|\, f\, I \right) = \int_{ \small 0 }^{ \small 1 } df\, 1 \times f^{ \small w } = \frac 1 { w + 1 }$

Mettiamo tutti gli ingredienti nel teorema di Bayes

$\displaystyle p \left( f\, \middle|\, w\, I \right) = \frac { 1 \times f^{ \small w }} { \frac 1 { w + 1 }} = \left( w + 1 \right) f^{ \small w }$

La probabilità di estrarre una singola pallina bianca, condizionata a $f$ è sempre $f$ per cui

$\displaystyle p \left( w + 1\, \middle|\, f\, w\, I \right) = f$

Con la regola del prodotto, la probabilità che la frazione di palline bianche sia $f$ e che venga estratta un’altra pallina bianca è

$\displaystyle p \left( f\, w + 1\, \middle|\, w\, I \right) = p \left( f\, \middle|\, w\, I \right) p \left( w + 1\, \middle|\, f\, w\, I \right) = \left( w + 1 \right) f^{ \small w } \times f = \left( w + 1 \right) f^{ \small w + 1 }$

Applichiamo il teorema di marginalizzazione per eliminare $f$

$\displaystyle p \left( w + 1\, \middle|\, w\, I \right) = \int df\, \left( f\, w + 1\, \middle|\, w\, I \right) = \left( w + 1 \right)\, \int_{ \small 0 }^{ \small 1 } df\, f^{ \small w + 1 } = \frac { w + 1 } { w + 2 }$

Ma guarda un po’: proprio il vituperato risultato che avevamo ottenuto sotto $H_{ \small 1 }$ (credo che si chiami qualcosa come “regola di successione di Laplace”). :wink:

Re: Semplici probabilità, ancora più semplici!

Inviato: sab dic 07, 2013 9:54 pm
da franco
Non capisco come si possa dedurre da "Da un’urna sono state estratte alcune palline bianche" che le palline stesse sono state reinserite...
Non ho detto che si deduce ciò, semplicemente dicevo che la frase non lo esclude, come non esclude che ne siano state pescate di colorate o tante altre ipotesi fantasiose.
Ipotesi per ipotesi, tanto valeva stare sul calcolo più semplice possibile.
Comunque complimenti per le spiegazioni che hai postato. Temo però di non essere all'altezza :?

ciao