e così via ...

Il forum di Base5, dove è possibile postare problemi, quiz, indovinelli, rompicapo, enigmi e quant'altro riguardi la matematica ricreativa e oltre.

Moderatori: Gianfranco, Bruno

Rispondi
franco
Livello 9
Livello 9
Messaggi: 1503
Iscritto il: mar dic 12, 2006 12:57 pm
Località: Bèrghem (Sardegna)

e così via ...

Messaggio da franco »

Abbiamo 2025 sacchi contenenti 2025 biglie ciascuno.
Nel 1° sacco sono tutte blu
Nel 2° sacco sono 1 rossa e 2024 blu
Nel 3° sacco sono 2 rosse e 2023 blu
e così via ...
Sino al 2025° sacco dove ci sono 2024 biglie rosse e 1 biglia blu.

Scelgo un sacco a caso ed estraggo una biglia: è rossa!
Calcolare la probabilità che una seconda biglia estratta dallo stesso sacco (nel quale non ho rimesso la prima estratta) sia anch'essa rossa.

Calcolare la probabilità che, avendo estratto la seconda biglia rossa, sia rossa anche la successiva terza estrazione.

e così via ... ;)


www.diophante.fr
G1944
Franco

ENGINEER
noun. (en-juh-neer)
someone who does precision guesswork based on unreliable data provided by those of questionable knowledge.
See also wizard, magician

NothIng
Livello 2
Livello 2
Messaggi: 39
Iscritto il: mar ago 16, 2022 9:18 pm

Re: e così via ...

Messaggio da NothIng »

franco ha scritto:
ven mar 07, 2025 3:58 pm
Calcolare la probabilità che una seconda biglia estratta dallo stesso sacco (nel quale non ho rimesso la prima estratta) sia anch'essa rossa.
Da un calcolo rapidissimo: leggermente meno di $1/3$

P.S.
Nel 1° sacco sono tutte blu
Ipotizzo che nel sacco 1 ci siano 2025 biglie blu

franco
Livello 9
Livello 9
Messaggi: 1503
Iscritto il: mar dic 12, 2006 12:57 pm
Località: Bèrghem (Sardegna)

Re: e così via ...

Messaggio da franco »

NothIng ha scritto:
dom mar 09, 2025 10:55 pm
Da un calcolo rapidissimo: leggermente meno di $1/3$
Io direi leggermente meno di $1/2$ ...

PS 1° sacco 2025 blu e 0 rosse
Franco

ENGINEER
noun. (en-juh-neer)
someone who does precision guesswork based on unreliable data provided by those of questionable knowledge.
See also wizard, magician

Quelo
Livello 8
Livello 8
Messaggi: 961
Iscritto il: ven giu 16, 2006 3:34 pm

Re: e così via ...

Messaggio da Quelo »

A intuito direi

$\displaystyle \frac{1}{2025^{k+1}}\sum_{n=1}^{2024}n^k$

Poco meno di $\displaystyle\frac12$ per la prima, poco meno di $\displaystyle\frac13$ per la seconda, poco meno di $\displaystyle\frac14$ per la terza e così via
[Sergio] / $17$

panurgo
Livello 9
Livello 9
Messaggi: 1571
Iscritto il: sab nov 19, 2005 3:45 pm
Località: Padova

Re: e così via ...

Messaggio da panurgo »

A calcolo direi

$\displaystyle f(r)=\frac{(r+1)(2024-r)}{(r+2)(2025-r)}$

dove $r$ è il numero di palline rosse già estratte (la funzione $f(r)$ ha un massimo per $r=\frac{2023}2$)...

...salvo E&O
il panurgo

Principio di Relatività: $\mathbb{m} \not \to \mathbb{M} \, \Longleftrightarrow \, \mathbb{M} \not \to \mathbb{m}$
"Se la montagna non va a Maometto, Maometto NON va alla montagna"

franco
Livello 9
Livello 9
Messaggi: 1503
Iscritto il: mar dic 12, 2006 12:57 pm
Località: Bèrghem (Sardegna)

Re: e così via ...

Messaggio da franco »

Uhm ...

Quindi, approssimando e limitandoci al caso di una biglia rossa estratta, abbiamo:
- Nothing, che dice "poco meno di $1/3$"
- Quelo ed io, che diciamo "poco meno di $1/2$"
- Panurgo, che dice "poco meno di $2/3$"

Evidentemente abbiamo fatto ragionamenti e calcoli molto diversi!

Io, che come noto sono un dilettante, l'ho pensata così:
- se la prima biglia estratta è rossa, vuol dire che il sacco scelto non è il 1° (dove sono tutte blu)
- gli altri 2024 sacchi sono equiprobabili e per ognuno di essi la probabilità di estrarre una seconda rossa è pari al numero di biglie rosse residue/2024
- quindi:
cosivia1.png
cosivia1.png (8.19 KiB) Visto 11127 volte
Ritengo abbastanza probabile di aver sbagliato, anche perchè su $diophante.fr$ danno 3 asterischi a questo problema, quindi la soluzione non deve essere facilissima ...
Franco

ENGINEER
noun. (en-juh-neer)
someone who does precision guesswork based on unreliable data provided by those of questionable knowledge.
See also wizard, magician

panurgo
Livello 9
Livello 9
Messaggi: 1571
Iscritto il: sab nov 19, 2005 3:45 pm
Località: Padova

Re: e così via ...

Messaggio da panurgo »

La mia funzione è fatta così
e così via....01.png
e così via....01.png (18.08 KiB) Visto 11018 volte
il panurgo

Principio di Relatività: $\mathbb{m} \not \to \mathbb{M} \, \Longleftrightarrow \, \mathbb{M} \not \to \mathbb{m}$
"Se la montagna non va a Maometto, Maometto NON va alla montagna"

franco
Livello 9
Livello 9
Messaggi: 1503
Iscritto il: mar dic 12, 2006 12:57 pm
Località: Bèrghem (Sardegna)

Re: e così via ...

Messaggio da franco »

panurgo ha scritto:
lun mar 10, 2025 7:38 pm
La mia funzione è fatta così
La mia invece è così:
cosivia2.png
cosivia2.png (21.21 KiB) Visto 10795 volte
Sono comunque curioso di capire meglio come sei arrivato alla tua funzione ...

Guardando il tuo grafico risulterebbe che avendo estratto cinquanta biglie rosse da un sacco a caso sia quasi sicuro di estrarre rossa anche la cinquantunesima.
A me sembra controintuitivo ma accetto volentieri lezioni :)
Franco

ENGINEER
noun. (en-juh-neer)
someone who does precision guesswork based on unreliable data provided by those of questionable knowledge.
See also wizard, magician

NothIng
Livello 2
Livello 2
Messaggi: 39
Iscritto il: mar ago 16, 2022 9:18 pm

Re: e così via ...

Messaggio da NothIng »

franco ha scritto:
lun mar 10, 2025 5:02 pm
- Nothing, che dice "poco meno di $\frac{1}{3}$"
Oops... ho risposto alla domanda sbagliata perchè ho trascurato l'informazioni "la prima biglia è rossa" e ho calcolato la probabilità di estrarre 2 biglie rosse.
Più precisamente defininendo per semplicità $k$ $\hat{=}$ $2025$ si ottiene $\displaystyle P(\text{2 rosse}) = \frac{k-2}{3k}$
franco ha scritto:
lun mar 10, 2025 5:02 pm
- Quelo ed io, che diciamo "poco meno di $\frac{1}{2}$"
Forse questa è la probabilità di estrarre per prima una biglia rossa. La calcolo come:
$\displaystyle P(\text{1 rossa}) = \frac{\text{# biglie rosse}}{\text{#biglie totali}} = \frac{k(k-1)}{2}\frac{1}{k^2} = \frac{k-1}{2k}$

Considerando le informazioni che ho trascurato, il quesito chiede di calcolare una probabilità condizionata che va a braccetto con il teorema di Bayes:
$P(\text{2 rosse | prima rossa})$ $\hat{=}$ la probabilità di estrarre 2 biglie rosse avendo estratto la prima rossa.

A meno di possibili errori:
$\displaystyle P(\text{2 rosse | prima rossa}) = \frac{P(\text{prima rossa | 2 rosse}) P(\text{2 rosse}) }{P(\text{prima rossa})} = \frac{P(\text{2 rosse}) }{P(\text{prima rossa})} $
e mettendo insieme i pezzi
$\displaystyle P(\text{2 rosse | prima rossa}) = \displaystyle \frac{k-2}{3k} \cdot {\Bigg(\frac{k-1}{2k}\Bigg)}^{-1} = \displaystyle \frac{2}{3}\frac{k-2}{k-1}$
franco ha scritto:
lun mar 10, 2025 5:02 pm
- Panurgo, che dice "poco meno di $\frac{1}{3}$"
Et Voilà...

Aggiungo qualche dettaglio:
P(n) $\hat{=}$ Prob di estrarre 2 biglie rosse dal sacco n = $\displaystyle \frac{n-1}{k}\frac{n-2}{k-1}$; la probabilità di scegliere il sacco n è $\displaystyle \frac{1}{k}$
quindi $\displaystyle P(\text{2 rosse}) = \frac{1}{k} \sum\limits_{n=1}^{k} \Bigg(\frac{n-1}{k}\frac{n-2}{k-1}\Bigg) = \frac{1}{k \cdot k \cdot (k-1)} \sum\limits_{n=1}^{k} (n-1)(n-2) = \frac{1}{k \cdot k \cdot (k-1)} \Big(\frac{(2k+1)k(k+1)}{6} - 3 \frac{k(k+1)}{2} + 2k\Big) = \frac{k-2}{3k}$

panurgo
Livello 9
Livello 9
Messaggi: 1571
Iscritto il: sab nov 19, 2005 3:45 pm
Località: Padova

Re: e così via ...

Messaggio da panurgo »

franco ha scritto:
mar mar 11, 2025 11:24 am
Guardando il tuo grafico risulterebbe che avendo estratto cinquanta biglie rosse da un sacco a caso sia quasi sicuro di estrarre rossa anche la cinquantunesima.
A me sembra controintuitivo
Carissimo, la tua intuizione funziona bene all'inizio quando le informazioni in tuo possesso sono solo che ci sono $2025$ diverse possibilità e quindi assegni più o meno consciamente una distribuzione unforme sul numero di palline rosse contenute nell'urna da te scelta.

Immaginiamo che le urne siano tutte contenute in un'urnona gigante: scegliere un'urna e pescare una pallina equivale a pescare una pallina in una certa posizione all'interno dell'urnona gigante quindi possiamo smaterializzare le $2025$ urne e lasciare le palline lì, $2049300$ palline rosse e $2051325$ palline blu, con probabilità di estrarre una pallina rossa pari a $2049300/(2049300+2051325)=1012/2025$.

Nel momento in cui noi estraiamo la pallina rossa non possiamo più invocare il Principio di Indifferenza per assegnare la distribuzione sul numero di palline rosse contenute nell'urna perché è più probabile pescare una pallina rossa da un'urna con tante palline rosse piuttosto che da una con poche quindi l'estrazione di una pallina rossa rende più probabili le prime e meno le seconde.

Ti faccio un esempio, Supponiamo di aver estratto $1925$ palline rosse e ci prepariamo ad un'altra estrazione: davvero assegneresti pari probabilità al rosso e al blu? Restano $100$ urne (le altre hanno un numero di palline rosse inferiore a quelle già estratte) che contengono o $0$ palline rosse o $1$ o $2$ ecc. fino a $99$: se siamo con lo $0$ vorrebbe dire che per $1925$ volte abbiamo pescato una pallina rossa lasciando indietro ben $100$ palline blu.
La distribuzione di elezione per modellare un campionamento senza ripetizioni come il nostro è la brava vecchia Distribuzione Ipergeometrica

$\displaystyle\Pr\left(r,b\middle|R,B\right)=\frac{{{R}\choose{r}}{{B}\choose{b}}}{{{R+b}\choose{r+b}}}$

Nel nostro caso, numero di modi di pescare $1925$ palline rosse su $1925$ per numero di modi di pescare $0$ palline blu su $100$ diviso numero di modi di pescare $1925$ palline su $2025$

${\displaystyle\Pr\left(1925,0\middle|1925,100\right)=\frac{{{1925}\choose{1925}}{{100}\choose{0}}}{{{2025}\choose{1925}}}}=\frac1{3917982689252586220308018318245676611805417731205513408842877551004892307823253981787780342470913817059672577153751807936963134769312486039290311391593081369195802071852490}$

Ecco come, a furia di pescare palline rosse, il nostro modello ci porta ad assegnare probabilità sempre più alte alle urne con tante palline rosse.

La probabilità di estrarre $50$ rosse e $0$ blu dall'urna con una sola pallina blu è

${\displaystyle\Pr\left(50,0\middle|2024,1\right)=\frac{{{2024}\choose{50}}{{1}\choose{0}}}{{{2025}\choose{50}}}}=\frac{79}{81}$
il panurgo

Principio di Relatività: $\mathbb{m} \not \to \mathbb{M} \, \Longleftrightarrow \, \mathbb{M} \not \to \mathbb{m}$
"Se la montagna non va a Maometto, Maometto NON va alla montagna"

panurgo
Livello 9
Livello 9
Messaggi: 1571
Iscritto il: sab nov 19, 2005 3:45 pm
Località: Padova

Del Teorema di Bayes

Messaggio da panurgo »

Questo è il Teorema di Bayes

$\displaystyle\Pr\left(\text{H}\middle|\text{D}\wedge\top\right)=\frac{\Pr\left(\text{H}\middle|\top\right)\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)}{\Pr\left(\text{D}\middle|\top\right)}$

leggasi: la probabilità che l'ipotesi $\text{H}$ sia vera alla luce dei dati $\text{D}$ è pari al prodotto della probabilità che $\text{H}$ sia vera non tenendo conto di $\text{D}$ e della probabilità di ottenere $\text{D}$ se $\text{H}$ è vera diviso per la probabilità di ottenere $\text{D}$ indipendentemente da $\text{H}$.
Su wikipedia lo trovate scritto così

$\displaystyle\Pr\left(\text{B}\middle|\text{A}\right)=\frac{\Pr\left(\text{B}\right)\Pr\left(\text{A}\middle|\text{B}\right)}{\Pr\left(\text{A}\right)}$

ma io sono della religione che non ci sono probabilità incondizionate e quindi un simbolo del tipo $\Pr\left(\text{B}\right)$ non ha significato.
Il Teorema di Bayes si ricava dalla Regola del Prodotto: la probabilità di due proposizioni congiunte, $\text{D}\wedge\text{H}$, si calcola assegnando la probabilità ad una delle due e all'altra la probabilità condizionata alla prima. Ciò può essere fatto in due modi a seconda di quale delle due proposizioni si sceglie per prima

$\displaystyle\Pr\left(\text{D}\wedge\text{H}\middle|\top\right)=\Pr\left(\text{H}\middle|\top\right)\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)=\Pr\left(\text{D}\middle|\top\right)\Pr\left(\text{H}\middle|\text{D}\wedge\top\right)$

ed il risultato deve essere ovviamente uguale: il Teorema di Bayes segue.
I quattro termini hanno dei nomi speciali: prior, $\Pr\left(\text{H}\middle|\top\right)$; likelihood (verosimiglianza), $\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)$; posterior, $\Pr\left(\text{H}\middle|\text{D}\wedge\top\right)$; evidence, $\Pr\left(\text{D}\middle|\top\right)$.
L'evidence è l'unico termine che non contiene $\text{H}$ quindi, considendo la posterior come funzione di $\text{H}$, l'evidence è una costante di normalizzazione che spesse volte non viene esplicitamente calcolata

$\displaystyle\Pr\left(\text{H}\middle|\text{D}\wedge\top\right)\propto\Pr\left(\text{H}\middle|\top\right)\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)$

In realtà si tratta di un termine importante perché è la probabilità totale di ottenere $\text{D}$ e, se è molto piccolo, produce grandi valori di posterior per qualunque $\text{H}$.
Prior e likelihood vengono assegnate mentre l'evidence deve essere calcolata tenendo conto di tutte le ipotesi che influenzano $\text{D}$

$\Pr\left(\text{D}\middle|\top\right)=\sum_i{\Pr\left(\text{H}_i\middle|\top\right)\Pr\left(\text{D}\middle|\text{H}_i\wedge\top\right)}=\sum_i{\Pr\left(\text{D}\wedge\text{H}_i\middle|\top\right)}$

ed è un esempio del Teorema di Marginalizzazione.
Non sembra ovvio ma c'è sempre almeno un'ipotesi diversa da $\text{H}$ ovvero, $\neg{\text{H}}$: in questo caso semplice è

$\displaystyle\Pr\left(\text{D}\middle|\top\right)=\Pr\left(\text{H}\middle|\top\right)\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)+\Pr\left(\neg{\text{H}}\middle|\top\right)\Pr\left(\text{D}\middle|\neg{\text{H}}\wedge\top\right)$

Dato che $\text{H}\wedge\neg{\text{H}}$ è certamente falsa e $\text{H}\vee\neg{\text{H}}$ è certamente vera deve essere

$\displaystyle\Pr\left(\text{H}\middle|\top\right)+\Pr\left(\neg{\text{H}}\middle|\top\right)=1$

quindi è

$\displaystyle\Pr\left(\text{D}\middle|\top\right)=p\Pr\left(\text{D}\middle|\text{H}\wedge\top\right)+(1-p)\Pr\left(\text{D}\middle|\neg{\text{H}}\wedge\top\right),\qquad p=\Pr\left(\text{H}\middle|\top\right)$

Questa formulazione è utile per quei problemi in cui si vuole sapere qual è la probabilità di avere il CoViD quando il test è positivo.

Ovviamente, la posterior del primo giro può essere utilizzata come prior del secondo giro, la posterior del secondo come prior del terzo e così via.
il panurgo

Principio di Relatività: $\mathbb{m} \not \to \mathbb{M} \, \Longleftrightarrow \, \mathbb{M} \not \to \mathbb{m}$
"Se la montagna non va a Maometto, Maometto NON va alla montagna"

panurgo
Livello 9
Livello 9
Messaggi: 1571
Iscritto il: sab nov 19, 2005 3:45 pm
Località: Padova

Re: e così via ...

Messaggio da panurgo »

Un’urna che contenga $2025$ palline (che non siano piselli) deve essere piuttosto grande per cui $2025$ urne sono un incubo logistico: le buttiamo via tutte tranne quella che contiene $R$ palline rosse.
A questo punto le $2025$ urne sono sostituite da $2025$ ipotesi, $\text{H}_R$ con $0\leq R\leq 2024$; o meglio, da $N$ ipotesi, $\text{H}_R$ con $0\leq R\leq N-1$ (questo è un problema che trae giovamento dalla generalizzazione).
La parola ipotesi non fa venire in mente il Teorema di Bayes?
Supponiamo di aver già estratto $r$ palline rosse: dovendo assegnare la likelihood, la probabilità di estrarre una pallina rossa condizionata a $\text{H}_R$ e $r$, scegliamo la distribuzione di elezione per i campionamenti senza ripetizioni, la Distribuzione Ipergeometrica

$\displaystyle\Pr\left(r+1\middle|\text{H}_R\wedge r\wedge\top\right)=\frac{{{R-r}\choose{1}}{{N-R}\choose{0}}}{{{N-r}\choose{1}}}=\frac{{{R-r}\choose{1}}}{{{N-r}\choose{1}}}=\frac{R-r}{N-r}$

Come prior, la probabilità che l’urna sia quella che conteneva $R$ palline rosse dopo che ne abbiamo estratte $r$, assegniamo

$\displaystyle\Pr\left(\text{H}_R\middle|r\wedge\top\right)=\frac{{{R}\choose{r}}}{{{N}\choose{r+1}}}$

Perché? Perché la prior che assegniamo, in base al Principio di Indifferenza prima della prima estrazione, la Distribuzione Uniforme

$\displaystyle\Pr\left(\text{H}_R\middle|0\wedge\top\right)=\frac1N=\frac{{{R}\choose{0}}}{{{N}\choose{1}}}$

ha la stessa forma.
La probabilità congiunta di $\text{H}_R$ e $r+1$ è

$\displaystyle\Pr\left(\text{H}_R\wedge r+1\middle|r\wedge\top\right)=\Pr\left(\text{H}_R\middle|r\wedge\top\right)\,\Pr\left(r+1\middle|\text{H}_R\wedge r\wedge\top\right)=\frac{{{R}\choose{r}}{{R-r}\choose{1}}}{{{N}\choose{r+1}}{{N-r}\choose{1}}}$

Giochiamo con i coefficienti binomiali

$\displaystyle {{R}\choose{r}}{{R-r}\choose{1}}=\frac{R!}{r!(R-r)!}\cdot\frac{(R-r)!}{1!(R-r-1)!}=\frac{(r+1)!}{r!1!}\cdot\frac{R!}{(r+1)!(R-r-1)!}={{r+1}\choose{1}}{{R}\choose{r+1}}$

e isoliamo un termine che dipende da $R$

$\displaystyle\Pr\left(\text{H}_R\wedge r+1\middle|r\wedge\top\right)=\frac{{{r+1}\choose{1}}}{{{N}\choose{r+1}}{{N-r}\choose{1}}}{{R}\choose{r+1}}$

L’evidence si ottiene con il Teorema di Marginalizzazione

$\displaystyle\Pr\left(r+1\middle|r\wedge\top\right)=\sum_{R=0}^{N-1}Pr\left(\text{H}_R\wedge r+1\middle|r\wedge\top\right)=\frac{{{r+1}\choose{1}}}{{{N}\choose{r+1}}{{N-r}\choose{1}}}\sum_{R=0}^{N-1}{{R}\choose{r+1}}=\frac{{{r+1}\choose{1}}}{{{N}\choose{r+1}}{{N-r}\choose{1}}}{{N+1}\choose{r+2}}$

L’identità combinatorica

$\displaystyle\sum_{i=0}^n{{i}\choose{k}}={{n+1}\choose{k+1}}$

si dimostra facilmente mediante l’applicazione ricorsiva della definizione combinatorica dei coefficienti binomiali

$\displaystyle{{n+1}\choose{k+1}}={{n}\choose{k}}+{{n}\choose{k+1}}={{n}\choose{k}}+{{n-1}\choose{k}}+{{n-1}\choose{k+1}}={{n}\choose{k}}+{{n-1}\choose{k}}+{{n-2}\choose{k}}+{{n-2}\choose{k+1}}=\cdots=\sum_{i=0}^n{{i}\choose{k}}$

(ricordo che i coefficienti binomiali con $i<k$ valgono $0$).
Mettiamo insieme il nostro Teorema di Bayes

$\displaystyle\Pr\left(\text{H}_R\middle|r+1\wedge\top\right)=\frac{\Pr\left(\text{H}_R\middle|r\wedge\top\right)\Pr\left(r+1\middle|\text{H}_R\wedge r\wedge\top\right)}{\Pr\left(r+1\middle|r\wedge\top\right)}=\frac{{{R}\choose{r+1}}}{{{N}\choose{r+2}}}$

e otteniamo una posterior con la stessa forma della prior solo con gli indici aumentati: se

$\displaystyle\Pr\left(\text{H}_R\middle|r\wedge\top\right)=\frac{{{R}\choose{r}}}{{{N}\choose{r+1}}}$

allora

$\displaystyle\Pr\left(\text{H}_R\middle|r+1\wedge\top\right)=\frac{{{R}\choose{r+1}}}{{{N}\choose{r+2}}}$

Dato che

$\displaystyle\Pr\left(\text{H}_R\middle|0\wedge\top\right)=\frac{{{R}\choose{0}}}{{{N}\choose{1}}}=\frac1N $

tutto si tiene.
Il corollario è che la probabilità di estrarre una pallina rossa dopo averne già estratte $r$ vale

$\displaystyle\Pr\left(r+1\middle|r\wedge\top\right)=\frac{{{r+1}\choose{1}}{{N+1}\choose{r+2}}}{{{N}\choose{r+1}}{{N-r}\choose{1}}}=\frac{(r+1)(N-r-1)}{(r+2)(N-r)}=\frac{(r+1)(2024-r)}{(r+2)(2025-r)}$
il panurgo

Principio di Relatività: $\mathbb{m} \not \to \mathbb{M} \, \Longleftrightarrow \, \mathbb{M} \not \to \mathbb{m}$
"Se la montagna non va a Maometto, Maometto NON va alla montagna"

Rispondi