Probabilità condizionata

Probabilità condizionata

Che alcuni eventi possano condizionarne altri è un fatto molto comune, ma sapreste interpretare questo concetto in termini di probabilità?

Diamo innanzitutto qualche esempio. È chiaro che la presenza di un temporale condizioni la probabilità che la strada sia bagnata, come pure la giovane età di un ragazzino condizioni la probabilità che questo possa prendere la varicella. Mettiamoci però in un contesto un poco più concreto, in modo tale da poter tastare con mano, lavorando con i numeri, cosa sta succedendo.

Esempio:
Lanciamo un dado e speriamo di fare 1 oppure 6. Tiriamo troppo forte e, ahimè, il dado cade dal tavolo. Scorgendolo da lontano, notiamo almeno due puntini sulla faccia volta verso l’alto, dunque non può essere uscito il numero 1. Questa informazione condiziona la probabilità di vittoria! Infatti, mentre quest’ultima era 2/6=1/3 prima dell’informazione, ora questa viene ridotta a 1/5 (ormai possiamo vincere solo con il numero 6, e l’1 non può più uscire). Proviamo a essere un po’ più precisi: chiamiamo \(A\) l’evento “esce 1 oppure 6” e \(B\) l’evento “esce almeno 2”. Allora quello che abbiamo osservato è che la probabilità di \(A\) sapendo che è successo \(B\) è diversa dalla probabilità di \(A\). In particolare, questa diminuisce. Denotiamo con \(p(A\cap B)\) e \(p(B)\) la probabilità rispettivamente l’evento \(A\cap B\) (ossia \(A\) e \(B\) insieme) e dell’evento \(B\). Siccome \(A\cap B\) è l’evento “esce il numero 6”, \(p(A\cap B)=1/6\); inoltre, \(p(B)=5/6\). Denotiamo inoltre (anche se è ancora tutta da definire) la probabilità condizionata di \(A\) sapendo che è accaduto \(B\) con \(p(A|B)\) (da leggersi “probabilità di \(A\) dato \(B\)). Allora vale che

\(p(A|B)=1/5=\frac{1/6}{5/6}=\frac{p(A\cap B)}{p(B)}.\)

Esempio:
Diamo un esempio in cui la probabilità condizionata rimane invariata rispetto a quella iniziale. In un sacchetto sono presenti sei palline, tre rosse e tre blu. Sulle tre rosse sono scritti i numeri 1, 2 e 3, uno per pallina, e così pure sulle palline blu. Peschiamo una pallina dal sacchetto. Sia \(A\) l’evento “la pallina ha inciso il numero 1” e \(B\) l’evento “la pallina è rossa”. L’evento \(A\cap B\) risulta essere quindi “la pallina è la rossa numero 1”. È facile osservare che

\(p(A)=2/6=1/3,\)
\(p(B)=3/6=1/2,\)
\(p(A\cap B)=1/6.\)

Supponiamo inoltre che, dopo aver pescato la pallina, notiamo che questa è rossa ma non leggiamo il numero inciso. La probabilità di \(A\) sapendo che è successo \(B\) è allora 1/3 (questo perché delle tre palline rosse una e una sola mostra il numero 1). Dunque in questo caso \(p(A|B)=p(A)\); questo accade perché l’informazione sul colore non incide sulla distribuzione dei numeri tra le palline, essendo questa uniforme rispetto al colore (le palline rosse con 1 inciso sono in numero uguale a quelle blu con 1 inciso, e così per 2 e 3). Gli eventi \(A\) e \(B\) sono infatti indipendenti, ossia \(p(A\cap B)=p(A)\cdot p(B)\)! Anche in questo caso risulta valida la formula

\(p(A|B)= 1/3= \frac{1/6}{1/2} = \frac{p(A\cap B)}{p(B)}.\)

Siamo quindi spinti a dare la seguente definizione. Supponiamo da qui in avanti che \(B\) sia un evento di probabilità non nulla, in modo tale da poter dividere per \(p(B)\). (D’altronde non vogliamo parlare di “probabilità di \(A\) sapendo che è successo \(B\)” se \(B\) ha probabilità nulla…)

Definizione: Chiamiamo probabilità di \(A\) condizionata rispetto all’evento \(B\)
\(p(A|B)=\frac{p(A\cap B)}{p(B)}.\)

Osservazione:
Il concetto di probabilità condizionata è una rimodulazione delle probabilità degli eventi in gioco rispetto alla probabilità di \(B\). In particolare, diamo un occhiata a un paio di casi limite. Se \(A\) e \(B\) sono due eventi incompatibili, ossia \(p(A\cap B)=0\) (detto terra terra, non possono verificarsi insieme), vale che \(p(A|B)=0\) (ossia \(A\) non può verificarsi sapendo che si è verificato \(B\)). Se al contrario \(B\) è un evento contenuto nell’evento \(A\), o equivalentemente \(A\cap B=B\) (ossia \(A\) è automaticamente implicato da \(B\)), allora \(p(A|B)=1\). La nostra definizione si comporta bene rispetto all’intuizione!

 

Chiaramente la formula può essere utilizzata anche al contrario, ottenendo
\(p(A \cap B)=p(A|B)\cdot p(B).\)
Invertendo il ruolo di \(A\) e \(B\) otteniamo una formula ancora valida. In particolare,
\(p(B \cap A)=p(B|A)\cdot p(A).\)
Notiamo però che \(A\cap B= B\cap A\) e dunque le due espressioni sopra indicate sono uguali. Sfruttando questa osservazione otteniamo che
\(p(A|B)\cdot p(B)=p(B|A)\cdot p(A)\),
o equivalentemente

\(p(A|B)=\frac{p(B|A)\cdot p(A)}{p(B)}\)

Qual è il senso della formula che abbiamo appena scritto? Supponiamo che \(A\) condizioni positivamente \(B\), ossia che l’accadere dell’evento \(A\) renda più probabile l’accedere di \(B\). Avremo in particolare \(p(B|A)>p(B)\), ossia \(\frac{p(B|A)}{p(B)}>1\). Da questo segue che, utilizzando la formula precedente,
\(p(A|B)= \frac{p(B|A)\cdot p(A)}{p(B)} =\)
\(=\frac{p(B|A)}{p(B)}\cdot p(A)>\)
\(> 1 \cdot p(A) = p(A),\)
dunque anche \(B\) condiziona positivamente \(A\)! Dunque la nozione di condizionare positivamente è simmetrica in \(A\) e \(B\)! Ha dunque senso la seguente definizione:

Definizione: Diciamo che \(A\) e \(B\) sono correlati positivamente se \(p(A|B)>p(A)\) o (equivalentemente!) \(p(B|A)>p(B)\). Analogamente, diciamo che \(A\) e \(B\) sono correlati negativamente se \(p(A|B)<p(A)\) o (equivalentemente!) \(p(B|A)<p(B)\).

Domanda:
Quando due eventi non sono né correlati positivamente né correlati negativamente, ossia non correlati? Per definizione, questo accade se e solo se \(p(A|B)=p(A)\). D’altronde \(p(A|B)=\frac{p(A\cap B)}{p(B)}\) per definizione di probabilità condizionata; sostituendo la seconda equazione nella prima si ottiene
\(p(A\cap B)=p(A)\cdot p(B).\)
In conclusione, due eventi sono non correlati se e solo se sono indipendenti, di nuovo in accordo con la nostra intuizione.

 

Concludiamo questo articolo con un esempio di applicazione.

Esercizio:
Calcolare la probabilità che, lanciando quattro monete, la faccia testa esca esattamente due volte, sapendo che è uscita almeno una volta.

Soluzione:
Definiamo i nostri eventi per fare chiarezza: sia \(A\) l’evento “esattamente due teste” e \(B\) l’evento “almeno una testa”. L’esercizio ci chiede di calcolare \(p(A|B).\)  Da definizione,
\(p(A|B)=\frac{p(A \cap B)}{p(B)}.\)
Notiamo che, poiché l’evento \(A\) implica l’evento \(B\) (se escono esattamente due teste ne è uscita almeno una), abbiamo che \(A\cap B=A\). Dunque \(p(A\cap B)=p(A)\) e quindi (in questo caso!)
\(p(A|B)=\frac{p(A)}{p(B)}.\)
Calcoliamo uno per uno i due fattori del lato destro dell’uguaglianza.

  • \(p(A)\). Per i casi favorevoli, si tratta di calcolare in quanti modi possono uscire due teste e due croci, ossia i possibili anagrammi della parola TTCC, che sono notoriamente \(\binom{4}{2}=\frac{4!}{2!\cdot 2!}=6\). I casi possibili sono invece chiaramente \(2^4=16\), avendo a disposizione ad ogni lancio una scelta tra testa o croce, scelta che possiamo fare indipendente dalle precedenti. In conclusione, \(p(A)=6/16\).
  • \(p(B)\). Calcoliamo questa probabilità con l’evento complementare: \(B^C\) è l’evento “non almeno una testa”, ossia “nessuna testa”, o ancora “tutte croci”. Chiaramente abbiamo un solo caso favorevole, tra i \(2^4=16\) possibili, per realizzare la richiesta. Dunque \(p(B^C)=\frac{1}{16}\), da cui \(p(B)=1-p(B^C)=1-\frac{1}{16}=\frac{15}{16}.\)

Sostituendo tutto quanto ciò che abbiamo trovato, deduciamo che
\(p(A|B)=\frac{p(B|A)\cdot p(A)}{p(B)}=\)
\(=1 \cdot \frac{6}{16} / \frac{15}{16}=\)
\(6/15=2/5,\)
e questo conclude l’esercizio proposto.

Osservazione:
Si noti come in questo esercizio gli eventi \(A\) e \(B\) risultino essere correlati positivamente.

 

Questa era la probabilità condizionata 😉
Speriamo tu possa aver trovato utile questo nostro articolo.
Se hai domande o commenti non esitare a scrivere qui sotto!

Clicca qui per condividere!

 

No Comments

Add your comment