Probabilità e Assiomi

Definizione di Probabilità

Nella lezione precedente abbiamo introdotto il concetto di Spazio degli Eventi derivato a partire dai concetti di Evento e Spazio Campione.

Adesso possiamo definire la funzione di probabilità, chiamata semplicemente Probabilità, che associa ad ogni evento un numero reale compreso tra 0 e 1. In particolare:

Definizione

Definizione di Probabilità

Sia dato uno spazio campione \Omega e sia \mathcal{S} lo spazio degli eventi associato. Si definisce Probabilità una funzione P che associa ad ogni elemento di \mathcal{S} un numero reale compreso tra 0 e 1, ovvero:

P: A \in \mathcal{S} \rightarrow P(A) \in [0,1]

La probabilità di un evento A è quindi un numero reale compreso tra 0 e 1, che misura l'incertezza che l'evento A si verifichi.

Per tal motivo, la probabilità di un evento impossibile è 0, mentre la probabilità di un evento certo è 1.

Dato un esperimento, per poter costruire una legge di probabilità bisogna identificare:

  • lo spazio campione \Omega;
  • lo spazio degli eventi \mathcal{S}.

Successivamente, bisogna assegnare ad ogni evento A \in \mathcal{S} un numero reale compreso tra 0 e 1, ovvero la probabilità P(A). Quest'ultimo passaggio è fondamentale e non sempre è ovvio come procedere. Vedremo in questa lezione come fare in maniera rigorosa. Per il momento ci conviene partire con un semplice esempio.

Esempio di costruzione di una legge di probabilità

Proviamo a costruire una legge di probabilità per un esperimento che consiste nel lanciare una monetina. In questo caso è abbastanza semplice identificare lo spazio campione \Omega che risulta essere composto semplicemente dai valori testa e croce:

\Omega = \{ T, C \}

Lo spazio degli eventi \mathcal{S} è invece composto da tutti i possibili sottoinsiemi di \Omega, ovvero l'insieme delle parti di \Omega:

\mathcal{S} = \mathcal{P}(\Omega) = \{ \varnothing, \{ T \}, \{ C \}, \{ T, C \} \}

Ossia i possibili eventi sono:

  • l'evento impossibile \varnothing;
  • l'evento testa \{ T \};
  • l'evento croce \{ C \};
  • l'evento certo \{ T, C \}.

A questo punto, per costruire una legge di probabilità, dobbiamo assegnare ad ogni evento A \in \mathcal{S} un numero reale compreso tra 0 e 1.

Partiamo dagli eventi più immediati:

  • l'evento impossibile \varnothing ha probabilità 0; intuitivamente è ragionevole assegnare probabilità 0 in quanto non potrà mai verificarsi:

    P(\varnothing) = 0
  • l'evento certo \{ T, C \} ha probabilità 1; risulta ovvio, infatti, che ogniqualvolta lanciamo una monetina, il risultato sarà sempre testa o croce:

    P(\{ T, C \}) = 1

Rimangono da assegnare le probabilità agli eventi testa \{ T \} e croce \{ C \}. Come fare?

Supponendo che la monetina non sia truccata e che, quindi, le probabilità di ottenere testa o croce siano uguali, allora è ragionevole assegnare probabilità 0.5 ad entrambi gli eventi:

P(\{ T \}) = P(\{ C \}) = 0.5

Avendo assegnato, ora, una probabilità ad ogni evento, abbiamo costruito una legge di probabilità per il nostro esperimento.

Costruzione di una legge di probabilità

Nell'esempio precedente siamo riusciti a costruire una legge di probabilità in maniera abbastanza intuitiva. Tuttavia, non sempre è così semplice e in generale dobbiamo ricorrere ad approcci sistematici e rigorosi.

Nel 1933, infatti, il matematico russo Andrej Nikolaevič Kolmogorov ha proposto una definizione assiomatica di probabilità, che è tutt'ora utilizzata. Questa definizione apparve per la prima volta nel suo libro Grundbegriffe der Wahrscheinlichkeitsrechnung (Fondamenti della teoria della probabilità) nel 1933.

L'approccio di Kolmogorov ci permette, a partire da una serie di assiomi, di dedurre tutte le proprietà della funzione di probabilità. Esso ci permette in sostanza di verificare se una funzione P è effettivamente una legge di probabilità. La sua limitazione, tuttavia, sta nel fatto che è incompleto nel senso che non permette di assegnare univocamente una legge di probabilità ad uno spazio campione.

Definizione

Approccio assiomatico alla probabilità di Kolmogorov

L'approccio assiomatico di Kolmogorov alla probabilità ci permette di definire la probabilità in maniera rigorosa a partire da tre assiomi fondamentali. Da tali assiomi possiamo dedurre tutte le proprietà della probabilità.

I vantaggi di questo approccio sono:

  • Rigorosità: la definizione di probabilità è rigorosa e non ambigua;
  • Deduttività: possiamo dedurre tutte le proprietà della probabilità a partire dagli assiomi di Kolmogorov.
  • Indipendenza dall'interpretazione: la definizione di probabilità non dipende dall'interpretazione che diamo al concetto di probabilità.
  • Generalità: la definizione di probabilità è generale e può essere applicata a qualsiasi spazio campione; grazie ad essa possiamo lavorare con spazi campioni infiniti sia in senso numerabile che non numerabile.

Assiomi di Kolmogorov

Introdotti i concetti preliminari necessari possiamo definire, adesso, la probabilità in maniera assiomatica:

Definizione

Probabilità

Sia dato uno spazio campione \Omega e sia \mathcal{S} un \sigma-campo di eventi su \Omega.

Si definisce Probabilità una funzione P che associa ad ogni elemento di \mathcal{S} un numero reale non negativo e soddisfa i seguenti assiomi (chiamati Assiomi di Kolmogorov):

  1. Assioma di non negatività:

    \forall A \in \mathcal{S} \rightarrow P(A) \geq 0

    in altre parole, la probabilità di un evento è sempre un numero reale maggiore o uguale a 0.

  2. Assioma di normalizzazione:

    P(\Omega) = 1

    ossia, la probabilità dell'evento certo è 1.

  3. Assioma di additività numerabile:

    \forall A_1, A_2, \dots \in \mathcal{S} \text{ tali che } A_i \cap A_j = \varnothing \text{ per } i \neq j \rightarrow P \left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)

    in altre parole, la probabilità dell'unione numerabile di eventi disgiunti è uguale alla somma delle probabilità degli eventi stessi.

Definiti gli assiomi di sopra, tutta la teoria della probabilità può essere costruita in maniera deduttiva.

Sfruttando la teoria degli insiemi, infatti, possiamo ricavare alcune proprietà elementari della probabilità a partire dagli assiomi di Kolmogorov.

Proprietà dell'evento impossibile

Definizione

Probabilità dell'evento impossibile

La probabilità dell'evento impossibile è 0:

P(\varnothing) = 0

La dimostrazione di questa proprietà è abbastanza semplice e si basa sull'assioma di additività numerabile:

Dimostrazione

Dimostrazione

Sia dato uno spazio campione \Omega e sia \mathcal{S} un \sigma-campo di eventi su \Omega.

Scegliamo una sequenza di eventi A_n tale per cui:

A_1 = \Omega \text{ e } A_n = \varnothing \text{ per } n > 1

Questi eventi sono disgiunti, infatti:

A_i \cap A_j = \varnothing \text{ per } i \neq j

Possiamo quindi applicare il terzo assioma di Kolmogorov:

P \left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)

Sostituendo i valori di A_i:

P \left( \bigcup_{i=1}^{\infty} A_i \right) = P(\Omega) + \sum_{i=2}^{\infty} P(\varnothing)

Ma, tenendo presente che:

\bigcup_{i=1}^{\infty} A_i = \Omega \cup \bigcup_{i=2}^{\infty} \varnothing = \Omega

per cui:

P \left( \Omega \right) = P(\Omega) + \sum_{i=2}^{\infty} P(\varnothing) = 1

Da cui deve risultare necessariamente che:

\sum_{i=2}^{\infty} P(\varnothing) = 0

ossia che:

P(\varnothing) = 0

Proprietà dell'additività finita

Definizione

Additività finita

Siano A e B due eventi disgiunti:

A \cap B = \varnothing

Allora la probabilità dell'unione di A e B è uguale alla somma delle probabilità di A e B:

P(A \cup B) = P(A) + P(B)

Anche in questo caso possiamo sfruttare il terzo assioma per dimostrare questa proprietà:

Dimostrazione

Dimostrazione

Sia dato uno spazio campione \Omega e sia \mathcal{S} un \sigma-campo di eventi su \Omega.

Siano A e B due eventi disgiunti:

A \cap B = \varnothing

Scegliamo una sequenza di eventi A_n tale per cui:

A_1 = A \text{ e } A_2 = B \text{ e } A_n = \varnothing \text{ per } n > 2

Questi eventi sono tutti disgiunti tra di loro, quindi possiamo sfruttare il terzo assioma e scrivere:

P \left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)

Sostituendo i valori di A_i:

P \left( \bigcup_{i=1}^{\infty} A_i \right) = P(A) + P(B) + \sum_{i=3}^{\infty} P(\varnothing)

Ma tenendo presente che P(\varnothing) = 0:

P \left( \bigcup_{i=1}^{\infty} A_i \right) = P(A) + P(B)

Inoltre:

\bigcup_{i=1}^{\infty} A_i = A \cup B \cup \bigcup_{i=3}^{\infty} \varnothing = A \cup B

Quindi:

P(A \cup B) = P(A) + P(B)

Proprietà dell'evento complementare

Definizione

Probabilità dell'evento complementare

Sia A un evento. Allora la probabilità dell'evento complementare di A è uguale a 1 meno la probabilità di A:

P(A^c) = 1 - P(A)

Per la dimostrazione sfruttiamo il secondo assioma e la proprietà dell'additività finita:

Dimostrazione

Dimostrazione

Sia dato uno spazio campione \Omega e sia \mathcal{S} un \sigma-campo di eventi su \Omega.

Sia A un evento e sia A^c il suo complementare.

In tal caso vale che:

A \cup A^c = \Omega

Inoltre vale che:

A \cap A^c = \varnothing

Quindi, per la proprietà dell'additività finita:

P(A \cup A^c) = P(A) + P(A^c)

Ma, per il secondo assioma:

P(A \cup A^c) = P(\Omega) = 1

Combinando le due equazioni:

P(A) + P(A^c) = 1

da cui:

P(A^c) = 1 - P(A)

Proprietà dell'unione di eventi

Definizione

Probabilità dell'unione di eventi

Siano A e B due eventi qualunque. Allora la probabilità dell'unione di A e B è uguale alla somma delle probabilità di A e B meno la probabilità dell'intersezione di A e B:

P(A \cup B) = P(A) + P(B) - P(A \cap B)

Dimostriamo graficamente questa proprietà sfruttando i diagrammi di Venn:

Dimostrazione

Dimostrazione

Per poter dimostrare questa proprietà dobbiamo distinguere due casi.

Il primo caso è quello in cui uno degli eventi non è contenuto nell'altro:

A \not\subseteq B \text{ e } B \not\subseteq A

Questa situazione è mostrata dalla figura che segue:

Probabilità dell'unione di Eventi - Caso 1
Figura 1: Probabilità dell'unione di Eventi - Caso 1

In questo caso abbiamo che lo spazio campione è rappresentato dall'intero rettangolo, mentre gli eventi A e B sono rappresentati dai due cerchi. L'evento A \cup B è rappresentato dall'unione dei due cerchi.

Inoltre, nella figura abbiamo evidenziato l'evento risultante dalla differenza di B e A, ovvero B \setminus A che abbiamo indicato con \bar{A}B.

Osservando la figura notiamo che:

A \cup B = A \cup \bar{A}B

Ed essendo A e \bar{A}B disgiunti possiamo scrivere che:

P(A \cup B) = P(A) + P(\bar{A}B)

Inoltre possiamo scrivere che:

B = \Omega \cap B

Ossia, lo spazio campione intersecato con B è uguale a B stesso. Ma \Omega può essere scritto come:

\Omega = A \cup \bar{A}

Quindi:

B = (A \cup \bar{A}) \cap B = (A \cap B) \cup (\bar{A} \cap B) = (A \cap B) \cup \bar{A}B

Ma essendo i due eventi (A \cap B) e \bar{A}B disgiunti possiamo scrivere che:

P(B) = P(A \cap B) + P(\bar{A}B)

Riscriviamo l'equazione di sopra in maniera tale da isolare P(\bar{A}B):

P(\bar{A}B) = P(B) - P(A \cap B)

Sostituendo nella prima equazione:

P(A \cup B) = P(A) + P(\bar{A}B) = P(A) + P(B) - P(A \cap B)

E la proprietà è dimostrata.

Passiamo ora al secondo caso in cui uno degli eventi è contenuto nell'altro:

Probabilità dell'unione di Eventi - Caso 2
Figura 2: Probabilità dell'unione di Eventi - Caso 2

In questo caso abbiamo che B \subset A, ossia l'evento B è completamente contenuto nell'evento A.

Quindi possiamo scrivere che:

A \cup B = A

Ma possiamo anche scrivere che:

A = B \cup \bar{B}A

e inoltre che:

B = A \cap B

Adesso, consideriamo la probabilità dell'unione di A e B:

P(A \cup B) = P(A) = P(A\bar{B}) + P(B)

Quest'ultima equazione deriva dal fatto che gli eventi A\bar{B} e B sono disgiunti, ossia mutuamente esclusivi.

Adesso consideriamo il singolo evento A. Possiamo scrivere che:

A = \Omega \cap A

Ma \Omega può essere scritto come:

\Omega = B \cup \bar{B}

Quindi possiamo scrivere:

A = (B \cup \bar{B}) \cap A = (B \cap A) \cup (\bar{B} \cap A) = (A \cap B) \cup A\bar{B}

Essendo gli eventi (A \cap B) e A\bar{B} disgiunti possiamo scrivere che:

P(A) = P(A \cap B) + P(A\bar{B})

Da cui, isolando P(A\bar{B}):

P(A\bar{B}) = P(A) - P(A \cap B)

Sostituendo nella prima equazione:

P(A \cup B) = P(A) + P(B) - P(A \cap B)

E così anche per il secondo caso abbiamo dimostrato la proprietà dell'unione di eventi.

Da questa proprietà possiamo ricavare un'altra importante proprietà che prende il nome di Disuguaglianza di Boole:

Definizione

Disuguaglianza di Boole

Siano A e B due eventi qualunque. Allora la probabilità dell'unione di A e B è minore o uguale alla somma delle probabilità di A e B:

P(A \cup B) \leq P(A) + P(B)

La disuguaglianza di Boole è una conseguenza diretta della proprietà dell'unione di eventi. Infatti, dal momento che:

P(A \cap B) \geq 0

allora:

P(A \cup B) \leq P(A) + P(B)

L'uguaglianza si ha soltanto nel caso in cui A e B siano disgiunti; in tal caso infatti abbiamo che:

A \cap B = \varnothing \Rightarrow P(A \cap B) = 0 \Rightarrow P(A \cup B) = P(A) + P(B)

Proprietà della Monotonicità

Definizione

Monotonicità della Probabilità

Siano A e B due eventi qualunque. Se l'evento B è contenuto nell'evento A, allora la probabilità di B è minore o uguale alla probabilità di A:

B \subseteq A \Rightarrow P(B) \leq P(A)

Dimostriamo graficamente anche questa proprietà:

Dimostrazione

Dimostrazione

Per dimostrare questa proprietà basta osservare il diagramma di Venn che segue:

Proprietà di Monotonicità
Figura 3: Proprietà di Monotonicità

Dal diagramma è facile verificare che, in quanto B \subseteq A, l'evento A è rappresentato dall'intero cerchio, mentre l'evento B è rappresentato dal cerchio più piccolo. Per cui si ha che:

A = B \cup \bar{B}A

dove gli eventi B e \bar{B}A sono disgiunti, ossia mutuamente esclusivi. Per la proprietà dell'additività finita possiamo scrivere che:

P(A) = P(B \cup \bar{B}A) = P(B) + P(\bar{B}A)

Ma essendo P(\bar{B}A) \geq 0 dal primo assioma allora:

P(A) \geq P(B)

Intervallo di definizione

L'ultima proprietà che andremo a dimostrare a partire dagli assiomi di Kolmogorov è quella dell'intervallo di definizione della probabilità:

Definizione

Intervallo di definizione della Probabilità

La probabilità di un evento è sempre un numero reale compreso tra 0 e 1:

\forall A \in \mathcal{S} \rightarrow 0 \leq P(A) \leq 1

La dimostrazione di questa proprietà è abbastanza semplice e si basa sulla proprietà di Monotonicità vista prima e dal secondo assioma di Kolmogorov:

Dimostrazione

Dimostrazione

Per dimostrare questa proprietà basta osservare che, per ogni evento A, vale che:

P(A) \geq 0

per il primo assioma di non negatività.

Inoltre, sappiamo che:

A \subseteq \Omega \Rightarrow P(A) \leq P(\Omega) = 1

per la proprietà di Monotonicità.

Quindi, per ogni evento A, vale che:

0 \leq P(A) \leq 1

Spazi di Probabilità

A questo punto possiamo definire in maniera rigorosa il concetto di Spazio di Probabilità:

Definizione

Spazio di Probabilità

Un Spazio di Probabilità è una terna (\Omega, \mathcal{S}, P) composta da:

  • uno spazio campione \Omega;
  • uno spazio degli eventi \mathcal{S};
  • una funzione di probabilità P che rispetta gli assiomi di Kolmogorov.

Quindi, per poter definire un Spazio di Probabilità dobbiamo definire uno spazio campione \Omega, uno spazio degli eventi \mathcal{S} e una funzione di probabilità P che rispetti gli assiomi di Kolmogorov.

Questo approccio assiomatico ha, tuttavia, un limite: non ci dice come costruire una legge di probabilità, ci dice solo quali regole essa deve rispettare.

Per chiarire meglio, ritorniamo all'esempio del lancio della monetina fatta a inizio lezione.

In quell'esempio abbiamo assegnato alla probabilità di ogni evento un numero in base ad un ragionamento intuitivo di simmetria:

  • P(\varnothing) = 0;
  • P(\Omega) = 1;
  • P(\{ T \}) = P(\{ C \}) = 0.5.

In poche parole abbiamo assunto che gli eventi elementari Testa \{ T \} e Croce \{ C \} abbiano la stessa probabilità, ovvero 0.5.

Assegnando i valori in questo modo, gli assiomi di Kolmogorov sono rispettati. Tuttavia questo non è l'unico modo in cui possiamo assegnare la probabilità agli eventi.

Ad esempio, avremmo potuto assegnare la probabilità in maniera differente:

  • P(\varnothing) = 0;
  • P(\Omega) = 1;
  • P(\{ T \}) = 0.6;
  • P(\{ C \}) = 0.4.

Ossia abbiamo assegnato all'evento Testa \{ T \} una probabilità maggiore rispetto all'evento Croce \{ C \}.

Questo assegnamento non viola affatto gli assiomi di Kolmogorov quindi è del tutto legittimo.

Sorge a questo punto una domanda: quale assegnamento è quello giusto?.

In realtà entrambe i due assegnamenti sono corretti. Questo è il limite fondamentale dell'approccio assiomatico di Kolmogorov: si tratta di un approccio incompleto.

Probabilità e Statistica

Con l'approccio assiomatico non siamo in grado di assegnare univocamente una legge di probabilità ad uno spazio campione.

In tal caso, l'approccio utilizzato è quello di definire una legge di probabilità che permetta di prevedere il comportamento di un fenomeno casuale. Se le previsioni fatte con tale legge di probabilità si rivelano corrette, allora la legge di probabilità è considerata valida. In caso contrario essa deve essere modificata.

Questo procedimento viene iterato più volte fino a quando non si trova una legge di probabilità che permetta di prevedere in maniera soddisfacente, ossia entro certi limiti di errore, il comportamento del fenomeno casuale.

La disciplina che si occupa di ricavare i valori di probabilità a partire da dati sperimentali e di validare sperimentalmente le previsioni fatte con tale legge di probabilità prende il nome di Statistica.

Definizione

Relazione tra Probabilità e Statistica

La Probabilità e la Statistica sono due discipline strettamente correlate.

La Probabilità Assiomatica definisce in maniera rigorosa le leggi di probabilità e deduce tutte le loro proprietà a partire da tre assiomi fondamentali. Tuttavia non ci dice come costruire una legge di probabilità, ossia quali valori assegnare alle probabilità dei singoli eventi, ci dice solo quali regole essa deve rispettare.

La Statistica si occupa di ricavare i valori di probabilità a partire da dati sperimentali e di validare sperimentalmente le previsioni fatte con tale legge di probabilità.

In Sintesi

In questa lezione abbiamo introdotto il concetto di Probabilità e abbiamo visto come costruire una legge di probabilità a partire da uno spazio campione e uno spazio degli eventi.

Abbiamo visto che la probabilità di un evento è un numero reale compreso tra 0 e 1 che misura l'incertezza che l'evento si verifichi.

Abbiamo poi introdotto l'approccio assiomatico di Kolmogorov che definisce la probabilità in maniera rigorosa a partire da tre assiomi fondamentali:

  • l'assioma di non negatività:

    \forall A \in \mathcal{S} \rightarrow P(A) \geq 0
  • l'assioma di normalizzazione:

    P(\Omega) = 1
  • l'assioma di additività numerabile:

    \forall A_1, A_2, \dots \in \mathcal{S}

    tali che:

    A_i \cap A_j = \varnothing \text{ per } i \neq j

    allora:

    P \left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)

Abbiamo visto che a partire da questi assiomi possiamo dedurre alcune proprietà fondamentali della probabilità, come la probabilità dell'evento impossibile, la probabilità dell'evento certo, la probabilità dell'evento complementare e la probabilità dell'unione di eventi.

Infine, abbiamo visto che l'approccio assiomatico di Kolmogorov è incompleto nel senso che non permette di assegnare univocamente una legge di probabilità ad uno spazio campione. In tal caso, la disciplina che si occupa di ricavare i valori di probabilità a partire da dati sperimentali e di validare sperimentalmente le previsioni fatte con tale legge di probabilità è la Statistica.