INTRODUZIONE
INTRODUZIONE
La teoria della probabilità è uno strumento matematico utile per lo studio dei
cosiddetti fenomeni aleatori, che sono fenomeni complessi o di difficile
modellizzazione, il cui esito non è prevedibile a priori con certezza, ma che
tuttavia presentano una qualche forma di regolarità; per questo motivo, il
comportamento di tali fenomeni può essere descritto solo attraverso opportune
grandezze globali o medie.
Idealmente, questo testo potrebbe essere utile per coloro che sono interessati
principalmente alla formulazione di un modello stocastico (casuale) che descriva
un tale fenomeno reale. In questa prospettiva si usa di solito fare un
compromesso tra la scelta di un modello che è una replica realistica del fenomeno
oggetto di studio e la scelta di un modello la cui analisi matematica è trattabile.
Analoghe considerazioni hanno portato a ritenere appunto la teoria della
probabilità particolarmente adatta per essere applicata a questo approccio, vale a
dire, per cercare di modellare il fenomeno il più fedelmente possibile e poi fare
affidamento su uno studio di simulazione per analizzarlo.
Dopo alcuni preliminari, si mostra dunque come analizzare un modello
attraverso l’uso di uno studio di simulazione. In particolare, dobbiamo prima
vedere come un computer può essere utilizzato per generare numeri casuali
(precisamente, pseudocasuali) e di conseguenza come questi numeri casuali
possono essere impiegati per generare i valori di variabili aleatorie aventi
distribuzioni arbitrarie. Utilizzando il concetto di eventi discreti, si mostra come
utilizzare tali variabili aleatorie per simulare il comportamento di un modello
stocastico nel tempo. Successivamente, generando continuamente il
comportamento del sistema mostreremo come ottenere degli stimatori per le
quantità di interesse desiderate. Infine, discutiamo vari metodi per aumentare la
precisione delle stime di simulazione, riducendo la loro varianza. Questo è un
tentativo di migliorare lo stimatore dell’usuale simulazione.
INTRODUZIONE
In aggiunta, siccome è estremamente importante sia capire che applicare la
teoria, molti esempi sono elaborati in tutto il testo per chiarire e risolvere nella
pratica i concetti che hanno particolare enfasi.
L’organizzazione del testo si articola in 3 capitoli più l’Appendice A come
segue:
Nel Capitolo 1 si introducono i concetti basilari della teoria della probabilità
condizionata e dell’aspettazione condizionata. Dopo aver fornito le definizioni
preliminari si presentano anche le proprietà elementari di tali concetti
illustrandone l’utilità. Il “condizionamento”, infatti, è uno degli strumenti
fondamentali della teoria della probabilità, in quanto, se correttamente utilizzato,
spesso ci permette di risolvere facilmente problemi che a prima vista sembrano
molto difficili. In particolare, nei vari paragrafi viene presentato il suo utilizzo per
il calcolo delle aspettazioni, della varianza e delle probabilità stesse.
Il Capitolo 2 si occupa della simulazione, un potente strumento per l’analisi
dei modelli stocastici che sono analiticamente intrattabili. Prima di iniziare questo
argomento, vengono introdotte due applicazioni della simulazione a problemi di
tipo combinatorio. A questo punto, al fine di rendere il modello di simulazione più
realistico, si mostra come generare numeri casuali che seguono una determinata
distribuzione teorica o empirica. Per questo vengono discussi metodi generali e
speciali per la simulazione di variabili aleatorie continue e discrete. In particolare,
si evidenziano:
Il metodo della trasformazione inversa, che costituisce una delle tecniche
più comunemente utilizzate ed è applicabile ai soli casi in cui la funzione di
densità cumulativa può essere invertita analiticamente.
Il metodo del rigetto, che si utilizza invece solo in assenza di altri metodi,
ossia è molto utile quando la funzione cumulativa non è nota o non è
analiticamente invertibile e la sua efficienza risulta dipendente dalla forma
di .
Dopo aver fornito una definizione formale, per ognuna delle tecniche si
introducono vari esempi che mostrano come tale problemi si caratterizzano
statisticamente.
INTRODUZIONE
Il Capitolo 3 tratta il tema della riduzione della varianza, estremamente
importante in uno studio di simulazione, perché può sostanzialmente migliorare
la propria efficienza. Di conseguenza, siamo portati a considerare alcuni metodi
per ottenere nuovi stimatori che sono miglioramenti degli stimatori dell’usuale
simulazione, in quanto hanno stessa media e varianza ridotta. Il capitolo inizia
con l’introduzione della tecnica che utilizza le variabili antitetiche. Prendiamo atto
(con una dimostrazione rimandata in Appendice A) che questa comporta sempre
una riduzione della varianza con un risparmio di calcolo, quando stiamo
cercando di stimare il valore atteso di una funzione che è monotona in ciascuna
delle sue variabili. La sottosezione 3.2, invece, si occupa della riduzione della
varianza esaminando un approccio utile basato sull’utilizzo delle aspettazioni
condizionate. Come applicazioni vengono illustrati la stima di e l’analisi dei
sistemi a coda. Nella sezione finale si introduce la tecnica delle variabili di
controllo e si illustra la loro utilità sempre in termini di riduzione della varianza.
Per esempio, mostriamo come questa tecnica può essere efficacemente utilizzata
per analizzare un problema di riordino di una lista, e il gioco del blackjack.
Capitolo 1: PROBABILITÀ E ASPETTAZIONI CONDIZIONATE
Capitolo 1
PROBABILITÀ E ASPETTAZIONI CONDIZIONATE
In questo capitolo si affrontano due argomenti fondamentali della teoria della
probabilità: la probabilità condizionata e l’aspettazione condizionata. In analogia
alla probabilità condizionata, che è un’importante legge di probabilità, esistono le
distribuzioni di probabilità condizionata, che consentono di approfondire le
relazioni esistenti tra le variabili aleatorie e gli eventi dello spazio campione su cui
esse sono definite, nonché le relazioni esistenti tra le variabili aleatorie stesse.
Il punto di partenza delle nostre considerazioni sarà dunque il concetto di
probabilità condizionata che rappresenta uno dei concetti più utili insieme
all’aspettazione condizionata. Il motivo è duplice. In primo luogo perché, nella
pratica, siamo spesso interessati a calcolare le probabilità e le aspettazioni
quando sono disponibili alcune informazioni parziali; di conseguenza, le
probabilità e le aspettazioni desiderate sono quelle condizionali. In secondo luogo
perché, nel calcolare le probabilità e le aspettazioni desiderate è spesso
estremamente utile per prima cosa “condizionare” su alcune variabili casuali
opportune.
Ricordiamo che per ogni due eventi ed , la probabilità condizionata di dato
è definita, a condizione che , da
Quindi, nel caso in cui e sono variabili aleatorie discrete, allora è naturale
definire la funzione di massa della probabilità (densità discreta) condizionata di ,
dato , come
Capitolo 1: PROBABILITÀ E ASPETTAZIONI CONDIZIONATE
per tutti i valori di tali che . Allo stesso modo, la funzione di
ripartizione della probabilità condizionata di dato è definita, per tutti gli
tali che , come
Infine, l’aspettazione condizionata di dato che è definita da
In altre parole, le definizioni sono esattamente uguali a quelle del caso non
condizionato con l’eccezione che ora tutto è condizionato (subordinato) alla
manifestazione dell’evento . Un caso particolare è quando è indipendente
da , nel quale la funzione di massa condizionata, la distribuzione e le
aspettazioni sono le stesse del caso incondizionato. Ciò deriva, dal fatto che se è
indipendente da , allora
Esempio 1.1 Supponiamo che , la funzione di massa della probabilità
congiunta di ed , è data da:
Calcolare la funzione di massa della probabilità condizionata di dato che .
Soluzione: innanzitutto notiamo che
Quindi,
Analogamente,
Capitolo 1: PROBABILITÀ E ASPETTAZIONI CONDIZIONATE
Esempio 1.2 Se
e
sono variabili binomiali indipendenti di parametri
rispettivamente
ed
; calcolare il valore atteso condizionato di
dato
che
.
Soluzione: Calcoliamo dapprima la funzione di massa della probabilità
condizionata di
dato che
. Considerando ,
dove abbiamo usato il fatto che
è una variabile binomiale con parametri
. Perciò, la funzione di massa della probabilità condizionata di
dato
che
, è:
La distribuzione descritta da quest’equazione è nota come distribuzione
ipergeometrica. (E’ la distribuzione del numero di palline blu che sono scelte
quando un campione di palline è scelto casualmente da un urna che contiene
palline blue ed
palline rosse). Di conseguenza si ottiene che:
Analogamente, nel caso continuo, ricordiamo che se e hanno una funzione
di densità di probabilità congiunta , allora la funzione di densità della
probabilità condizionata di , dato che , è definita per tutti i valori di tali
che
, come
Per motivare questa definizione, moltiplichiamo a sinistra per e a destra per
per ottenere