6 
 
Introduzione 
 
 
“Le previsioni sono estremamente difficili, specialmente sul futuro”. Questa 
citazione dal senso ironico di Niels Bohr, celebre fisico danese le cui teorie risalgono 
alla prima metà del Novecento, racchiude un concetto ancora molto attuale. 
L’evoluzione della ricerca e dei sistemi di elaborazione, complice lo sviluppo di 
nuove piattaforme informatiche, ha reso possibile un progressivo affinamento delle 
tecniche previsionali e computazionali fino a livelli molto avanzati. Tuttavia, quando 
si parla di previsioni, ancora oggi l’incertezza assume un ruolo predominante ed 
imprescindibile. Ambire a prevedere esattamente il futuro è un lavoro da veggenti, 
piuttosto che da studiosi. Di conseguenza, in campo finanziario, molti dei modelli 
esistenti prevedono delle ipotesi semplificatrici che contrastano con le reali 
condizioni dei mercati. Procedere in questo modo è necessario per assicurarne la 
trattabilità analitica, ma allo stesso tempo comporta inevitabili imprecisioni a livello 
di risultati. Per cui l’obiettivo ultimo si è spostato dalla ricerca della soluzione giusta, 
alla ricerca della soluzione meno erronea. Si tratta di un compromesso che qualunque 
modello previsionale deve accettare, per poter funzionare.  
È mio interesse specificare che con questo discorso non si vuole affermare che non 
esistano tecniche in grado di garantire risultati comunque validi, altrimenti tutto il 
lavoro personale sviluppato in questa sede non avrebbe senso. 
Tornando al concetto di imprevedibilità dei mercati finanziari, essa è stata 
ampiamente dimostrata dalle vicissitudini turbolente degli ultimi anni. La crisi 
finanziaria ha messo in luce tutte le debolezze presenti nell’operatività dei soggetti 
partecipanti, sia da un punto di vista previsionale e, più in generale modellistico ex-
ante, che da un punto di vista di ricerca delle soluzioni ex-post. Nel tempo si è 
sviluppato un meccanismo distorto basato sulla falsa credenza che gli eventi estremi 
fossero sinonimo di eventi impossibili, in contrasto proprio con la tendenza del 
tempo dell’affermarsi di modelli e tecniche sempre più improntati su misure di 
rischio, quali il VaR o il downside-risk, costruiti in modo da enfatizzare proprio il
7 
 
ruolo delle realizzazioni estreme. Nel momento in cui si è raggiunto il limite, il 
meccanismo è collassato. 
Lo spunto da cui nasce il tema di questo lavoro è basato sui precedenti ragionamenti, 
ed in particolare sulla considerazione, a volte controversa, dell’importanza dei valori 
statisticamente improbabili. In ambito statistico, gli eventi estremi sono rappresentati 
dalle “code” della distribuzione probabilistica cui si fa riferimento, ossia dall’area, 
sottesa alla funzione di densità, che si discosta maggiormente dal suo baricentro, 
inteso come valore medio. Pertanto, dalla forma di queste “code”, si ricava una 
misura probabilistica di rilevanza degli eventi estremi. 
I modelli a supporto dei processi finanziari, molto spesso, presentano l’ipotesi di 
distribuzione gaussiana dei rendimenti, nel senso che la struttura probabilistica delle 
serie storiche dei rendimenti segue una funzione di tipo Normale. In questo modo si 
semplificano notevolmente gli aspetti analitici garantendo risultati sufficientemente 
validi. Tuttavia, il limite maggiore in questo caso consiste nella forma della 
distribuzione Normale, che presenta una sagoma fissa, modellabile solamente su un 
piano bidimensionale valore medio-varianza. Inoltre l’ipotesi di normalità dei 
rendimenti è attualmente rigettata in numerosi studi empirici, secondo i quali le 
distribuzioni empiriche delle serie storiche finanziarie seguono, nella gran parte dei 
casi, delle forme fat-tailed e skewness-based. Di conseguenza, utilizzare un modello 
probabilistico di tipo gaussiano, con “code” mesocurtiche e asimmetria nulla, 
comporta delle imprecisioni nella costruzione dei modelli, soprattutto a livello di 
peso assegnato agli eventi estremi. 
La mia idea è quella di approfondire inizialmente il discorso probabilistico, 
sviluppando uno studio basato sugli higher moments della distribuzione dei 
rendimenti, con l’obiettivo di specificare in modo maggiormente preciso la loro 
struttura probabilistica. A tal fine sarà necessario fare riferimento a modelli 
probabilistici avanzati che garantiscano la possibilità di trattare la forma della 
distribuzione su un piano quadridimensionale di media, varianza, asimmetria e 
curtosi. Personalmente ho trovato delle soluzioni interessanti nella famiglia di 
distribuzioni note con il nome di Normal mean-variance mixtures, che ritengo adatte 
ai suddetti scopi. Non a caso, esse sono state già oggetto di studi in campo 
finanziario, anche se soprattutto a livello di pricing dei prodotti derivati. Le ricerche
8 
 
personali effettuate fino a questo momento non hanno riscontrato applicazioni 
specifiche paragonabili all’ambito di questo lavoro. Nel capitolo 2, quindi, si 
offriranno dei cenni statistici riferiti all’ambito multivariato ed alla costruzione di tali 
distribuzioni, con lo scopo di inquadrare il problema modellistico. Queste 
considerazioni saranno utili per sviluppare il lavoro empirico proposto nell’ultimo 
capitolo, in quanto sarà richiesta la simulazione di un gran numero di campioni 
statisticamente probabili. Individuare il modello maggiormente appropriato in questo 
contesto è fondamentale per ottenere dei risultati sufficientemente precisi. 
Ricordando che il fine ultimo di questo lavoro è proporre un metodo approfondito di 
costruzione di portafogli di investimento, il primo capitolo sarà quindi destinato alla 
descrizione delle principali tecniche e dei modelli di portfolio allocation 
maggiormente diffusi in letteratura e nell’operatività degli asset manager. Si seguirà 
pertanto un filo evolutivo che partirà dal modello di Markowitz, spesso riconosciuto 
come fondamento dell’asset management, per poi analizzare le successive 
integrazioni o soluzioni alternative ad esso sviluppate nel tempo. In particolare sarà 
descritto il metodo del Resampling, che costituirà il modello di riferimento su cui 
sarà costruita l’analisi empirica del terzo capitolo. L’obiettivo è quello di porre le 
basi per la costruzione di un portafoglio valido, sia dal punto di vista della 
ragionevolezza dei risultati, che da un punto di vista rigoroso. 
Per concludere, nel terzo capitolo sarà proposta una applicazione personale dei 
concetti fin qua esposti. La considerazione degli higher moments della distribuzione 
comporterà delle complicazioni analitiche del problema, sia nella prima fase di 
simulazione degli scenari, che nella seconda fase di ottimizzazione 
quadridimensionale. In particolare, nella fase finale del lavoro, presenterò una 
soluzione personale per la derivazione della frontiera ricampionata, non ancora 
riscontrata nei testi attualmente presi in considerazione. Questo perché, come sarà 
spiegato successivamente, le soluzioni tradizionali prevedono l’utilizzo di parametri 
per la quantificazione delle preferenze dell’investitore, il che contrasta con 
l’impronta generale su cui è costruito questo lavoro. 
Osservando le considerazioni fatte fino a questo momento, sarà necessario mostrare 
se, a fronte di queste complicazioni dal punto di vista analitico, i vantaggi ottenuti in 
termini di risultati saranno validi. In poche parole, il gioco vale la candela?
9 
 
Capitolo 1 
 
 
I principali modelli di Asset 
Allocation 
 
 
1.1 Introduzione 
 
 
Nell’ultimo decennio abbiamo assistito ad un forte incremento nell’utilizzo dei 
prodotti di investimento mobiliare, anche da parte di operatori non qualificati. Uno 
dei principali motivi cui è attribuibile questa tendenza è la diffusione di strumenti 
informatici di massa che ha reso possibile l’accesso immediato ai mercati finanziari 
da parte di chiunque. Oggi, molti individui, che già da tempo hanno preso coscienza 
del fatto che detenere liquidità infruttifera è inefficiente, non si accontentano più di 
affidare passivamente i propri risparmi ad un istituto finanziario, ma hanno la volontà 
di selezionare in maniera indipendente le opportunità di investimento maggiormente 
adeguate al proprio profilo. Dal lato dell’offerta di strumenti finanziari, la necessità 
di accontentare ogni possibile esigenza degli investitori ha determinato la nascita di 
una vasta gamma di prodotti finanziari, più o meno articolati. Ma proprio a causa di 
questa evoluzione dimensionale è improbabile riuscire ad orientarsi all’interno dei 
mercati finanziari senza un adeguato supporto qualificato. Per questo motivo esistono 
delle figure professionali che svolgono la funzione di intermediario. Una di queste è 
l’asset manager, ossia il soggetto che si incarica di costruire portafogli di 
investimento, tramite un mix composto dalle diverse asset class di prodotti finanziari.
10 
 
La logica che si segue in questo approccio è quella di apportare un valore aggiunto 
all’aggregato, tale per cui la valutazione del portafoglio intero risulti maggiore della 
somma del valore delle singole attività in esso contenute, mediante una suddivisione 
efficiente delle risorse in termini di rendimento e rischio. 
La volontà di sovraperformare il mercato per ottenere dei rendimenti straordinari ha 
portato a sviluppare una gran quantità di teorie e modelli nel tempo. Ma l’incertezza 
che guida i fenomeni finanziari sembra dimostrare, al contrario, che questo obiettivo 
non sia perseguibile. Ad iniziare dagli anni ’50 abbiamo evidenza di studi che 
analizzano l’imprevedibilità del mercato, grazie al contributo di Kendall (1953), il 
quale  suggerisce, per la prima volta, la possibilità che i mercati finanziari siano 
governati da un andamento puramente casuale. Successivamente si ha una 
formalizzazione dello stesso concetto in Cootner (1964). Con questi lavori si 
aprirono le porte ad un successivo filone di studi che portò alla definizione delle 
teorie dell’efficienza dei mercati e della random walk hypothesis. La teoria dei 
mercati efficienti è dovuta a Fama (1970), che prende spunto proprio dal suddetto 
articolo di Kendall. Secondo Fama, i mercati dei capitali presentano evidenza di 
efficienza, almeno in senso debole. Ciò implica il fatto che le serie storiche degli 
asset riflettano istantaneamente tutte le informazioni pubblicamente accessibili. 
Qualsiasi forma di efficienza del mercato implicherebbe, pertanto, l’impossibilità di 
prevedere il futuro, in quanto i prezzi giornalieri si muoverebbero secondo andamenti 
puramente casuali (random walk), che presentano media nulla ed hanno la 
caratteristica di essere non stazionari. Ciò significa che, in qualsiasi istante di tempo 
t, la migliore previsione per il prezzo degli asset in t+1 è proprio il prezzo al tempo t.  
Dal momento che in base a questa teoria non è possibile fare previsioni, nessun 
operatore del mercato finanziario può ambire ad ottenere rendimenti in eccesso 
rispetto al mercato, in maniera costante, tramite l’attività di trading. In poche parole, 
il mercato è un fair game, che segue la stessa logica delle lotterie: se si ottengono dei 
risultati positivi, ciò avviene solo per mera casualità. 
Un ulteriore contributo letterario a sostegno dell’efficienza dei mercati è dovuta a 
Malkiel (1973), basato proprio sulla teoria di Fama. Nel suo elaborato si mostra 
come le più diffuse tecniche di trading come l’analisi tecnica e l’analisi 
fondamentale portino ad ottenere dei risultati addirittura inferiori rispetto al mercato.
11 
 
Parallelamente a questo filone, in quegli anni, si sviluppa una corrente di pensiero 
che porterà alla definizione di importanti teorie note come Modern Portfolio Theory 
(MPT)
1
. Il suo ideatore, Harry Markowitz, in un articolo risalente al 1952, espresse 
lo studio della asset allocation in termini di un problema di ottimizzazione 
matematica. È necessario specificare che i concetti formulati nel suo lavoro non 
possono essere considerati del tutto innovativi
2
, tuttavia il suo merito si afferma nel 
fatto che egli spostò l’obiettivo dell’investitore da un piano unidimensionale di 
esclusiva massimizzazione del rendimento atteso, ad un piano bidimensionale di 
massimizzazione del rendimento atteso, per ogni determinato livello di rischio. E lo 
strumento utilizzato per risolvere il problema è l’ottimizzazione matematica. 
Da Markowitz in poi, il mondo teorico e professionale riguardante l’asset allocation 
si divise tra i sostenitori dei metodi quantitativi a supporto della costruzione di 
portafoglio, ed i sostenitori dei metodi essenzialmente qualitativi. 
In questo capitolo tratterò inizialmente alcuni elementi di Portfolio Theory, allo 
scopo di porre le basi necessarie per interpretare i modelli che saranno descritti 
successivamente. Ogni particolare modello di asset allocation sarà affiancato da un 
esempio pratico in grado di chiarire le divergenze ed analogie rispetto agli altri, 
meglio di qualsiasi concetto teorico. 
  
                                                 
1
 La teoria di portafoglio sarà descritta in particolare nel paragrafo 1.2. 
2
 Roy (1952) sviluppa un processo di costruzione di portafoglio basato sulla combinazione media-
deviazione standard molto simile al lavoro di Markowitz. A detta di quest’ultimo, il suo paper ebbe 
più successo molto probabilmente perché il suo nome era già conosciuto nel mondo della finanza 
grazie ad altri contributi, a differenza di quello di Roy.
12 
 
1.2 Elementi di Portfolio Theory 
 
 
Le origini della moderna teoria di portafoglio risalgono al 1952, anno in cui Harry 
Markowitz pubblica il suo articolo “Portfolio Selection”
3
. Il lavoro di Markowitz 
formalizza un metodo di costruzione dei portafogli di investimento basato su un 
approccio innovativo, che seleziona la combinazione ottimale delle asset class di 
portafoglio mediante un calcolo matematico. Fino all’introduzione di questo 
concetto, infatti, gli approcci maggiormente utilizzati per l’asset management si 
focalizzavano su analisi prettamente qualitative. Anche tramite essi si era in grado di 
raggiungere risultati validi, tuttavia non si aveva la certezza data dal rigore 
matematico. Un ulteriore elemento di innovazione riconosciuto al lavoro di 
Markowitz è la considerazione che egli  attribuisce al ruolo della diversificazione. 
Nonostante egli non fosse stato il primo a parlare di tale idea
4
, l’autore è spesso 
indicato come “il padre della diversificazione”; il vero merito di Markowitz, in 
realtà, fu quello di applicare il concetto ad un ambito di costruzione di portafoglio 
basato sull’analisi media-deviazione standard. L’ipotesi di fondo è che, essendo il 
portafoglio costituito da asset class non perfettamente correlate tra loro, è possibile 
ridurre il rischio tramite una combinazione dei titoli in grado di compensare le 
asincronie esistenti. Questo tipo di rischio, detto specifico, è riconducibile alle 
caratteristiche peculiari dei mercati stessi. Si differenzia dal cosiddetto rischio 
sistematico, che riguarda l’intera economia, e per il quale la diversificazione non ha 
effetto. Il portafoglio ottimale, allora, è quello che massimizza il rendimento, dato un 
certo livello di rischio. 
Vediamo nel dettaglio l’analisi effettuata da Markowitz, iniziando dalle ipotesi del 
modello: 
1. Gli investitori sono avversi al rischio ed il loro obiettivo è quello di 
massimizzare il rendimento finale. 
2. Il periodo di investimento è unico. 
3. Assenza di costi di transazione e di imposte. 
                                                 
3
 Per maggiori informazioni si veda Markowitz (1952). 
4
 Si hanno contributi in tal senso risalenti addirittura al diciottesimo secolo, con i lavori di Daniel 
Bernoulli. Cfr., ad esempio, Bernoulli (1738).
13 
 
4. Le attività sono perfettamente divisibili. 
5. Il mercato è perfettamente concorrenziale. 
6. Le decisioni sono prese sul piano valore atteso-deviazione standard. 
 
Nel considerare determinanti per la scelta solo i momenti primo e secondo della 
distribuzione dei rendimenti, si riscontra un’ipotesi implicita importante: nel modello 
i rendimenti si distribuiscono secondo una funzione gaussiana. Tale ipotesi è 
irrealistica, infatti molti risultati della letteratura empirica dimostrano che i 
rendimenti seguono generalmente l’andamento di una funzione leptocurtica, 
descrivendo il fenomeno delle “fat tails”
5
. Tra i contributi legati a questo argomento 
si segnalano Mandelbrot (1963), Fama (1965), Arditti (1967) e Eftekhari & Satchell 
(1996). 
È importante sottolineare che il fatto di esprimere le preferenze dell’investitore in un 
piano bidimensionale media-varianza è solo uno dei tanti modi esistenti. Si potrebbe 
sostenere in particolare che il rischio debba essere misurato in modi differenti dalla 
varianza, quali il VaR, il downside risk o la expected utility rule
6
. Altri rami della 
finanza si concentrano proprio sull’utilizzo di queste grandezze. Tuttavia, 
nell’ambito della modern portfolio theory, un’attività finanziaria si considera tanto 
più rischiosa quanto più elevata risulta la probabilità che i rendimenti futuri si 
disperdano rispetto alla media stimata
7
. 
Tornando al modello di Markowitz, è possibile esprimere il principio media-varianza 
(M-V) secondo il quale, dati due portafogli A e B, con rendimenti attesi    
 
  ed 
                                                 
5
Il momento quarto, la curtosi, misura lo spessore delle “code” asintotiche di una distribuzione. La 
funzione normale ha una forma campanulare simmetrica, e presenta un valore della curtosi pari a 3. 
Pertanto, una distribuzione si dice leptocurtica se presenta un valore della curtosi maggiore di 3; 
graficamente presenterà delle code più spesse. Si dice invece platicurtica se mostra delle code sottili 
ed un valore minore di 3.  
In finanza, le serie storiche dei rendimenti evidenziano generalmente caratteristiche leptocurtiche; ciò 
significa che gli eventi estremi hanno maggiore probabilità di verificarsi rispetto al caso gaussiano. 
L’argomento sarà ripreso nel Capitolo 2. 
6
 Per quanto riguarda la expected utility rule, non si tratta di un vero e proprio modello alternativo, ma 
ciò che differisce è la teoria di fondo. Si può comunque trovare una equivalenza tra criterio media-
varianza e utilità attesa, facendo uso di funzioni di utilità che vadano a considerare solo quei due 
parametri, come la funzione quadratica. Per ulteriori dettagli si veda Saltari (1997). 
7
 Sull’argomento si veda anche Sortino & Forsey (1996), che imputano la maggiore irragionevolezza 
nell’uso della deviazione standard, come misura di rischio, al fatto che essa penalizzi allo stesso modo 
le deviazioni positive e negative.
14 
 
   
 
  e rischi attesi  
 
 e  
 
 relativi allo stesso orizzonte temporale t, il portafoglio 
A domina il portafoglio B se: 
 
           
  
 
  
 
 
 
In cui una delle due disuguaglianze è stretta. 
I portafogli dominanti in base al criterio M-V sono definiti portafogli efficienti. 
Il rendimento ed il rischio di un titolo al tempo T sono grandezze che è possibile 
misurare sia ex-ante, in termini di valori attesi, che ex-post, in termini di valori 
realizzati. Per un generico titolo X si ha: 
 
                   
 
    
 
    
   
 
   
    
   
  
 
Dove  
   
 è il rendimento i-esimo del titolo X, e    
   
  è la probabilità che esso si 
verifichi. 
Disponendo di un campione di N osservazioni relative alla serie storica dei 
rendimenti di un asset, la teoria statistica offre uno stimatore corretto, efficiente e 
consistente del rendimento atteso nella media del campione
8
: 
 
 
 
 
 
 
 
  
   
 
   
 dove  
   
 è la i-esima osservazione sul titolo X. 
 
La varianza è calcolata come momento scarto quadratico dalla media: 
 
        
 
 
    
   
 
   
  
 
 
 
    
   
  
 
Uno stimatore corretto e consistente della varianza è: 
 
                                                 
8
 Per maggiori dettagli su stimatori corretti, efficienti e consistenti si veda Piccolo (2010).
15 
 
 
 
 
 
 
   
   
   
  
 
 
 
 
 
   
  
 
Sarà utile ricorrere ad una misura alternativa di rischio, la deviazione standard, 
calcolata come radice quadrata della varianza: 
 
             
 
   
 
 
 
 
Questo perché seguirò l’approccio utilizzato in Pomante (2008), che personalmente 
considero molto intuitivo e di immediata applicabilità. Egli utilizza come misura di 
rischio proprio la deviazione standard, poiché considerata una misura più facilmente 
interpretabile rispetto alla varianza. 
Spostando il precedente discorso a livello di portafoglio, il quale risulta composto da 
una moltitudine di elementi, non sarà più sufficiente la stima di singoli parametri, ma 
sarà necessario il calcolo di parametri aggregati. Oltretutto bisognerà considerare 
anche gli eventuali legami di dipendenza tra i diversi elementi del portafoglio. 
Vediamo una formulazione in termini matriciali. Scelti gli n asset con cui comporre 
il portafoglio, gli input da stimare sull’orizzonte temporale t sono: 
 
1. gli n rendimenti attesi: 
 
  
 
 
 
 
 
 
   
 
 
   
 
 
 
   
 
 
 
   
 
  
 
 
 
 
 
 
 
2. le n deviazioni standard:
16 
 
3. gli            coefficienti di correlazione lineare
9
 tra le coppie di 
parametri: 
 
  
 
 
 
 
 
 
 
 
  
  
 
  
  
  
  
  
 
  
  
  
  
  
  
  
 
  
 
  
   
  
  
  
       
 
  
 
  
 
  
    
  
       
 
  
 
  
 
  
  
  
  
 
 
 
 
 
 
 
 
 
 
La matrice   rappresenta tutte le possibili interazioni lineari tra gli asset. Ogni 
riga mostra l’i-esimo titolo ed ogni colonna il j-esimo. L’elemento generico 
della matrice è  
  
. La diagonale principale è unitaria poiché la correlazione 
di un titolo con sé stesso è pari ad 1. 
 
4. la matrice delle varianze-covarianze
10
: 
 
                                                 
9
 Il coefficiente di correlazione lineare di Bravais-Pearson è una misura che mostra l’esistenza di 
legami di dipendenza tra i parametri. È una grandezza che assume valori nell’intervallo [-1, +1] e si 
calcola con la seguente formula: 
 
  
 
        
 
 
 
 
 
Un risultato di ρ = 0 indica che i due titoli sono incorrelati tra loro. È bene specificare che ciò non 
implica l’indipendenza, pertanto potrebbero esserci in ogni caso legami non lineari tra essi. 
Se ρ = 1 i titoli sono perfettamente correlati, nel senso che presentano medesime fluttuazioni nel 
tempo. Infine, un ρ = -1 indica che vi è correlazione negativa perfetta, nel senso che gli andamenti nel 
tempo sono esattamente speculari. 
Di notevole interesse è l’interpretazione geometrica del coefficiente  
  
. Se esprimiamo x e y come 
due vettori     
 
    
 
  e     
 
    
 
  che rappresentano le coordinate di due punti nello 
spazio  
 
, allora ρ misura il coseno dell’angolo tra i due vettori. Nel momento in cui ρ = 0, significa 
che i punti sono ortogonali rispetto all’origine. Per ulteriori approfondimenti si veda Piccolo (2010). 
10
 Conoscendo il vettore ϭ delle deviazioni standard e la matrice ρ delle correlazioni, è possibile 
calcolare V tramite il loro rapporto, nel modo seguente: 
                    
In cui diag(ϭ) è una matrice diagonale contenente i valori del vettore ϭ:
17 
 
  
 
 
 
 
 
 
 
  
 
  
  
  
  
  
 
  
 
  
  
  
  
  
      
 
  
 
  
  
  
  
  
      
 
  
 
  
  
  
  
   
 
 
 
 
 
 
 
V è una matrice simmetrica di dimensione n x n che presenta sulla diagonale 
le varianze
11
 degli asset del portafoglio, mentre al di fuori della diagonale vi 
sono i termini di covarianza. 
 
Dati questi parametri di input, l’ottimizzazione restituisce il vettore dei pesi assegnati 
ad ogni attività finanziaria sul totale, calcolato come allocazione ottimale: 
 
  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sotto la condizione fondamentale: 
 
  
 
 
   
   
 
Una volta ottenute le stime di questi                parametri si può 
procedere con il calcolo degli indicatori di portafoglio: 
 
                     
 
    
 
    
 
 
 
   
 
 
Analogamente, in termini matriciali: 
 
                                                 
11
 Ricordiamo che Cov(x,x) = Var(x), quindi  
  
  
 
 
. Inoltre, la matrice è simmetrica in quanto 
 
  
  
  
.
18 
 
   
 
   
 
   
 
Ed anche: 
                            
 
     
 
 
 
 
 
 
 
 
  
 
   
 
   
     
 
 
 
 
  
 
   
 
   
 
 
 
 
   
 
     
 
Tramite questo processo, e data l’assunzione di attività perfettamente divisibili, 
possiamo arrivare a costruire un insieme infinito di portafogli dalle composizioni 
diverse. Ognuno di essi presenterà valori propri di rendimento e rischio attesi, 
determinando la natura eterogenea dell’insieme. 
Data la definizione delle preferenze dell’investitore vista inizialmente, il set di 
possibili portafogli tra cui l’investitore può scegliere, è dato dai portafogli dominanti, 
ossia quelli che presentano rendimento massimo per ogni dato livello di rischio 
(oppure, analogamente, presentano rischio minimo per ogni dato livello di 
rendimento). Tale insieme vincolato è indicato come frontiera efficiente. 
Si può facilmente ottenere una rappresentazione grafica della frontiera efficiente. Per 
fare questo considererò un esempio di combinazione di due titoli rischiosi, in un 
contesto di vendite allo scoperto non permesse
12
. 
Indichiamo con: 
 
  
 
 e  
 
 le percentuali del portafoglio investite rispettivamente nel titolo A e 
nel titolo B. Si ipotizza di investire tutta la ricchezza disponibile, di 
conseguenza:  
 
  
 
  , oppure  
 
    
 
; 
 
  
 
 
 e  
 
 
 i rendimenti attesi delle attività A e B. 
 
È immediato calcolare il rendimento atteso del portafoglio nel seguente modo: 
                                                 
12
 Si può facilmente estendere il discorso ad un contesto in cui le vendite allo scoperto sono ammesse, 
ma, data la natura puramente esemplificativa del discorso, non lo tratterò. Per il caso di vendite allo 
scoperto permesse si veda, ad esempio, Elton et al. (2007).
19 
 
 
 
  
 
 
 
 
  
 
 
 
 
  
 
 
 
 
     
 
  
 
 
 
 
E la deviazione standard di portafoglio: 
 
 
 
   
 
 
 
 
 
  
 
 
 
 
 
   
 
 
 
 
  
   
 
 
 
 
 
     
 
 
 
 
 
 
   
 
    
 
  
  
 
 
Ricordando che  
  
  
  
  
 
 
 
 si sostituisce nella formula: 
 
 
 
   
 
 
 
 
 
     
 
 
 
 
 
 
   
 
    
 
  
  
 
 
 
 
 
 
È possibile notare che il parametro che incide in modo fondamentale su  
 
 è proprio 
 
  
. Se supponiamo che le attività siano perfettamente correlate (ρ = 1) otterremo il 
rischio di portafoglio come combinazione lineare del rischio di A e del rischio B, in 
quanto il termine sotto radice diventa un quadrato di binomio: 
 
 
 
    
 
 
 
     
 
  
 
 
 
  
 
 
 
     
 
  
 
 
 
In questo caso le combinazioni delle due attività giacciono su una linea retta (fig. 
1.1), e non si ricava alcun beneficio dalla diversificazione. 
Al contrario, se consideriamo un coefficiente di correlazione perfettamente negativo 
(ρ = -1), si ottiene una delle seguenti espressioni: 
 
 
 
    
 
 
 
     
 
  
 
 
 
  
 
 
 
     
 
  
 
 
 
 
     
 
 
 
     
 
  
 
 
 
   
 
 
 
     
 
  
 
 
 
Esse danno luogo a due linee rette sul piano rendimento-rischio di portafoglio (fig. 
1.1), una per ogni equazione. 
Tutte le possibili combinazioni tra i titoli, quando è presente un grado di correlazione 
intermedio tra gli estremi visti in precedenza, ossia -1 < ρ < +1, generano la frontiera 
efficiente. Graficamente essa è rappresentata da una curva concava, che va da un