4
I IN NT TR RO OD DU UZ ZI IO ON NE E  
 
Il presente lavoro affronta il tema dello sviluppo dei modelli di score. In particolare 
vengono richiamati velocemente, i principi generali che riguardano le tecniche 
statistiche normalmente utilizzate in letteratura e ampliamente condivise, 
soffermandosi su particolari criticità che possono sorgere in fase di applicazione del 
modello.  
 
Le problematiche a cui si fa riferimento riguardano le difficoltà nel poter introdurre 
nella scorecard determinate variabili – comunemente note come policy rules o 
vincoli di credito – di tipo dicotomico, che hanno lo svantaggio di essere fortemente 
correlate tra di loro e anche per questo motivo non idonee ad essere delle valide 
variabili indipendenti di input. 
 
Viene quindi proposto l’utilizzo dell’Analisi delle Componenti Principali (ACP) per 
non perdere il capitale informativo presente nelle policy rules. Questa tecnica, che 
sfrutta l’algebra delle matrici (quindi parliamo di una tecnica matematica) ha la 
peculiarità di sintetizzare e semplificare il set di variabili mantenendo inalterata (o 
quasi) la varianza spiegata, sfruttare le correlazioni esistenti (tramutando lo 
svantaggio in vantaggio) per creare delle variabili latenti indipendenti e quindi 
idonee ad essere introdotte in una regressione logistica. 
 
L’idea dell’analisi in componenti principali nella sua funzione di sintesi nasce sul 
finire dell’800 quando, su indicazione del Ministero degli Interni britannico il quale 
era alla ricerca di una soluzione per individuare i potenziali criminali partendo da 
caratteristiche antropometriche, Galton
1
 si pose il problema di ridurre il numero delle 
misure  rilevate ai criminali, giudicate ridondanti
2
.  
                                                 
1
 Sir Francis Galton (Sparkbrook - Birmingham, 16 febbraio 1822 – Haslemere, 17 gennaio 1911) è 
stato un esploratore, antropologo e climatologo britannico e patrocinatore dell'eugenetica, termine da 
lui creato. Oltre a tale parola, ha lasciato alla scienza anche termini come anticiclone – in quanto si 
interessava anche di meteorologia – e regressione e correlazione. Contribuì all'affermazione di diverse 
discipline sperimentali, tra cui la psicometria (fonte Wikipedia). 
2
 Nel porsi questo problema, Galton non fa che applicare un suo orientamento generale: “L’oggetto 
della scienza statistica è la scoperta di metodi per condensare vasti gruppi di fatti omogenei in brevi e 
concise espressioni atte alla discussione”.
5
Il suo collega Edgeworth
1
 (1893) risolve il problema calcolando tre “funzioni lineari 
ortogonali” delle variabili antropometriche (oggi diremmo “componenti” appunto); 
quindi sviluppa l’originaria idea di Galton in direzione della sintesi come funzione 
della (futura) acp. 
Tuttavia l’idea si sarebbe potuta sviluppare in un’altra direzione, cioè verso una 
scelta di alcune delle misure antropometriche come indicatori piø validi della 
propensione a delinquere. Il fatto è che alla fine dell’800 il concetto di indicatore era 
assai poco usato e il concetto di validità era ancora di là da venire. 
Ciononostante Spearman
2
 agli inizi del ‘900 ha in mente qualcosa di simile a un 
complesso di indicatori quando si propone di mostrare che i risultati che i soggetti 
ottengono in alcuni tests di discriminazione sensoriale, così come i loro punteggi in 
piø tradizionali prove scolastiche, sono tutte manifestazioni di un unico fattore “g” 
(general intelligence). 
La differenza tra Galton-Edgeworth da una parte e Spearman dall’altra è evidente: i 
primi lavorano una serie di variabili già raccolte dal Ministero degli Interni e ne 
propongono una sintesi; il secondo ha in mente un concetto generale e intende 
mostrare che una serie di variabili specifiche possono essere ricondotte ad esso. Non 
a caso Spearman intitolò General Intelligence Objectively Determined and Measured 
il suo celebre articolo del 1904, unanimemente riconosciuto come l’atto di nascita 
dell’analisi fattoriale. L’accento non era sulla sintesi, e nemmeno sulla nuova tecnica 
che vedeva la luce, ma sul concetto. 
 
Quello che mi sono proposto di fare è stato cogliere tali metodi, perlopiø utilizzati da 
statistici filo-sociologi, antropologi, politologi e “sintetizzare la varianza” delle 
informazioni creditizie al fine di valutare il merito di credito dei soggetti richiedenti. 
 
 
                                                 
1
 Francis Ysidro Edgeworth (Edgeworthstown, 8 febbraio 1845 – Oxford, 13 febbraio 1926) è stato un 
matematico ed economista britannico, che appartenne alla corrente di pensiero chiamata 
marginalismo. 
2
 Charles Edward Spearman (Londra, 10 settembre 1863 – Londra, 7 settembre 1945) è stato uno 
psicologo e statistico britannico.
6
  
  
  
  
  
C CA AP PI IT TO OL LO O  I I  
I I  M MO OD DE EL LL LI I  D DI I  S SC CO OR RE E  
 
 
1.1 Descrizione di un modello di score  
Nel mondo del rischio di credito sono oramai di ampia diffusione i modelli di score, 
in quanto permettono di rendere oggettiva una misurazione di rischiosità che 
altrimenti sarebbe confinata alla soggettività dell’impiegato di Banca. 
¨ proprio da quest’ultimo punto che può nascere un dibattito che mette in 
contrapposizione l’esigenza di “efficienza oggettiva” da una parte e la 
deprofessionalizzazione della figura dell’impiegato dall’altra.  
Dedico ancora qualche riga su questo aspetto poichØ lavorando nel mondo del credito 
da oltre 15 anni ho vissuto all’inizio della mia carriera lavorativa, iniziata come 
operatore di delibera, la sensazione di inutilità o addirittura di “catena di montaggio” 
nei confronti del lavoro di istruttoria finanziamenti. 
Ecco, ora mi ritrovo dall’altro lato, lavoro sempre nel mondo del Credito ma mi 
occupo di Data Analysis – lavoro che considero altamente professionalizzante – e tra 
le altre cose sviluppo modelli di score per i miei colleghi che lavorano in delibera. 
Chiariamo sin da subito una cosa fondamentale, i modelli di score non sono 
infallibili, ma commettono errori.  
Il vantaggio consiste nel fatto che l’errore è in qualche misura quantificabile, mi 
riferisco in realtà agli errori di secondo tipo (falso negativo) e di primo tipo (falso 
positivo) quest’ultimo noto a priori (con un certo livello di confidenza) e 
riconducibile nella forma della Probabilità.
7
Esiste tuttavia il “Modelling Risk” e cioè l’eventualità che il modello sia errato; 
in merito a questa questione è stata prodotta molta letteratura, un’indagine di 
McKinsey & Company per esempio ha tentato di affrontare la questione partendo 
dalla ricerca delle motivazioni per cui gli strumenti sofisticati di gestione del rischio 
non siano riusciti a prevedere la crisi del 2008 o almeno a salvaguardare le istituzioni 
finanziarie precipitate invece in un vero e proprio baratro. Dirigenti, azionisti ed 
esperti di rischio in generale hanno a lungo dibattuto sul tema arrivando ad una 
importante quanto inquietante conclusione: i manager hanno fatto troppo affidamento 
sui modelli che in realtà sono risultati miopi e l’atteggiamento generale è stato di 
leggerezza in un contesto peraltro caratterizzato da bassa conoscenza degli strumenti 
stessi. La leggerezza piø grande è stata senza dubbio quella di spostare l’attenzione 
sul ritorno dei rendimenti piuttosto che sulla gestione del rischio. L’indagine 
prosegue sostenendo che la crisi dovrebbe aver insegnato agli operatori del settore 
che nulla può sostituire il giudizio umano nella valutazione del rischio nei momenti 
buoni quanto in quelli meno favorevoli. I dirigenti devono recepire in maniera 
approfondita i rischi legati alla loro attività per questo motivo, McKinsey & 
Company ha implementato, come best practice, già dal 2011 un nuovo paradigma di 
rischio con i clienti piø importanti, per supportare il loro posizionamento di medio 
termine e le decisioni strategiche in circostanze straordinarie. Questo approccio 
olistico al rischio è costruito attorno a cinque principali elementi: 
 Maggiore trasparenza e comprensione nella modellazione del rischio; 
 Una chiara decisione su quali tipi di rischio assumersi e quali trasferire o 
mitigare; 
 La creazione di un’apposita organizzazione e processi che aiutino l’azienda a 
superare le eventuali resistenze alla proattività nei confronti della mitigazione 
del rischio; 
 Lo sviluppo di una vera cultura del rischio; 
 Un nuovo approccio alla regolamentazione.
8
Questo lavoro farà riferimento sostanzialmente ai modelli di score di accettazione, 
fruibili quindi per decidere se accettare o rifiutare una richiesta di finanziamento, 
tuttavia i modelli di score sono utilizzati anche in ambito andamentale lavorando 
quindi sulla clientela già acquisita per valutare il deterioramento progressivo del 
merito creditizio e poter stabilire, per esempio, una determinata quota di 
accantonamento al fondo rischio crediti in bilancio (rettifiche ai crediti).  
 
I modelli di score di accettazione sono molto piø diffusi sui finanziamenti small 
ticket, quindi nella branca del credito al consumo, questo perchØ permettono velocità 
di risposta e lavorano in un terreno a loro congeniale cioè sulla quantità. 
Nei finanziamenti di piccolo taglio i modelli lavorano nella quasi totalità in 
autonomia, senza quindi che nessun operatore visioni la singola richiesta
1
. Un 
modello di score chiamato a decidere su una richiesta di mutuo immobiliare assume 
invece un’importanza decisamente inferiore. 
 
                                                 
1
 In alcuni particolari prodotti, come il prestito alla grande distribuzione o il finanziamento per 
l’abbonamento in palestra, si raggiungono livelli di delibera automatica sino all’80-90%.