5 
 
Introduzione 
  Oggigiorno, l’approccio più utilizzato dalla maggior parte delle società che producono ampi 
database del territorio all’interno dei progetti GIS (Sistemi Informativi Territoriali) nella 
generazione di modelli digitali del terreno (DTM), consiste nell’acquisire dati, da digitalizzare 
ed analizzare, a partire dalle curve di livello di una carta topografica. Le ragioni di questa 
modalità di procedere sono principalmente funzionali ed economiche. In molti paesi, infatti, 
sono disponibili carte topografiche dettagliate e di recente produzione. Sfruttando tecnologie che 
permettono la scansione automatica e il passaggio in formato vettoriale di tali carte, le curve di 
livello possono essere digitalizzate, con costi ridotti, ed utilizzate come dati di partenza per la 
realizzazione di un DTM. Il grado di precisione con cui tali curve di livello rappresentino la 
reale morfologia del terreno varia sensibilmente in funzione di numerosi fattori, quali la qualità e 
la scala delle fotografie aeree, la precisione del dispositivo fotogrammetrico utilizzato e 
dall’abilità dell’operatore, che sono difficili e costosi da valutare; questi tre fattori possono 
variare sensibilmente da una carta all’altra e persino all’interno della carta stessa. Nessun altro 
dato, come la presenza di cigli o punti di quota, viene generalmente sfruttato né per migliorare la 
precisione né per valutare l’affidabilità del modello. Tali dati supplementari, utili per migliorare 
le prestazioni di un struttura TIN e, in minor misura, di una griglia, sono costosi o difficili da 
acquisire nel caso di ampie regioni. Perciò sia le aziende pubbliche che private, coinvolte nella 
realizzazione dei DTM, non investono ulteriori risorse per averli a disposizione. Attraverso la 
creazione di DTM da queste curve di livello, dunque, i dati di partenza sono già di per se 
degradati, indipendentemente dall’efficacia dell’algoritmo scelto per generare i DTM. Pertanto, 
è necessario investire nella ricerca e nello sviluppo di nuovi approcci per l’acquisizione, 
memorizzazione ed analisi automatizzata dei rilievi. In questa direzione, nel Luglio del 2007 a 
Roma è stato presentato, dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare, il 
Piano straordinario di telerilevamento ambientale ad alta precisione per le aree ad alto rischio 
idrogeologico: l’obiettivo del Piano Straordinario è quello di avviare, per la prima volta, la 
costituzione di una Database rappresentativo del territorio Nazionale, con particolare riguardo 
alla sua configurazione, al suo rapporto con l’ambiente; un database ad altissima risoluzione, e 
ad elevato valore aggiunto, da ottenersi tramite l’utilizzo delle tecnologie più evolute che le 
piattaforme satellitari e su aeromobili rendono attualmente disponibili, che dovrà rappresentare 
un valido contributo alle attività di governo del territorio, supportando in particolare le attività di 
topografia, cartografia e fotogrammetria numerica, i modelli digitali del terreno, i Sistemi 
Informativi Territoriali e, soprattutto, i Sistemi Informativi di Supporto alle decisioni. I DTM
6 
 
vengono inoltre prodotti a partire dall’analisi fotogrammetrica tradizionale, attraverso rilievi 
aero-fotogrammetrici o tramite l’elaborazione digitale di dati aereo/satellitari utilizzando sistemi 
di correlazione delle immagini. Per quanto concerne questi ultimi approcci, dato che la 
precisione dei DTM ottenuti tramite l’uso di queste nuove tecniche non è ancora 
dettagliatamente documentata, il loro potenziale va testato in relazione all’area che si sta 
esaminando. In alcune ricerche, comunque, sono stati estratti DTM attraverso l’analisi di 
fotografie aeree utilizzando un sistema fotogrammetrico: dal confronto di tali modelli con i 
DTM generati attraverso tecniche tradizionali sembra che il DTM ottenuto dall’analisi delle 
fotografie aeree riproduca più fedelmente la maggior parte della superficie esaminata; tale 
processo è però soggetto ad errori locali grossolani nelle zone in cui vi sono abitazioni o altre 
strutture artificiali, i pendii sono molto ripidi, il terreno è ricoperto da una fitta vegetazione, 
alcune zone fotografate vengono nascoste dalle ombre, e necessita ancora di essere sviluppato e 
raffinato.                                                                                                                                                
  Ad ogni modo, oggi molte Regioni fanno uso principalmente delle mappe a curve di livello 
come fonte di dati per la generazione di DTM di ampie regioni, ed è perciò importante riuscire a 
valutare la qualità e le prestazioni offerte dai metodi usati per l’acquisizione, la memorizzazione 
ed il trattamento dei dati di aree più o meno estese. Questi possono essere raggruppati in quattro 
approcci base: curve di livello, profili, griglie regolari (raster), e TIN (trianguled irregular 
network). Ognuno di essi presenta vantaggi e difetti, e il rispettivo campo di applicazione di ogni 
approccio dipende principalmente da come vengono raccolti e conservati i dati. Le curve di 
livello, che sono per lo più usate dai cartografi per descrivere i rilievi, ed i profili, derivano da 
analisi fotogrammetriche di fotografie aeree. A causa della loro struttura, entrambi gli approcci 
non sono tuttavia adeguati per un analisi automatizzata della morfologia del suolo. Anche 
l’estrapolazione di mappe che mostrano i pendii o i rilievi, mediante ombreggiatura, a partire 
dalle curve di livello è un operazione piuttosto complicata. Le griglie, che sono l’approccio più 
usato per memorizzare ed analizzare i dati all’interno di un GIS, derivano, generalmente, dalla 
digitalizzazione delle curve di livello di una carta topografica o, più di recente, direttamente da 
processi automatizzati di dati aerei/satellitari attraverso tecniche di correlazione di immagini 
digitali. Agilmente elaborabili e facilmente integrabili con altre tipologie di dati tramite 
operazioni matriciali, presentano però anisotropia dell’informazione altimetrica secondo le otto 
direzioni spaziali della griglia. Più di recente, a causa della scarsa efficienza in termini di 
memoria richiesta e precisione di DTM raster, le griglie sono state messe in discussione a 
vantaggio delle strutture TIN, che sono generalmente ottenute dalla digitalizzazione di curve di
7 
 
livello o da dati di quote distribuiti in maniera irregolare. Esse offrono inoltre la possibilità di 
incorporare nel modello altimetrico informazioni ausiliarie (impluvi, displuvi, discontinuità 
morfologiche, ecc.). 
  Sono stati proposti vari metodi per effettuare una valutazione “quali - quantitativa” di un DTM 
e in ciascuno di essi vengono solitamente forniti dei parametri osservabili, e dunque oggettivi, 
che indicano quanto fedelmente il modello riproduca la morfologia del suolo così come è 
espressa dai dati di input (curve di livello, punti di quota, ecc..). Alcuni studiosi hanno provato 
anche a confrontare statisticamente i valori di quota calcolati o interpolati dai vari algoritmi con 
la superficie reale del terreno ottenuta attraverso dettagliate analisi fotogrammetriche o 
attraverso indagini sul campo. Ulteriori stime della qualità di un DTM consistono, poi, nell’ 
ispezione visiva o attraverso strumenti di rendering del territorio modellato, come ad esempio le 
mappe a rilievi ombreggiati, o altre tecniche simili. In breve, i parametri che vengono usati nella 
stima della qualità dei DTM possono essere riassunti come segue: 
a) in corrispondenza delle curve di livello originali i valori del DTM devono coincidere (o 
discostarsi di un valore inferiore al 5% dell’equidistanza) con la quota delle medesime;  
 b)  nello spazio compreso tra ogni coppia di isoipse i valori del DTM devono quantomeno ricadere     
      nell’intervallo altimetrico definito dalla coppia;  
 c)  sempre nello spazio di cui sopra, i valori del DTM devono variare linearmente tra le quote della           
      coppia;  
 d)  in aree a bassa informazione altimetrica, quali ampie spianate vallive o dossi estesi, i valori del  
      DTM devono riflettere in modo verosimile la probabile conformazione morfologica delle   
      medesime;  
e)  le distribuzioni di quote del DTM che definiscono conformazioni morfologiche irrealistiche       
     (artefatti) devono essere limitate a meno dello 0.1 – 0.2% dei dati.  
  Le prime due condizioni si basano sull’assunzione che il DTM derivato dalle isoipse digitali 
originali, dovrà riprodurle con sufficiente accuratezza a meno dell’incertezza spaziale dovuta 
alla dimensione della cella del raster. È quindi possibile calcolare un indice di qualità basato 
sulla costruzione di un buffer intorno alle isoipse originali di ampiezza pari alla dimensione della 
cella del raster, che rappresenta lo scostamento massimo accettato tra le curve originali 
(generatrici del DTM) e quelle calcolate (generate dal DTM). I vettori rigenerati dovrebbero 
ricadere entro l’area di buffer; se sono esterni ad essa la tagliano e creano dei poligoni di errore. 
La sommatoria di tutti i poligoni di errore e la sua normalizzazione tramite divisione per l’area 
totale di buffer, dovrebbe essere contenuta sotto la soglia del 5%. Il fatto che sia ammesso uno
8 
 
scarto tra il valore calcolato dal DTM e quello riportato sulle curve di livello, che varia in 
funzione della distanza tra due curve di livello successive (equidistanza) della carta usata come 
input, deriva dal fatto che l’equidistanza in genere esprime la precisione della mappa meglio di 
qualunque altra caratteristica, come ad esempio la scala. Per quanto riguarda il fatto che la quota 
vari linearmente tra due curve di livello è interessante notare che tale criterio non è valido in 
ogni circostanza: se si presentano versanti concavi o convessi è possibile che i profili non siano 
rettilinei. Comunque, la forma di un pendio può essere adeguatamente approssimata attraverso 
dei segmenti delimitati da una coppia di curve di livello. Senza ulteriori informazioni, tale 
approssimazione è la più ragionevole persino per versanti con pendenze dolci, fondovalle o cime 
di rilievi che sono, rispettivamente, superfici concave e convesse. Il quarto parametro è il più 
difficile da valutare. Esso si basa su un confronto soggettivo (è quindi richiesto un osservatore 
esperto) tra l’assetto morfologico ipotizzato dal DTM creato e la conformazione altimetrica, 
generalmente dedotta dal modello spaziale ricavato dalle curve di livello in input che può, 
dunque, essere affetto da vari errori. La quinta condizione è apparentemente la più semplice da 
verificare, anche se piccoli artefatti possono essere rilevati solo tramite le tecniche di rendering 
che consentono un facile rilevamento dei principali artefatti; altri metodi, infatti, richiederebbero 
un controllo molto più attento dei parametri statistici legati alla funzione di distribuzione delle 
quote, o l’analisi delle quote ricavate che sono molto suscettibili ad un modello irrealistico. 
Chiaramente, il valore soglia associato agli artefatti trova una migliore applicazione quando il 
data set è piuttosto ampio. E ancora, vi sono due casi in cui gli artefatti sono più semplici da 
verificare: le aree ad elevata o bassa densità di curve di livello. Nel primo caso essi possono 
essere rilevati tramite i parametri (a), (b) e (c). Nel secondo caso, solo un ispezione visiva 
permette di valutare la verosimiglianza del DTM col terreno indagato. Inoltre, va ricordato che i 
suddetti parametri possono essere applicati correttamente quando la risoluzione (dimensione 
della cella) è comparabile alla distanza tra una coppia di curve di livello della carta usata per 
creare il DTM. 
  Il 29 Aprile 2001 l’Intesa Stato – Regioni ha previsto la definizione di prescrizioni tecniche 
comuni da adottarsi nella produzione dei modelli digitali del terreno: queste specifiche, che 
definiscono anzitutto i requisiti di un  modello digitale del terreno, prendono in esame le diverse 
tecniche di produzione e, in particolare, l’impiego di dati altimetrici esistenti (tra cui le mappe a 
curve di livello) e forniscono precise indicazioni sulle specifiche da adottare nella produzione 
dei modelli e una stima degli errori in relazione alla qualità dei dati di partenza.
9 
 
  Nel presente elaborato verranno dunque presentate le due principali strutture (GRID e TIN) 
utilizzate per la generazione di un DTM a partire da curve di livello e verrà valutata, applicando 
i criteri sopraesposti, la qualità di tre DTM, ottenuti dal software WinRoad riferiti a tre differenti 
aree campione: la prima si trova nella città di Ascoli Piceno, la seconda nella frazione di Isola 
San Biagio (Comune di Montemonaco, Provincia di Ascoli Piceno) e la terza all’interno delle 
province di Novara e Vercelli. Per ogni modello, infine, si cercherà di dare una stima della 
precisione altimetrica, che verrà poi confrontata con quanto riportato nell’Intesa Stato – Regioni, 
e in relazione ad essa si cercherà di individuare i possibili campi di applicazione di tali modelli.
10
11 
 
1. I DTM 
 
1.1 Premessa 
  Sono note ormai da molto tempo le potenzialità dei DTM nella risoluzione di un ampio spettro 
di problemi teorici ed applicativi. Tuttavia, sono all’inizio degli anni ’80 la tecnologia ha 
permesso di acquisire, elaborare ed esporre in modo efficiente e con costi contenuti i dati in 
input attraverso sofisticati hardware e software capaci di manipolare con grande facilità un 
enorme quantità di dati. Allo stato attuale, i DTM sono sistematicamente sfruttati per una ampia 
gamma di applicazioni ingegneristiche e di pianificazione, quali la bonifica del territorio, il 
calcolo dei volumi di sterro e di riporto nei lavori di terra, l’ottimizzazione della scelta del luogo 
di installazione di stazioni radio attraverso l’analisi dell’intervisibilità, e, più di recente, la 
determinazione di potenziali zone a rischio di allagamento o di altri importantissimi parametri 
geomorfologici. Per questi motivi, oggigiorno i DTM costituiscono un fondamentale elemento 
dei database geografici 2D o 3D. Come già detto, i metodi utilizzati per l’acquisizione, la 
memorizzazione e il trattamento dei dati di aree più o meno estese possono essere raggruppati in 
quattro approcci base: curve di livello, profili, griglie regolari (raster), e TIN (trianguled 
irregular network). In letteratura, i vantaggi e gli inconvenienti di ogni struttura sono stati 
accuratamente discussi; d’altro canto, l’accuratezza dei modelli numerici del terreno generati da 
tecniche fotogrammetriche tradizionali viene studiata già da lungo tempo. Viceversa, pochi 
autori hanno tentato di valutare l’affidabilità di un modello del terreno attraverso il trattamento 
dell’immagine, tecniche statistiche o confrontando le curve di livello derivate dal DTM con 
quelle di partenza usando dei parametri standard. Quest’elaborato vuole essere parte della ricerca 
sull’affidabilità di un DTM generato a partire dalle curve di livello. Innanzitutto vengono 
presentate le strutture TIN e griglia, che attualmente sono le più utilizzate all’interno dei GIS, e 
tramite alcuni parametri, per la valutazione della qualità dei DTM ottenuti attraverso la 
digitalizzazione di curve di livello che coprono ampie regioni o interi paesi, si cerca di valutarne 
l’efficienza attraverso delle applicazioni. Verranno prodotti dei DTM, sia in formato GRID che 
TIN, di tre aree campione caratterizzate da un assetto morfologico piuttosto comune in Italia. 
Infine verranno confrontate le precisioni dei DTM generati con quelle riportate nell’Intesa Stato-
Regioni. Per generare una griglia DTM a partire da curve di livello digitali, sono stati proposti e 
sviluppati una grande varietà di algoritmi di interpolazione. Alcuni sono quelli usuali (media
12 
 
mobile ponderata, splines bi- cubiche, kriging, elementi finiti), in cui si prendono in 
considerazione gli aumenti misurati come un gruppo di osservazioni distribuite in modo casuale. 
Altri metodi possono essere considerati specifici per le curve di livello per via del loro tentativo 
di sfruttare le proprietà morfologiche e topologiche dell’area in esame. Attualmente molti DEM 
(digital elevation model) sono generati usando strutture TIN, dove il problema principale non sta 
nell’efficienza della tecnica di interpolazione ma nella scelta della rete di triangoli i cui nodi 
rispecchino al meglio la reale morfologia del terreno esaminato. Di recente, la maggior parte dei 
GIS incorpora di routine, per la produzione di DTM a partire dalle curve di livello o da punti di 
quota, sia il formato Grid (raster) che TIN. Di solito, i produttori dei GIS sostengono che i loro 
algoritmi siano molto efficienti ma spesso non forniscono alcuna prova evidente di tale 
efficienza. Seppur con qualche eccezione, tale tematica ha ricevuto poca attenzione da parte 
della comunità di ricerca e come risultato, la maggior parte dei DTM che vengono generati 
all’interno dei GIS presentano molti vantaggi ma anche molte insidie. Vantaggi in quanto i vari i 
dati forniti dal modello facilmente integrabili con tutti gli altri dati memorizzati nel database 
geografico. Le insidie si celano dietro alle informazioni sulla capacità degli algoritmi di lavorare 
nelle più svariate condizioni morfologiche. Prima di confrontare i DTM generati da una griglia e 
una struttura TIN utilizzando i criteri visti in precedenza, è utile descrivere, in breve, cos’è un 
DTM e quali sono le strutture più utilizzate. 
 
1.2 Cos’è un DTM? 
  La superficie terrestre è un oggetto continuo; per creare un modello esatto di tale superficie 
sarebbe quindi necessario avere a disposizione un numero di punti infinito; ciò richiederebbe una 
memoria dati infinita, caratteristica che nessun sistema digitale può, e potrà, mai possedere. 
Perciò, l’obiettivo di chi crea un modello digitale del terreno è quello di rappresentare una 
superficie continua attraverso una quantità di dati finita. I modelli digitali del terreno sono nati 
allo scopo di soddisfare questa esigenza. La creazione di modelli digitali del terreno è di recente 
sviluppo, e la comparsa del termine Modelli Digitali del Terreno (DTM) è da attribuirsi a due 
ingegneri del Massachussets Institute of Technology (MIT) alla fine degli anni cinquanta. Essi 
stessi hanno definito il DTM come “una semplice rappresentazione statistica della superficie 
continua del suolo attraverso un ampio numero di punti selezionati, di cui sono note le 
coordinate (x, y, z), in un arbitrario sistema di riferimento”. Nello specifico, il loro primo lavoro 
fu di definire la superficie di un certo terreno attraverso l’utilizzo di dati accuratamente
13 
 
selezionati. Da allora sono stati introdotti ulteriori termini, quali Digital Elevation Model 
(DEM), Digital Height Model (DHM), Digital Ground Model (DGM) e Digital Terrain 
Elevation Data (DTED), per descrivere la suddetta operazione ed altre applicazioni ad essa 
connesse. Sebbene nella pratica questi termini vengono considerati sinonimi, in verità spesso e 
volentieri essi sono riferiti a differenti applicazioni. Sembra dunque opportuno fare chiarezza sul 
significato dei suddetti termini. Visionando vari dizionari tecnici si riscontrano una moltitudine 
di definizioni e significati per le parole ed i termini usati nella modellazione digitale del terreno. 
Per esempio, il suolo viene definito come “la superficie solida della Terra”, “la superficie della 
Terra”, “una porzione della superficie terrestre”, ecc.. Allo stesso modo, l’altezza può assumere 
svariati significati, quali “distanza verso l’alto”, “misurazione dalla base alla cima” o “la 
distanza, in direzione verticale, rispetto al suolo o ad un livello prefissato”. La quota può essere 
definita come “l’altezza rispetto all’orizzonte” o “l’altezza rispetto un livello prefissato, 
generalmente il livello del mare”. Infine, il terreno assume diversi significati, quali “un luogo 
con riferimento alle sue caratteristiche naturali” o “un estensione finita del suolo, di regione, del 
territorio, ecc..”. Sulla base di tali definizioni, si riscontrano alcune differenze tra i termini 
sopracitati: 
- DEM: il termine quota (elevation) mette in evidenza la misurazione delle altezze rispetto un 
livello prefissato e l’altitudine assoluta, o quota, dei punti del modello. Il termine DEM è 
ampiamente utilizzato negli USA ed è riferito, in genere, alla creazione di un insieme di quote, 
normalmente su modelli quadrati o esagonali, del terreno.  
- DHM: è un termine di uso poco comune con significato del tutto uguale al termine DEM, in 
quanto le parole quota ed altezza (height) vengono considerate sinonimi.  
- DGM: questo termine sembra mettere in evidenza il fatto che il modello digitale sia riferito alla 
superficie solida della terra (ground). Perciò, si presume che vi sia una connessione tra gli 
elementi, i quali non vengono più considerati discreti. Tale connessione deriva dal presupposto 
che esista una funzione di interpolazione che può essere utilizzata per creare ogni punto della 
superficie del suolo. Il termine viene molto utilizzato nell’Regno Unito (UK), sebbene ormai è 
stato sostituito dal termine DTM. 
- DTM: è un concetto più complesso rispetto a quelli sopracitati in quanto non include solo le 
quote e le altezze ma anche altre caratteristiche, solitamente riportate nei GIS, quali le sponde 
dei fiumi, cigli, ecc.. Nella sua forma generale, al DTM vengono associati sia i dati planimetrici
14 
 
che altimetrici del terreno.  Inoltre, i DTM possono includere informazioni riguardanti le 
pendenze, la visibilità e così via. 
- DTED: termine utilizzato dal Ministero della Difesa statunitense; descrive essenzialmente i 
dati prodotti tramite un processo di modellazione, sebbene vengano utilizzati specificamente i 
dati di una griglia di base. 
Prima dell’avvento dei modelli digitali, la variabilità, la morfologia e le caratteristiche peculiari 
di un rilievo sono state per lungo tempo rappresentate sulle carte topografiche con curve di 
livello, disegni sfumati, tratteggi e retinature; tutte espressioni grafico-artistiche impiegate per 
evidenziare in maniera sempre più chiara la forma fisica del suolo. Il grande apporto che hanno 
dato i modelli numerici del terreno (DEM o DGM) é stato quello di poter rappresentare 
fedelmente la forma del rilievo, illuminarla secondo direzioni differenti, secondo azimuth ed 
altitudine, poter effettuare modelli tridimensionali per analisi paesaggistiche, calcolare la 
pendenza, l’esposizione, ed altri parametri in maniera semiautomatica e con interessanti risultati. 
Tuttavia soprattutto in ambito ingegneristico, occorre che il DEM sia preciso e corrisponda al 
meglio alla vera forma del terreno,  che le quote utilizzate per la modellazione siano esenti da 
errori, che l’algoritmo di calcolo sia abbastanza “robusto” e prenda in considerazione il maggior 
numero di parametri possibile per caratterizzare il paesaggio, senza considerare che in fase di 
elaborazione, differenti programmi utilizzanti lo stesso set di dati, producono talvolta risultati 
leggermente differenti. E questo solo se si tratta di DEM  creati tramite interpolazione software. 
Parlando di DEM ottenuti tramite tecniche utilizzanti immagini satellitari stereoscopiche le cose 
si complicano, in quanto nel processo di calcolo intervengono fattori che influenzano il valore 
“vero” topografico come la sommità delle abitazioni, la copertura vegetale, ecc... Si parla allora 
più correttamente di DSM (Digital Surface Model), cioè la superficie di inviluppo che si 
comporta come una specie di “lenzuolo” che ricopre tutte le forme emergenti dal suolo, non 
fornendo evidentemente la quota reale riferita al livello del suolo. Pensare, ad esempio, di fare 
calcoli di idrogeologia con modelli del genere rasenta un poco la follia; tuttavia è possibile 
migliorare il prodotto, aggiungendo caratteristiche morfologiche del territorio come corsi 
d’acqua, linee di cresta, bordi di falesia, depressioni, punti quotati, ecc.. ed effettuando 
operazioni di morfologia matematica sul modello stesso. Tutto questo ha come scopo quello di 
ottenere modelli più prossimi alla realtà che possano essere utilizzati a fini di calcolo.