Skip to content

Algoritmi per gli alberi decisionali

- CART – Classification and Regression Trees (Breiman e altri, 1984)
Permette solo ramificazioni binarie, ma considera variabili antecedenti anche quantitative. La stessa variabile antecedente può essere utilizzata più volte in livelli differenti dell’albero (di particolare interesse per le numerose implementazioni commerciali e varianti).
- CHAID – Chi-square Automatic Interaction Detection (Kass, 1989)
Permette ramificazioni multiple, ma utilizza solo predittori qualitativi ovvero quantitativi riclassificati in categorie.
- C4.5
Costruisce alberi a partire da un set di dati di training sulla base dei concetti di entropia e guadagno di informazione (è un’evoluzione dell’algoritmo ID3 di Quinlan, pubblicato nel 1986 ed è ancora uno dei più diffusi).
- SLIQ – Supervised Learning In Quest (nome in codice di un progetto IBM di data mining)
Più recente, le tecniche su cui si basa consentono di trattare, con ottimi livelli di performance, grandi data set con un elevato numero di classi, attributi e osservazioni.
- SPRINT
Analogamente a SLIQ è stato sviluppato per trattare, con ottimi livelli di performance, grandi data set residenti su disco. Utilizza tecniche di elaborazione parallela per garantire prestazioni ottimali.

Valuta questi appunti:

Continua a leggere:

Per approfondire questo argomento, consulta le Tesi:

Puoi scaricare gratuitamente questo appunto in versione integrale.