Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
6
Il secondo capitolo verte sul concetto di metadato, analizzando l’importanza dell’estrazione e 
dell’immagazzinamento dei dati primari dai quali poi deriverà la conoscenza vera e propria attraverso 
un lungo processo di elaborazione. 
Nel terzo capitolo vengono presi in considerazione i dati di tipo multimediale, sempre più importanti 
nella cultura moderna, e l’MPEG-7 inteso come strumento per una loro descrizione di alto livello. 
Il quarto capitolo introduce il concetto di Web Semantico ed analizza la sua architettura tralasciando 
elementi fondamentali quali l’XML, l’RDF ed il livello ontologico che sono trattati rispettivamente 
nei capitoli 5, 6 e 7. 
L’ultimo capitolo consiste in una breve introduzione al software Protégé, diventato un 
importantissimo strumento online per la costruzione delle ontologie, e riporta le fasi operative relative 
alla creazione di una semplice ontologia esplicativa. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
7
1. GESTIONE DELLA CONOSCENZA 
 
 
 
"La conoscenza è la trasformazione 
dell'informazione in valore" 
 
 
 
1.1 Introduzione 
 
Rappresentazione, gestione, condivisione e crescita della conoscenza sono i termini che caratterizzano 
le scelte di molti paradigmi computazionali innovativi, che hanno molto in comune con la tradizione 
imprenditoriale, caratterizzata a sua volta da un altissimo livello di creatività. La capacità di creare, 
conservare, gestire e innovare conoscenze di alto valore e la loro messa in azione organizzata, insieme 
ad idee organizzative ad alto impatto innovativo, sono e saranno i fattori su cui si giocheranno nuove 
forme di progresso produttivo. Esaltare la tecnologia in questo processo è una valutazione quasi 
banale: è la conoscenza che oramai fa la differenza. 
In un'azienda, lo sviluppo e il mantenimento di un bene di consumo complesso comporta la 
generazione di una gran quantità di dati che, una volta aggregati ed integrati secondo specifiche 
regole, ne descrivono attività e risultati conseguiti, organizzano la produzione e la logistica e 
supportano la rete commerciale e di assistenza post vendita. La somma di tutte queste attività assume 
la dimensione di informazione, la quale pertanto diventa un elemento base del patrimonio aziendale 
delle conoscenze, a supporto dell’attività decisionale. Unendo a tutto questo le norme, ovvero la 
formalizzazione, sulla base dell’esperienza, di criteri guida nello svolgimento di specifiche attività, 
nasce la conoscenza aziendale (Fig. 1.1 e 1.2) che, debitamente conservata ed organizzata, costituisce 
lo strumento più importante per migliorare l’efficacia e l’efficienza dei processi. 
 
 
 
Fig. 1.1: Fasi della trasformazione dei dati in conoscenza 
 
L’informazione diventa conoscenza solo dopo essere stata processata dalla mente di un individuo. Si 
può inoltre distinguere tra la conoscenza “esplicita”, che può essere catturata e codificata nei manuali, 
nelle procedure e nelle regole, e quindi è facile da diffondere, e quella “tacita”, la quale non può 
essere facilmente articolata, e quindi esiste solo nelle mani e nella mente degli individui. 
Attualmente non è disponibile una risposta unica alla Gestione della Conoscenza, ma esistono 
soluzioni più o meno parziali con sistemi quali: 
 
 ξ  Product/Process Data Management (PDM) - utilizzati nei dipartimenti di ingegneria e 
progettazione delle aziende manifatturiere per controllare il processo di sviluppo attraverso la 
gestione dei risultati prodotti (distinta base, controllo di versioni, ticket di modifica, dati 
CAD/CAM/CAE, gestione del workflow, specifiche, testing,…), al fine di centralizzare e 
potenziare la circolazione delle informazioni e abilitarne la tracciabilità. 
 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
8
 
Fig. 1.2: La conoscenza come risultato della contestualizzazione e dell’interpretazione dei dati 
 
 ξ  Supply Chain Management (SCM) - utilizzati per organizzare e riconfigurare dinamicamente 
la rete dei rifornimenti agli stabilimenti produttivi in funzione della localizzazione, 
disponibilità, capacità e tempi d’approvvigionamento dai singoli fornitori, della fluttuazione 
delle richieste del mercato, … per minimizzare i tempi d’inattività dovuti a mancanza di 
materiale, o i costi di gestione di un magazzino (just in time production). 
 
 ξ  Customer Relationship Management (CRM) - utilizzati dalle grandi aziende per raccogliere 
tutti i dati ritenuti necessari per capire la propria clientela e anticiparne i bisogni, così da 
poter programmare adeguati interventi sulla gamma dei prodotti offerti, sulle capacità di 
produzione, sul marketing e sulle attività di supporto alla vendita. 
 
 ξ  Enterprise Resource Planning (ERP) - utilizzati dalle aziende per meglio gestire e pianificare 
la produzione, l’approvvigionamento, i magazzini, le relazioni con i fornitori e con i clienti, 
gli ordini. 
 
 ξ  Computer Aided Software Engineering (CASE) - utilizzati per la gestione del ciclo di vita di 
un prodotto software (specialmente della sua parte “alta”, ovvero le fasi riguardanti la  
progettazione), attraverso l’uso di formalismi grafici (ad es. UML per l’Object Oriented), 
integrati con tool per la gestione dei requisiti e del testing. 
 
A queste soluzioni occorre aggiungere la miriade di sistemi informativi più o meno sviluppati, ottenuti 
attraverso forti personalizzazioni di sistemi commerciali o ad hoc, che risolvono specifiche 
problematiche proprie delle risorse umane, della gestione della documentazione, della registrazione 
dei risultati di sperimentazione o di utilizzo di particolari apparati, etc. 
Un Knowledge Management System (KMS) è un ambiente integrato che utilizza le tecnologie di 
supporto ai processi di gestione della conoscenza per permettere alle organizzazioni di sfruttarne i 
vantaggi. Un portale è un’applicazione web-based che offre un singolo punto d’accesso a 
informazioni distribuite: è quindi il livello più esterno di una struttura che prevede quattro strati 
funzionali (Fig. 1.3). 
Ognuno dei quattro strati risulta costruito su quello inferiore (Fig. 1.4): 
 
Ö il primo restituisce dati e informazioni; 
 
Ö il secondo restituisce una formalizzazione della conoscenza acquisita; 
 
Ö il terzo offre servizi; 
 
Ö il quarto genera risposte strutturate. 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
9
 
 
Fig. 1.3: Struttura di un KMS 
 
L’obiettivo è il semplice e rapido reperimento delle informazioni d’interesse, ad esempio per: 
 
 ξ  recuperare le esperienze già fatte in occasione di un nuovo precedente sviluppo; 
 
 ξ  modificare/aggiornare prodotti preesistenti; 
 
 ξ  analizzare eventuali malfunzionamenti; 
 
 ξ  confrontare diverse opzioni progettuali; 
 
 ξ  fidelizzare la clientela; 
 
 ξ  valutare i fornitori; 
 
 ξ  programmare campagne pubblicitarie. 
 
 
 
Fig. 1.4: Architettura fisica dei KMS 
 
 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
10
1.2 Il Knowledge Management 
 
La seconda metà degli anni Novanta ha visto l’emergere, nel mondo del business, di un tema per certi 
aspetti già affrontato nel mondo accademico: il sapere come oggetto d’analisi nelle organizzazioni 
economiche (Fig. 1.5), sia attraverso la creazione di un linguaggio manageriale adatto per parlare di 
conoscenza aziendale, sia, e forse soprattutto, creando una serie di presupposti fondamentali per 
l’adozione da parte del management di un nuovo approccio alla gestione d’impresa. 
Nonostante le previsioni ottimistiche degli analisti e le promesse di performance dei consulenti e dei 
software vendors, i sistemi di gestione della conoscenza (Knowledge Management, KM) non si sono 
sempre mostrati all’altezza delle aspettative. Tale considerazione nasce sia dall’esperienza diretta di 
consulenti che operano a livello nazionale e internazionale in aziende che hanno realizzato sistemi di 
KM, sia dall’osservazione indiretta di casi e analisi proposte durante convegni o in report di società 
specializzate. Non si tratta di una dichiarazione formale di un insuccesso, ma di elementi, quali 
l’impossibilità di dimostrare i benefici o la mancata corrispondenza tra le dichiarazioni di intenti e la 
realtà implementativa, che definiscono uno scenario ben diverso da quello atteso. 
 
 
Fig. 1.5: La conoscenza è al centro di tutte le attività primarie di un’organizzazione 
 
Il KM si è configurato come una soluzione a sé stante, alla stregua della Sales Force Automation o del 
Customer Relationship Management. In altri termini, è divenuto uno dei tanti aspetti del mondo 
aziendale su cui il consulente va ad incidere con un intervento di cambiamento valutabile secondo una 
qualche misura di performance. Il consulente disegna e implementa un sistema di gestione della 
conoscenza che dovrebbe migliorare la capacità dell’azienda di produrre e diffondere sapere al proprio 
interno, ottenendo così svariati benefici quali la capacità di adattamento, la gestione degli imprevisti, 
il miglioramento continuo e l’innovazione. 
 Le infrastrutture e i progetti di KM sono generalmente caratterizzati dai seguenti elementi: 
 
 ξ  la creazione di un’infrastruttura di comunicazione (Intranet) diffusa e capillare, per abilitare 
la comunicazione laterale; 
 
 ξ  l’adozione di tool di supporto all’interazione on-line (discussion groups, chat,…), per 
favorire la socializzazione e l’esplicitazione dei saperi taciti delle comunità; 
 
 ξ  la creazione di repository strutturati e condivisi (knowledge bases e enterprise knowledge 
portals), dove l’intelligenza organizzativa raccoglie, organizza e diffonde il sapere esplicitato 
dalle comunità; 
 
 ξ  la nomina di knowledge manager, il cui compito è di facilitare l’interazione comunitaria e 
l’alimentazione delle knowledge base; 
 
 ξ  la creazione di tassonomie o sistemi di categorie aziendali, per rappresentare in maniera 
esplicita il sapere; 
 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
11
 ξ  la generalizzazione dei concetti e la formalizzazione delle rappresentazioni; 
 
 ξ  la personalizzazione e l’integrazione come applicazioni cruciali per il riutilizzo; 
 
 ξ  la creazione di processi di contribuzione, che vedano il singolo membro dell’organizzazione 
esplicitare il suo sapere tacito, principalmente mediante la codificazione del suo contributo 
secondo la tassonomia aziendale. 
 
Tra le conseguenze di questo approccio, vi è l’assunzione da parte del management di considerare il 
KM come la  soluzione ad un problema specifico. Dato quindi il problema di rimanere competitivi in 
un ambiente sempre più mutevole, attraverso l’innovazione sistematica e il miglioramento continuo, e 
intravista la soluzione nell’avviare processi di esplicitazione e diffusione dei saperi taciti, si possono 
trarre le seguenti conclusioni: 
 
1. il sapere è una risorsa che, nel suo stato originale o di natura, è grezza (o implicita), 
e che pertanto va depurata (resa generale e astratta) per poterla poi replicare 
(estrazione di valore); 
 
2. il processo di KM è coerente ai modelli organizzativi e di controllo tradizionali, in 
quanto è gestibile in modo centralizzato (il management organizza il processo di 
estrazione del sapere così come organizza il processo di estrazione del lavoro 
operazionale) e senza alcuna perdita di potere (il sapere, una volta esplicitato, è 
sganciato da chi lo ha prodotto e quindi diventa di proprietà dell’azienda). 
 
Il KM si è spesso concretizzato nella creazione o nell’aggiornamento di grandi intranet aziendali con 
l’aggiunta, a volte marginale, di un qualche sistema o applicazione per la gestione di workflow 
documentali, repository o discussion group. In genere tali sistemi sono diventati “cattedrali nel 
deserto”, trascurati dagli utenti che, nonostante le intenzioni di principio, non ne hanno percepito 
l’utilità. La misurazione delle performances si è rivelata non solo difficile, ma anche basata su criteri 
labili e alquanto discutibili, quali ad esempio il numero dei documenti/contributi presenti, usato come 
misura approssimativa della quantità di sapere prodotta.  
Dalla promessa di un intervento capace di produrre un cambiamento sostanziale nel modo di lavorare 
delle persone, il KM è andato progressivamente svuotandosi dei suoi contenuti più innovativi, 
rivelandosi un intervento puramente tecnologico, seppur mascherato da intervento su aspetti 
organizzativi e sociali. In questo senso, il progetto di KM è divenuto una sorta di alibi per gli IT 
manager, teso a legittimare grandi investimenti tecnologici effettuati con la complicità di consulenti e  
produttori di software, i primi nella convinzione di poter proporre un sensibile cambiamento, i secondi 
nell’illusione che un software potesse incorporare e favorire un modello di cambiamento sostanziale. 
Tali convincimenti, nonostante le previsioni ottimistiche di analisti internazionali, non si sono rivelati 
veritieri.  
 
 
 
1.3 Analisi dei KMS 
 
L’epistemologia descrive i criteri e i processi attraverso i quali si attribuisce un valore di verità ad un 
enunciato, e in base ai quali è legittimo giustificare tale attribuzione. Un’epistemologia oggettivista si 
basa sul presupposto che tali criteri e processi siano indipendenti dal soggetto che esprime tale 
giudizio. Di converso, quella soggettivista deve assumere che i criteri e i processi attraverso i quali si 
attribuisce un giudizio di verità sono dipendenti dal soggetto. In altre parole, il soggetto che produce 
conoscenza contribuisce anche alla produzione dei relativi criteri e processi di verificazione e 
giustificazione. Non ha dunque senso parlare di sapere tout court, ma si deve parlare di vari “saperi” 
che dipendono dai diversi criteri di verificazione e legittimazione prodotti da soggetti differenti. 
Un’epistemologia soggettivista, da un punto di vista collettivo, porta alla descrizione del sapere come 
un qualche cosa di socialmente costruito; come tale esso non solo nasce all’interno dell’esperienza 
sociale, ma è solo all’interno di essa che può esistere. Alcune delle conseguenze più rilevanti di questa 
impostazione sono: 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
12
 ξ  parlare di sapere come categoria astratta non ha senso. Ha senso invece parlare di saperi 
locali, intesi come sistemi differenti di contenuti e di modelli interpretativi atti a 
comprenderli; 
 
 ξ  le comunità possono essere viste come entità sociali che negoziano e producono modelli 
interpretativi collettivi condivisi, e che quindi sono composte da persone capaci di attribuire 
un significato comune ad un determinato evento; 
 
 ξ  la pretesa di separare il sapere dalle comunità che lo hanno prodotto ai fini della sua 
replicazione può facilmente incorrere nel rischio di replicare informazioni prive di 
significato; 
 
 ξ  laddove i modelli interpretativi sono tendenzialmente omogenei e statici, è possibile 
assumere convenzionalmente che il sapere sia oggettivo e coincidente con il contenuto. 
L’obiettivo della comunicazione è assimilabile alla trasmissione del contenuto; 
 
 ξ  laddove i modelli interpretativi sono eterogenei e mutevoli nel tempo, è necessario invece 
considerare come meta obiettivo della comunicazione l’esplicitazione dei modelli 
interpretativi sottostanti; 
 
 ξ  se è vero che un sapere locale è la sintesi, sia in termini di contenuti sia di modelli 
interpretativi, del portato di un gruppo di persone denominabile come comunità, allora si può 
affermare che i concetti di comunità e di sapere locale sono due facce della stessa medaglia. 
 
Le comunità, ben lungi dall’essere generici gruppi di persone che socializzano in qualche modo, sono 
i luoghi sociali all’interno dei quali un sapere locale nasce ed esiste nel tempo. Quando muore una 
comunità, con essa muore il suo sapere. 
Se, alla luce di tutto ciò, si pensa al modello tradizionale di controllo manageriale, queste 
considerazioni implicano l’impossibilità da parte del management di concepire il sapere aziendale alla 
stregua di una qualsiasi altra risorsa. Questo perchè neanche in linea di principio è possibile 
centralizzare e controllare i processi di produzione e diffusione dei saperi.  
La produzione dei saperi non viene a coincidere con il processo di accumulazione dei contenuti 
(processo che può invece essere pensato come centralizzato e indipendente da chi li ha prodotti), ma 
piuttosto con quello di negoziazione dei modelli interpretativi che, come detto, è necessariamente 
sociale e distribuito. In questo senso si può dire che l’organizzazione, letta da un punto di vista 
orientato alla conoscenza, è raffigurabile come una costellazione di comunità, ovvero di saperi locali, 
che riproducono localmente e in modo distribuito i propri repertori cognitivi al fine di adeguare la 
propria capacità di dare senso alle situazioni.  
Dall’altra parte, la diffusione del sapere non viene a coincidere con la trasmissione dei contenuti 
(anch’essa pensabile come centralizzabile e indipendente dalle soggettività), ma piuttosto come 
processo sistematico di interoperazione tra modelli interpretativi differenti.  
 
Sono state la contraddizione esistente tra i paradigmi tradizionali che catalogano la conoscenza come 
una semplice risorsa da gestire piuttosto che, invece, come risultato di uno o più processi cognitivi 
distribuiti ad aver causato, da un lato, l’annacquamento sostanziale della proposta innovativa insita nel 
KM e, dall’altro, quello che in taluni casi si è rivelato un fallimento delle infrastrutture di KM. 
L’architettura del KM prevede che un sapere generale e astratto sia producibile e quindi sia 
rappresentabile in modo oggettivo e fruibile per tutti. L’esperienza conferma che il vero sapere di 
un’azienda non trova mai adeguata rappresentazione all’interno di strutture trasparenti e globalmente 
condivise; è, piuttosto, rappresentato attraverso simboli, relazioni, individui e situazioni che hanno 
discreta valenza a livello locale ma scarsa su un piano più generale. In questo senso, mentre da un lato 
le infrastrutture di KM inseguono l’illusione di una rappresentazione omogenea, unitaria e non 
ambigua del sapere organizzativo, dall’altro lo svolgersi della vita organizzativa produce 
continuamente sistemi di saperi locali spesso incompatibili tra loro ma dal cui incontro occasionale 
nasce l’opportunità dell’innovazione.  
Dall’analisi proposta emerge la domanda se ha ancora senso parlare di KM e, se sì, in che modo. Il 
KM deve essere pensato non tanto come una soluzione a sé stante di un problema, ma piuttosto come 
una lente di lettura tra le tante che può essere utilizzata nell’analizzare i contesti organizzativi. 
Gestione della conoscenza: interoperabilità sintattica e semantica delle applicazioni 
Alex Bonutti                 Ingegneria Gestionale Industriale 
13
Un’azienda può essere letta come sistema di strutture fisiche, di tecnologie, di flussi informativi, di 
assetti di potere, di processi decisionali. Nessuna di queste lenti può esaurire l’analisi organizzativa e 
ciascuna di esse può essere utilizzata per enfatizzare determinati aspetti. La proposta è di vedere nella 
conoscenza una delle lenti con cui possiamo descrivere l’organizzazione, che verrebbe quindi a essere 
considerata un sistema di saperi e di processi di apprendimento locali, distribuiti.  
Da un punto di vista tecnologico, questa analisi non nega il ruolo delle tecnologie della 
comunicazione come strumento di produzione e diffusione di conoscenza, ma pone alcuni questioni 
fondamentali alle quali le tecnologie disponibili non danno adeguata risposta. Tra queste, prima tra 
tutte, la necessità di gestire i processi di information retrieval in una logica non più centralizzata ma 
distribuita (Bonifacio, Bouquet e Manzardo, 2000; Bonifacio, Neumann e Schuurmans 2000; 
Bonifacio, Bouquet e Traverso, 2002). Da un punto di vista molto concreto, ciascun gruppo all’interno 
di una azienda utilizza strutture semantiche diverse per codificare e rappresentare l’informazione. 
Nell’esperienza consulenziale, è tipico incontrare intranet in cui si assiste al proliferare spontaneo e 
incontrollabile di sistemi categoriali e tassonomie prodotte dai diversi gruppi al fine di organizzare 
l’informazione. Di fronte a questa situazione, l’utente si trova nell’impossibilità di recuperare le 
informazioni che cerca: nonostante siano tecnologicamente accessibili, esse sono rappresentate 
attraverso sistemi categoriali appropriati ad altri contesti d’uso (e quindi semanticamente 
inaccessibili). Tipicamente la risposta del management è di investire nella creazione di repository 
centralizzati capaci, in linea di principio, di rappresentare l’informazione secondo una semantica unica 
e condivisa. Come già è stato detto, troppo spesso questi tentativi falliscono, e questo perchè, nella 
comune interpretazione, essi sono concettualmente sbagliati. Presunte tassonomie oggettive sono 
prive di significato o, in realtà, sono significative solo per la comunità dei loro manutentori.  
Un sistema di information retrieval adeguato in un’ottica di KM deve rappresentare ed agevolare la 
natura distribuita dei processi cognitivi. Esso deve consentire a ciascun gruppo di gestire 
autonomamente le proprie strutture di codifica e concettualizzazione dell’informazione, e 
all’organizzazione di fornire strumenti capaci di supportare l’interoperabilità tra le diverse strutture.  
L’obiettivo di un sistema tecnologico di KM non deve essere quello di condividere un unico 
linguaggio o sistema categoriale aziendale, ma piuttosto quello di facilitare la traducibilità di un 
linguaggio nell’altro, permettendo inoltre di evidenziare come i diversi paradigmi aziendali evolvano 
nello spazio e nel tempo. Su questa base le tecnologie legate al Web Semantico sono oggi la risposta 
più significativa a queste problematiche. 
Rendere il Web accessibile a tutti, sviluppare ambienti software che consentano ad ogni utente di 
operare al meglio con le risorse disponibili in Rete, promuovere tecnologie che tengano conto delle 
diversità in termini di cultura, formazione, capacità cognitive e linguistiche: tutti questi scopi sono 
promossi dal W3C (World Wide Web Consortium). Il W3C è il consorzio produttore di tecnologie e di 
protocolli comuni, con l’intento di promuovere uno sviluppo del Web che garantisca l’interoperatività 
come mezzo commerciale e la diffusione della conoscenza. La Rete deve diventare quello che Bertolt 
Brecht auspicava per la radio
1
, ovvero il più grande apparato comunicativo per l’interscambio e non 
solo una semplice trasmissione delle informazioni. A tutela di questi fini sono anche i principi 
fondamentali su cui il Web si struttura: 
 
 ξ  decentralizzazione - per favorire la diffusione del Web su scala mondiale è notevolmente 
rilevante limitare la dipendenza dell’architettura della Rete da pochi nodi centrali. Questo, al 
fine di evitare il rischio di un collasso del sistema, a fronte del raggiungimento della soglia 
critica nel numero di nodi principali messi fuori uso da attacchi esterni o interni. 
 
 ξ  Interoperatività - protocolli e linguaggi devono poter essere fra loro compatibili e garantire il 
funzionamento con sistemi software e hardware differenti. Due applicazioni sono 
interoperabili se si scambiano dati e servizi in modo efficace e consistente, permettendo la 
comunicazione tra piattaforme hardware e software eterogenee e supportando l’evoluzione 
verso il Web of meaning. 
 
 ξ  Evoluzione - il Web deve essere in grado si supportare le innovazioni tecnologiche 
emergenti. Per far ciò, la progettazione si deve ispirare a principi di flessibilità, semplicità, 
modularità. 
                                                 
1
 “Radio Theory”, 1930.