Introduzione
  
 II
                                                
Il processo tecnologico, grazie anche all’introduzione dei transistor, fece sì che negli 
anni successivi la costruzione e la produzione di elaboratori numerici subissero uno 
sviluppo senza precedenti.  
Tale crescita portò Gordon Moore, cofondatore assieme a Robert Noyce della Intel 
Corporation, a pubblicare, nel 1965, la famosa previsione che negli anni successivi 
ha poi assunto valore di profezia: il raddoppiamento  delle prestazioni dei microchip 
e del numero di transistor in esso contenuti approssimativamente ogni due anni
2
. 
 
 
                               
    Fig.1: Grafico della legge di Moore 
 
 
  
 
2
 Nel 1965 Moore suppose che le prestazioni dei microprocessori sarebbero raddoppiate ogni 12 mesi. Nel 1975 questa previsione 
si rivelò corretta e prima della fine del decennio i tempi si allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni 
Ottanta. La legge, che verrà estesa per tutti gli anni Novanta e resterà valida fino ai nostri giorni, viene riformulata alla fine degli 
anni Ottanta ed elaborata nella sua forma definitiva, ovvero le prestazione dei processori raddoppiano ogni 18 mesi.Questa legge è 
diventata il metro di misura e l’obiettivo di tutte le aziende che operano nel settore, e non solo Intel. 
 
Introduzione
  
 III
L’estensione di questo trend nel futuro porta a domandarci  cosa sarà in grado di 
realizzare l’industria del settore nei prossimi 50 anni.  
La miniaturizzazione dei componenti ha favorito il raggiungimento di dimensioni 
dei transistor dell’ordine di grandezza delle molecole e le ricerche più avanzate non 
escludono la realizzazione di dispositivi elettronici, che utilizzino componenti di 
grandezza analoga a quella di un atomo. La ricerca scientifica  si trova quindi a due 
possibilità, entrambe molto promettenti. 
La prima tenta, attraverso l’utilizzo delle nanotecnologie, di applicare il modello di 
calcolo dei nostri attuali computer a sistemi di dimensioni sub-microscopiche, 
scontrandosi tuttavia con notevoli difficoltà realizzative. I problemi legati a questo 
approccio sono rappresentati dalla difficoltà di operare con oggetti in dimensioni 
dell'ordine di grandezza di un atomo  e trattare quindi con le reazioni energetiche, 
che avvengono tra  gli atomi dei materiali. 
L’altra possibilità da sfruttare,  quella che ha attirato l’attenzione di molti scienziati 
in tutto il mondo a partire dagli anni ottanta, cerca di esplorare le molte potenzialità 
offerte dalla fisica quantistica. Quando infatti cominciamo a trattare con dispositivi a 
dimensione comparabile con quella atomica, le interazioni energetiche non 
rispondono più alle leggi della fisica classica, ma subiscono degli effetti che sono 
esplorati dalla branca della fisica, detta meccanica quantistica. Questo non vuol dire 
tuttavia che non ci sia alcun legame tra la fisica dei sistemi macroscopici, la 
cosiddetta fisica classica, e quella dei sistemi microscopici  chiamata fisica 
quantistica. In realtà tale legame esiste ed è noto come Principio di corrispondenza.  
Tutto il novecento è stato appunto dominato dal desiderio dei più grandi nomi della 
scienza di trovare interpretazioni classiche ai fenomeni, che avvengono nei sistemi 
quantistici:ciò ha dato luogo a interminabili dibattiti e a questioni ancora aperte.  
A partire dalla fine degli anni settanta tuttavia, la fisica quantistica non è stata più 
considerata materia teorica e settore di ricerca senza prospettive applicative. Sulla 
scia di alcuni fisici, pionieri di una nuova idea, quella cioè di sfruttare le peculiarità 
delle leggi quantistiche per costruire un nuovo tipo di calcolatore, nacque un settore 
di studio chiamato quantum computing. Ben presto cominciarono a occuparsi della 
materia ricercatori e fisici di elevato livello,  primo fra tutti Richard Feynman, 
premio nobel per la fisica e grande sostenitore di questa idea.      
I principali risultati scientifici che stimolarono i ricercatori furono quelli riguardanti 
la “reversible computation” ossia, calcolatori che sono in grado effettuare calcoli 
Introduzione
  
 IV
0
                                                
reversibili, calcoli cioè che permettono di risalire dal risultato agli ingressi che lo 
hanno generato. Ad esempio l’operazione di negazione 01  è un’ 
operazione reversibile, mentre non lo è uno XOR o un AND. Questo tipo di calcoli 
aveva attratto l’interesse dei fisici perché, per un noto principio
,1→→
3
, permette di non 
dissipare calore e quindi energia nell’operazione. L’idea iniziale di calcolo 
reversibile trovò un equivalente quantistico nel calcolo unitario che  è alla base del 
quantum computing. I calcolatori che avrebbero dovuto obbedire a queste leggi 
furono chiamati Quantum computers. 
Tuttavia, nonostante il grande entusiasmo iniziale, passarono dieci anni senza 
risultati anche se furono messe le fondamenta di uno di quei settori che sarebbero 
emersi in maniera inaspettata,  negli anni successivi. Uno dei principali risultati 
ottenuti da Feynman fu quello riguardante la simulazione di un sistema quantistico 
con un computer tradizionale: egli dimostrò che questa era un problema difficile
4
. 
Questa affermazione, se da un lato era scoraggiante, dall’ altro significava che un 
calcolatore costruito sfruttando le proprietà di un sistema quantistico avrebbe potuto 
fornire una maggior potenza di calcolo. Purtroppo Richard Feynman morì prima che 
potesse veder nascere quello che fu il suo ultimo campo di interesse di ricerca.  
David Deutsch, suo collaboratore, non lasciò che gli sforzi del premio nobel 
andassero perduti e cominciò seriamente a pensare cosa fosse in grado di calcolare 
un quantum computer e al modo in cui lo potesse fare. 
Nel 1985, insieme a Richard Josza, Deutsch arrivò ad un risultato importante 
dimostrando l’esistenza di una reale incremento della potenza di calcolo 
nell’ambito delle funzioni logiche. La  pubblicazione mostrava che, 
quantisticamente, era possibile risolvere con un solo tentativo un problema che, 
classicamente, ne richiedeva una quantità esponenziale nell’input. Altri ricercatori 
tra cui prima Ethan Bernstein e Umesh Vazirani e in seguito Dan Simon,  
presentarono la soluzione, attraverso l'uso di algoritmi polinomiali, di alcuni 
problemi classicamente esponenziali. Nello stesso periodo fu inoltre portata a 
compimento la dimostrazione, con argomenti simili a quelli utilizzati da Alan 
Turing nella sua famosa pubblicazione, dell’universalità di un insieme di porte 
quantistiche.  
 
3
 Principio di Landauer. 
4
 Tale problema fu classificato NP-Hard. 
Introduzione
  
 V
Sono questi gli  anni in cui si apre anche il nuovo campo della crittografia 
quantistica: Wiesner, Bennett e Brassard nella prima metà degli anni ottanta 
pubblicano articoli che lasciano intravedere una rivoluzione nei metodi di 
trasmissione cifrata dell’informazione.  
Nonostante il notevole clamore che suscitarono queste pubblicazioni, la ricerca ebbe 
un periodo di arresto in quanto il mondo scientifico  non riusciva a intravedere in 
questo settore alcuna applicazione utile e convenientemente realizzabile che potesse 
attirare i fondi necessari. 
Bisogna aspettare quindi il 1994, anno in cui Peter Shor, ricercatore presso i famosi 
Bell Laboratories, annunciò una delle più grandi scoperte degli ultimi anni in questo 
settore. 
Shor presentò al mondo scientifico un algoritmo in grado di fattorizzare un numero 
intero con complessità polinomiale e risolvere quindi efficientemente il problema 
del logaritmo discreto. 
La notevole complessità di questi due problemi aveva infatti  spinto le 
organizzazioni mondiali per gli Standard a utilizzare,  negli ultimi anni, istanze di 
essi in tutti i sistemi di sicurezza telematici: dalle transazioni bancarie all’e-
commerce, dalle telecomunicazioni ai sistemi militari. 
La diffusione della notizia fece piombare sulla ricerca più di un miliardo di dollari di 
finanziamenti pubblici da parte di enti governativi come CIA, NASA e NSA 
(National Security Agency) che dettero luogo a uno dei maggiori investimenti in 
ricerca della storia. Inoltre, colossi dell’informatica come IBM, Toshiba, NEC, 
Microsoft e compagnie  come VISA, American Express e MasterCard hanno 
finanziato e investito in ricerca cifre impressionanti nella corsa per aggiudicarsi un 
posto nella creazione di sistemi che potrebbero cambiare il mondo. 
Nonostante, il grande entusiasmo iniziale, ben presto i fisici e gli ingegneri si 
trovarono a dover fare i conti con numerosi problemi realizzativi causati 
dall’instabilità dei sistemi quantistici.  
Sono così trascorsi alcuni anni e agli inizi del nuovo millennio, alcuni ricercatori, 
ancora poco conosciuti, come A.Kitaev,E.Knill,D.Gottesman e M.Chuang solo per 
citarne alcuni, dimostrarono che era possibile superare i problemi di instabilità  con 
l’introduzione della nuova teoria della Fault Tolerant Quantum Computation. Nuovi 
formalismi matematici e molta ricerca algebrica  hanno permesso, negli ultimi anni, 
di elaborare strategie atte a contrastare il rumore nei sistemi quantistici, principale 
Introduzione
  
 VI
causa di perdita di preziosa informazione  contenuta nella particolare 
sovrapposizione di stati che si crea in questi sistemi.  
Da allora sono apparse numerose pubblicazioni riguardanti metodi di 
implementazione fault tolerant capaci di far si che questo ambito di ricerca 
diventasse uno dei principali temi di interesse scientifico internazionale. 
 
Il lavoro presentato si apre con una parte introduttiva in cui vengono definiti i 
concetti di base della materia,  alla quale fa seguito una sezione in cui vengono 
esplorate alcune delle applicazioni di questo settore, per poi concludersi con 
l’illustrazione di temi inerenti i meccanismi di correzione degli errori. 
Il lavoro è composto di due sezioni: la prima descrive temi riguardanti i sistemi 
fisici utilizzati, i modelli circuitali e il modello di calcolo utilizzato e si conclude 
con una descrizione delle più interessanti applicazioni di questo nuovo settore 
scientifico, la seconda, invece, lascia spazio ad  argomenti che si inseriscono 
nell’area di ricerca del settore inerente i meccanismi di protezione dal rumore e 
approfondisce  le metodologie  di concatenazione dei codici correttori. 
Ampio spazio è inoltre dedicato alla trattazione della Fault Tolerant Quantum 
Computation mentre conclusivo riferimento è stato dedicato alla ricerca di una 
nuova forma di concatenazione bidimensionale elaborata con il contributo del 
Computer Science&Engineering Department della University of Washington 
(Seattle – USA)  e la collaborazione del Professor Dave Bacon, Principal Researcher 
presso quel dipartimento e autore di numerose pubblicazioni in proposito. 
Lo studio riguarda in particolare l’applicabilità di tale metodo ai codici correttori 
sviluppati in questi anni  e ne analizza le proprietà col fine di sviluppare prestazioni 
sempre migliori. 
Nello specifico, vengono  trattati alcuni temi di teoria dei gruppi, necessari alla 
migliore comprensione dei progressi teorici in tema di codici correttori e affidabilità 
dei sistemi di calcolo basati sulle leggi quantistiche.   
Lo studio si espande quindi ad analizzare lo sviluppo di metodi “Fault Tolerant” 
nella creazione dei circuiti logici quantistici mediante la descrizione di un 
particolare gruppo algebrico matriciale, il cosiddetto “Gruppo di Paoli”, che 
costituisce uno dei più importanti e recenti formalismi matematici adottati per lo 
studio dei codici correttori. 
Introduzione
  
 VII
Attraverso questo gruppo algebrico si possono infatti dimostrare proprietà di 
universalità di alcune porte logiche e viene trattato il calcolo fault tolerant sugli stati 
codificati. 
Infine, il “Threshold Theorem” introduce negli ultimi capitoli uno dei temi più 
studiati attualmente in questo ambito di ricerca: la concatenazione di codici. Questo 
teorema stabilisce inoltre, la crescita polinomiale di un circuito  Fault Tolerant nel 
numero delle concatenazioni.   
Queste proprietà giustificano perciò l’interesse verso sempre nuove forme di 
concatenazione che abbiano proprietà in grado di rallentare tale crescita e 
rappresentino  un accettabile punto di compromesso tra l’affidabilità del sistema  e 
le dimensioni dei circuiti. 
La richiamata forma di concatenazione, oggetto di esperimento in questa tesi, che si 
discosta da quella classica  per l’utilizzo dimensionale dello stesso codice, 
rappresenta quindi una metodologia fino ad ora mai sviluppata in nessuna 
pubblicazione apparsa in materia e viene dimostrata l’applicabilità a tutti i codici 
lineari e vengono le proprietà nell’ambito di un settore di studi  futuri volti ad 
abbassare la soglia probabilistica di funzionamento dei codici correttori. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sommario 
 
Prima Sezione 
    Quantum computing 
 
Capitolo 1:In questo capitolo introduttivo saranno richiamati alcuni concetti di fisica classica per 
affrontare in seguito gli esperimenti fondamentali, che portarono all’elaborazione di un nuovo 
impianto teorico in grado di  spiegare quello  che la teoria classica non riusciva a giustificare. 
Questi richiami serviranno a introdurre la notazione di  Dirac utilizzata in meccanica quantistica e 
in questa tesi.  
 
Capitolo 2:In questo capitolo introdurremo i concetti base della computazione quantistica 
(Quantum Computing) a partire dall’unità di informazione quantistica elementare: il Q-bit 
(Quantum bit).  Saranno esplorate inoltre le proprietà intrinseche di un elaboratore  che sfrutti 
tale nuova unitari dell’informazione.  
 
Capitolo 3:In questo capitolo verrà trattato il modello circuitale quantistico. In particolare 
saranno presentati tutti gli elementi circuitali necessari ad elaborare l’informazione contenuta 
nei sistemi quantistici. La dimostrazione di universalità di un set di porte logiche permetterà di 
comprendere la possibilità di utilizzare elaboratori quantistici per il calcolo di tutte le funzioni 
classiche implementate nei nostri attuali calcolatori.   
 
Capitolo 4:In questo capitolo  consideriamo come l’utilizzo meccanica quantistica possa essere 
utilizzata per compiere calcoli e come questi siano qualitativamente differenti da quelli svolti su 
un calcolatore tradizionale. Termineremo il capitolo con il famoso algoritmo di Deutsch-Josza. 
 
Capitolo 5:Numerose applicazioni della teoria alla base del quantum computing sono state 
pensate e ingegnerizzate. In questo capitolo introdurremo quattro esempi derivati dai principali 
campi di sviluppo del quantum computing. Con questo capitolo si conclude la prima sezione. 
 
 
 
Seconda Sezione 
Quantum Error Correction 
 
Capitolo 6: Questo capitolo apre la seconda sezione e affronta i problemi inerenti il rumore: questi  
affliggono i sistemi quantistici, per questo saranno presentati gli strumenti matematici utilizzati per 
trattarlo  e le principali tipologie di rumore che colpiscono i sistemi quantistici. 
 
 
Capitolo 7: Questo capitolo introdurrà il concetto di codice correttore partendo dalla teoria 
classica di correzione degli errori. Verrà quindi presentata la teoria quantistica per la correzione e 
il ripristino dell’informazione negli stati corrotti dal rumore. 
 
Capitolo 8: Questo capitolo introdurrà, partendo da uno dei codici quantistici più famosi, il 
Calderbank-Shor-Steane code, lo Stabilizer Formalism che rappresenta uno dei più potenti 
strumenti matematici utilizzati in meccanica quantistica e nell’ambito dei codici correttori per 
descrivere gli stati quantistici. 
 
Capitolo 9:In questo capitolo saranno ripresi i concetti esposti nei precedenti capitoli per 
introdurre gli strumenti matematici e algebrici della moderna teoria dei codici correttori 
quantistici. Sarà inoltre presentato il teorema di Gottesman-Knill  che  rappresenta uno dei 
maggiori risultati nell’ambito dell’elaborazione quantistica. Una panoramica sul calcolo 
quantistico  fault tolerant introdurrà i più recenti sviluppi nell’ambito della progettazione di 
architettura quantistiche resistenti al rumore. 
 
Capitolo 10 :Questo capitolo finale presenta il lavoro di ricerca svolto presso il Dipartimento di 
Computer Science della University of Washington,( Seattle, USA) sotto la guida di del Professor 
Dave Bacon. Verrà presentata una nuova forma di codifica, detta Subsystem coding e ne 
verranno illustrate le proprietà algebriche. La parte conclusiva è dedicata all’estensione di 
questa tecnica a tutti i codici lineari quantistici. 
 
 
 
  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Prima Sezione 
 
 
“Quantum Computing” 
Capitolo 1
 
 
 1
Capitolo 1 
Meccanica quantistica: dal modello fisico a 
quello matematico 
 
“Non mi piace, e mi spiace di averci avuto a che fare”  
               Erwin Schrödinger 
 
In questo capitolo introduttivo saranno richiamati alcuni concetti di fisica classica per 
affrontare in seguito gli esperimenti fondamentali, che portarono all’elaborazione di 
un nuovo impianto teorico in grado di  spiegare quello  che la teoria classica non 
riusciva a giustificare. Questi richiami serviranno a introdurre la notazione di  Dirac 
utilizzata in meccanica quantistica e in questa tesi.  
 
 
Introduzione 
 
La meccanica quantistica o fisica quantistica è una teoria  formulata nella prima metà 
del ventesimo secolo che descrive il comportamento della materia a livello sub-
microscopico. In sistemi  dell'ordine di grandezza dell'atomo e con energie tipiche delle 
interazioni nucleari cadono le ipotesi, che stanno alla base della meccanica classica.  
La meccanica quantistica spiega e descrive fenomeni che, nell'opinione della maggior 
parte dei fisici del ‘900, non possono essere giustificati tramite la meccanica classica. 
La peculiarità della meccanica quantistica è il fatto che la particelle vengono descritte 
tramite onde di probabilità.  
Una conseguenza importante di questo approccio è il cosiddetto principio di 
indeterminazione di Heisenberg
1
, secondo il quale esistono coppie di variabili(dette 
anche coniugate), come la posizione e l’impulso di una particella, il cui valore non può 
essere conosciuto simultaneamente con precisione arbitraria, indipendentemente 
dall'accuratezza delle misure.  
                                                 
1
 Il principio di indeterminazione di Heisenberg è descritto nell’appendice A relativa  alla 
meccanica quantistica. 
Capitolo 1
 
 
 2
In meccanica classica la conoscenza ad un dato istante del valore delle variabili 
coniugate permette, attraverso le equazioni del moto, di predirne l'evoluzione con un 
livello di precisione arbitraria. L'indeterminazione quantistica, invece, permette di 
prevedere solo la probabilità di misurare determinati valori all'atto dell'esperimento; 
questo conferisce un carattere prettamente probabilistico alla meccanica quantistica.  
Tale teoria elimina anche la distinzione tra particelle e onde che aveva caratterizzato la 
fisica del XIX secolo. L'evoluzione temporale di un sistema quantistico, infatti, 
presenta le caratteristiche tipiche delle onde (fenomeni di interferenza e diffrazione), 
mentre all'atto della misura viene osservato un comportamento corpuscolare, vale a dire 
la materia non viene rilevata come un flusso continuo, ma divisa in elementi minimi 
detti quanti (dal latino quantum, da cui il nome della teoria). In questo modo, non si è 
costretti a dire che la materia si comporta contemporaneamente come onde e particelle, 
che sarebbe una contraddizione, ma che l'evoluzione della distribuzione delle 
probabilità ha caratteristiche ondulatorie, mentre all'atto della misura si riscontrano 
proprietà corpuscolari.  
Questa doppia natura prende il nome di dualità onda-corpuscolo ed è spesso 
considerata come una caratteristica fondamentale della  meccanica quantistica. 
 
 
1.1 Storia della meccanica quantistica 
 
 
Nel 1900 Max Planck introdusse l'idea che l'energia fosse quantizzata per ottenere una 
formula per la dipendenza dalla frequenza dell'energia emessa da un corpo nero.  
Cinque anni dopo Einstein spiegò l'effetto fotoelettrico proponendo che l'energia 
luminosa viaggiasse in quanti, chiamati fotoni.  
Nel 1913 Bohr spiegò le linee spettrali dell'atomo di idrogeno, sempre introducendo 
una quantizzazione.  
Dieci anni più tardi Louis de Broglie introdusse la sua teoria delle onde materiali.  
Tutte queste teorie, che descrivono con successo gli esperimenti effettuati dai fisici del 
tempo, erano basate su osservazioni  empiriche: non c'era infatti alcuna giustificazione 
alla quantizzazione, esse sono note collettivamente come la vecchia teoria quantistica. 
Occorre aspettare il 1925, data di nascita della meccanica quantistica moderna, per 
poter parlare di sviluppo della meccanica matriciale da parte di Heisenberg e della 
Capitolo 1
 
 
 3
meccanica ondulatoria da parte di Schrödinger. E’ stato  quest' ultimo a mostrare in 
seguito che i due approcci sono equivalenti.  
Due anni dopo Heisenberg formula il suo principio di indeterminazione e circa nello 
stesso periodo nasce l'interpretazione di Copenaghen.  
Pochi anni dopo Dirac unisce la meccanica quantistica con la relatività ristretta ed usa 
pesantemente la teoria degli operatori, compresa l'importante notazione “bra-ket”.  
Negli anni trenta John von Neumann pone basi matematiche rigorose alla formulazione 
della teoria degli operatori quantistici. 
Sono gli anni successivi a determinare la nascita di diversi campi di applicazione della 
meccanica quantistica. 
Agli inizi degli anni quaranta Feynman, Dyson, Schwinger e Tomonaga introducono 
l'elettrodinamica quantistica (QED), che servirà anche come modello per le successive 
teorie di campo.  
Negli anni sessanta comincia la lunga storia della cromodinamica quantistica (QCD) 
legata allo studio  di particelle subatomiche quali i quark e i gluoni.  
 Nel  1975, Polizter, Gross and Wilzcek formulano la QCD nella forma attualmente 
accettata.  
Negli anni ottanta, partendo da un lavoro di Schwinger; Higgs, Goldstone, Glashow, 
Weinberg e Salam mostrarono in modo indipendente che la forza debole e la QED 
possono essere fuse in un'unica teoria, la teoria elettrodebole.  
Infine nel 1982 un'equipe dell'Istituto Ottico di Orsay, diretta da Alain Aspect, porta a 
buon esito una lunga serie di esperimenti che mostrano una violazione della 
disuguaglianza di Bell[2]. 
 
1.2  Lo stato di un sistema classico e di un sistema quantistico 
 
Mentre in meccanica classica lo stato di un sistema viene definito attraverso il valore 
esatto delle sue variabili di posizione e quantità di moto, in meccanica quantistica lo 
stato del sistema è descritto da una funzione d'onda il cui modulo al quadrato fornisce 
le distribuzioni di probabilità di tutte le proprietà misurabili. 
Essa fornisce quindi informazioni sulle probabilità di misurare un dato valore per una 
“osservabile”, ossia per un operatore che permette di determinare una proprietà del 
sistema.  
Capitolo 1
 
 
 4
Il significato di questa probabilità può essere così interpretato: se abbiamo a 
disposizione infiniti sistemi identici, effettuando la stessa misura su tutti i sistemi, la 
distribuzione dei valori ottenuti è proprio il quadrato del modulo della funzione d'onda. 
La funzione d'onda che descrive lo stato del sistema può cambiare al passare del tempo. 
Ad esempio, una particella che si muove in uno spazio vuoto è descritta da una 
funzione d'onda costituita da un pacchetto d'onda centrato in una posizione media per 
la posizione della particella considerata; al passare del tempo, quando il centro del 
pacchetto d'onda cambia, la particella può  essere localizzata in una posizione 
differente.  
L'evoluzione temporale della funzione d'onda è descritta dall'Equazione di Schrödinger 
dipendente dal tempo
2
 
 
 
),
2
),)(
4
2
2
tx
t
h
itxxV
xm
h
(
∂
∂
=(
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
+
∂
∂
− ψ
π
ψ
π
                         (1.1) 
 
 
 
dove: 
 
h = costante di Planck
3
; 
V(x)= energia potenziale nella posizione x; 
 
La funzione ψ  è chiamata anche ampiezza di probabilità e si postula che rappresenti 
tutto quello che è possibile misurare di una particella, in altre parole il suo vettore di 
stato .  
La quantità ψ  è funzione del tempo e delle coordinate, mentre non porta informazione  
sull’impulso e  moltiplicata per una variabile complessa la sua descrizione dello stato 
rimane immutata: questo permette di normalizzarla ponendo 1
2
=
∫
dqψ  dove dq  è 
l’elemento infinitesimale di volume. 
                                                 
2
 Esiste anche una versione più semplice dell’equazione che è quella in cui la funzione ψ  non dipende 
dal tempo. 
3
 Il valore assegnato alla costante di Planck è  
16
6.62 10heV
−
=× .