Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Logiche per il ragionamento autoepistemico e di default

Il lavoro si situa nell’ambito della ricerca sulle logiche non monotone. Queste ricerche, che intendono dar conto del ragionamento del senso comune (common sense reasoning) o almeno di alcune sue proprietà logiche, sono nate nell’ambito degli studi di Intelligenza Artificiale e se da un lato sono legate costitutivamente all’informatica, dall’altro possono rivelarsi di grande interesse (a torto sottovalutato) per diverse questioni logiche, epistemologiche e filosofiche in generale.
Per mettere in luce l’utilità di un approccio logico al common sense reasoning, si è scelto, di approfondire ed esporre due precisi formalismi relativi a due particolari forme di ragionamento del senso comune.
I due formalismi scelti sono la Logica di Default di Reiter e la Logica Autoepistemica di Moore; la prima si propone di formalizzare il ragionamento di un soggetto che vincola la verità di certe proposizioni all’assenza di determinate informazioni, mentre la seconda intende formalizzare il ragionamento di un soggetto che riflette sulle proprie credenze.
Il punto di partenza è costituito dal fatto che di fronte all’incompletezza delle informazioni che caratterizza il ragionamento del senso comune, è ragionevole (e non solo usuale), e quindi giustificato, fare determinate assunzioni; la normatività implicita nei concetti di ragionevolezza e giustificazione rende dunque possibile trattare la forma logica di questa ragionevolezza con strumenti formali.
Questo è quanto succede in un ragionamento autoepistemico e di default.
Un ragionamento di default rende conto di quelle inferenze che fanno uso di regole di massima, in grado cioè di tollerare alcune eccezioni. La logica di default, intende ampliare la base di conoscenze certe attraverso l’aggiunta di diversi insiemi possibili di credenze, determinati appunto dalle regole di massima formalizzate nelle default (esternamente al linguaggio) e da un impianto per altri versi abbastanza simile a quello di una logica classica.
E’ infatti possibile che un medesimo insieme di credenze di base e di regole di default dia origine a diverse estensioni alternative, e questo rispecchia il fatto che un insieme di informazioni può ragionevolmente portare a diversi insiemi di credenze plausibili; caratteristica peculiare della logica di default è che di fronte alla molteplicità delle estensioni essa adotta un approccio definito scettico: non vi è l’individuazione cioè di un’estensione privilegiata, ma si propongono semplicemente le diverse possibili alternative.
Questa caratteristica è propria anche della seconda logica presa in esame: la logica autoepistemica di Moore. Quest’ultima intende dar conto del ragionamento di un soggetto che riflette sulle proprie credenze attraverso una logica modale; essa introduce dunque nel linguaggio un operatore modale “L” che, posto davanti a una proposizione P indica che tale proposizione è parte delle credenze di un soggetto. Sono così formulabili all’interno del linguaggio asserzioni sulle credenze di un soggetto e sulla relazione che esse hanno con ciò che un soggetto reputa vero.
Il punto chiave è ottenere diverse possibili estensioni dell’insieme di credenze di partenza per mezzo della deduzione classica e inserendo in esse ciò che il soggetto crede e ciò che non crede.
La grande finezza dell’analisi di Moore è testimoniata dalla possibilità di inquadrare nel suo impianto formale diversi problemi classici relativi alla teoria del significato e agli insiemi di credenze. In particolare ho inteso mostrare come si possano individuare precisi collegamenti tra il suddetto sistema formale e alcune tesi di D. Davidson.
Al di là delle specifiche osservazioni fatte in materia, questa prima analisi mette comunque in luce le possibilità che sembrano aprirsi per indagini future simili e sottolinea l’importanza che può destare uno studio approfondito delle diverse logiche non monotone per la filosofia e l’Intelligenza Artificiale.
Le due logiche scelte sono a mio avviso particolarmente interessanti nel panorama delle logiche non monotone, ma la loro scelta è dovuta anche al fatto che sono strettamente legate da un teorema di equivalenza.
Konolige ha infatti dimostrato che le due logiche sono, entro certi termini, equivalenti. Per fare ciò fornisce una nuova caratterizzazione della logica di Moore di cui, nella tesi, vengono dunque presentate due formulazioni: una più vicina all’intuizione (quella di Moore), e l’altra più elegante e maneggevole dal punto di vista logico (quella di Konolige).
Nella considerazioni finali si confrontano le due formulazioni della logica autoepistemica e le logiche autoepistemica e di default; si propongono infine alcune osservazioni a proposito della nozione di inferenza introdotta dalle due logiche e del rapporto di queste con l’Intelligenza Artificiale e con la filosofia.

Mostra/Nascondi contenuto.
1. Considerazioni introduttive Nel corso dei secoli, diversi filosofi come T. Hobbes e G. W. Leibniz hanno avuto la convinzione che il pensiero fosse qualcosa di molto simile al calcolo. Questa convinzione ha fatto accarezzare loro l'idea che sarebbe stato possibile, una volta scoperte le regole combinatorie, meccanizzare in qualche modo le procedure di ragionamento. In particolare, alla fine dell'800, l'interesse per le tecniche di dimostrazione matematica portò alla nascita della logica formale come la conosciamo oggi e alla formalizzazione del modello di ragionamento matematico. Sebbene gli obiettivi e gli orizzonti della logica formale non fossero da ricondurre alla meccanizzazione del pensiero tout court, è vero però che i logici del '900, approfondendo il rapporto tra concetti e rappresentazione matematica da una parte, e la nozione di computabilità dall'altra, crearono le condizioni per formulare con maggiore chiarezza il problema della meccanizzazione del pensiero. Nel frattempo, la nascita degli elaboratori elettronici 1 aveva messo a disposizione delle macchine in grado di compiere funzioni estremamente complesse, aprendo così la porta alla possibilità di sperimentare modelli e ipotesi studiati in sede teorica. Una domanda che la filosofia aveva già posto da tempo assumeva ora una concretezza tutta nuova: possono le macchine pensare? Questa domanda fu, al di là delle risposte e dell'influsso diretto che esercitò sugli studiosi, senza dubbio il catalizzatore di una serie di orientamenti differenti che 1 Il primo elaboratore elettronico, l'ENIAC, è stato costruito nel 1946 presso l'università della Pennsylvania.

Tesi di Laurea

Facoltà: Lettere e Filosofia

Autore: Matteo Luigi Palmonari Contatta »

Composta da 274 pagine.

 

Questa tesi ha raggiunto 2083 click dal 20/03/2004.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.