logica
logica teoria dell’inferenza valida, cioè studio della correttezza dei ragionamenti, qualunque sia l’universo di discorso cui essi si riferiscano. Si riserva usualmente il termine «logica», privo di ulteriori qualificazioni, alla disciplina che ha in particolare per oggetto l’argomentazione deduttiva. Una conclusione è validamente inferita o dedotta da certe premesse, cioè è una loro conseguenza logica, se non può essere falsa essendo vere le premesse. Un’argomentazione deduttiva è valida se la conclusione è validamente inferita dalle premesse, ed è inoltre corretta se le premesse sono vere. Per esempio, l’argomentazione: «Napoleone era francese; tutti i francesi sono europei; dunque Hitler era austriaco» non è valida, benché premesse e conclusione siano vere. La mancanza di consequenzialità logica fra premesse e conclusione risulta evidente non appena si formalizzi l’argomentazione stessa. Per esempio, la precedente argomentazione attraverso i seguenti simbolismi: F(N): Napoleone era francese; ∀x ∈ F, E(x): ogni francese è europeo; A(H): Hitler era austriaco, può formalizzarsi in questo modo
(dove il simbolo ∧ è da leggersi come «e»). Essa non ha alcuna validità generale intrinseca, perciò si dice anche che un’argomentazione è valida se in tutte le argomentazioni della stessa forma la conclusione è vera se lo sono le premesse. La validità di una argomentazione dipende quindi esclusivamente dalla sua forma ed è compito della logica fornire un metodo generale per distinguere le argomentazioni valide da quelle invalide in base alla loro forma e per individuare la forma di qualunque argomentazione data. In quanto assolve questo compito la logica è (ed è sempre stata) formale. Talvolta si utilizza la locuzione logica induttiva, ma questa, che si occupa delle condizioni sotto le quali una conclusione è, sulla base di certe premesse vere, non necessariamente vera, ma asseribile con un certo grado di certezza, è più propriamente un settore di studi della teoria della → probabilità.
C’è una differenza di fondo fra la logica tradizionale e quella moderna (detta anche logica matematica o simbolica), proprio riguardo al metodo di individuazione della forma delle proposizioni e quindi delle argomentazioni. Il punto di partenza è in entrambi i casi dato da una analisi degli enunciati tramite i quali si esprimono proposizioni. L’analisi tradizionale si basa su un principio di classificazione delle proposizioni elementari in alcune categorie fondamentali, cui corrispondono schemi di enunciati (già Aristotele faceva uso di lettere per indicare espressioni qualunque di una stessa categoria logica), che, di fatto, non esauriscono i casi possibili. L’approccio moderno si ispira invece a un principio di generazione ricorsiva (→ ricorsività) di tutte le possibili forme di enunciati da un insieme di simboli semplici, mediante applicazione reiterata di un insieme finito di operazioni; per esempio, applicando la congiunzione a enunciati atomici si ottengono enunciati complessi di una certa forma. L’idea è quindi anzitutto di sostituire alla lingua ordinaria che è oggetto dell’analisi logica un → linguaggio formale, un insieme cioè perfettamente specificato di simboli semplici e regole per la loro combinazione in enunciati. Questi esibiscono, in virtù delle loro regole di formazione, la loro struttura sintattica: cioè il modo della loro composizione a partire da espressioni non logiche (costanti e variabili enunciative, individuali e predicative) mediante applicazione di operatori logici (i → connettivi, corrispondenti a particelle come «e», «o», «non», «se... allora», e i → quantificatori, corrispondenti alle espressioni «tutti» ed «esiste qualche»). Una formalizzazione della logica consiste allora nella stipulazione, per questo linguaggio:
a) di regole che governano l’uso degli operatori logici nelle inferenze (regole di → inferenza) ed eventualmente l’uso di assiomi che li contengono;
b) di regole che governano l’assegnazione di valori di verità (vero o falso, come nella più classica logica binaria, o eventualmente anche altri come nelle → logiche polivalenti) agli enunciati composti per loro mezzo, in funzione dei valori degli enunciati componenti (e in questo modo esplicitano il significato degli operatori).
In a) e b) consiste la parte elementare della → sintassi e, rispettivamente, della → semantica del sistema in questione, entrambe formulate in un opportuno metalinguaggio. Con l’aiuto di questo apparato tecnico si ottengono risultati teorici notevoli, se paragonati a quelli della logica tradizionale. Nel migliore dei casi, una teoria tradizionale dell’inferenza offre un metodo per ottenere tutti gli schemi validi di argomentazione di una certa classe, derivandoli da un insieme di schemi primitivi, dati per evidentemente validi (sul modello, in sostanza, di una teoria → assiomatica). Ma una teoria tradizionale non può fornire una caratterizzazione effettiva della nozione di prova logica, cioè una procedura meccanica per controllare se una conclusione è validamente inferita dalle sue premesse, né una dimostrazione della validità degli schemi primitivi. La sintassi di un sistema formale fornisce invece una tale procedura, mentre la sua semantica consente di giustificare le stesse regole primitive di inferenza (o gli assiomi), dimostrandone la validità in base al significato degli operatori logici.
Le teorie logiche aristoteliche, esposte nel corpus successivamente chiamato Organon, si basano su una analisi della proposizione in termini o concetti, cioè nome e verbo, rispettivamente in funzione di soggetto e predicato. In base alla loro qualità (affermative o negative) e alla loro quantità (universali o particolari), le proposizioni categoriche, cioè relative a soggetto e predicato, sono distinte in quattro classi e i rispettivi schemi sono studiati nelle loro interrelazioni logiche (contraddittorietà, contrarietà, subcontrarietà, implicazione) che danno luogo al cosiddetto «quadrato aristotelico». Sono quindi formulate leggi di conversione, che governano le derivazioni di proposizioni (della stessa forma o di forma diversa) da proposizioni date per scambio dell’ordine dei termini. Di queste relazioni e di queste leggi Aristotele si serve nella successiva riduzione agli schemi validi che fungono da base per altri schemi di inferenza. La teoria dell’inferenza riguarda le argomentazioni con due premesse categoriche, dette → sillogismi. Aristotele sviluppa anche una teoria delle modalità e una sillogistica modale (→ logica modale).
La scuola megarica, fondata dal discepolo di Socrate Euclide di Megara (400 a.C., da non confondersi con Euclide di Alessandria, l’autore degli Elementi), apportò tre nuovi importanti contributi: la formulazione e discussione di molti → paradossi logici, fra cui quello famoso del mentitore; una reinterpretazione delle nozioni modali, indipendente dai presupposti metafisici aristotelici; l’avvio di un dibattito sui condizionali. Si deve al megarico Filone (300 a.C.) l’interpretazione, detta appunto filoniana degli asserti del tipo «se p allora q», in base alla quale essi sono falsi solo se l’antecedente è vero e il conseguente è falso (cioè, in termini moderni, l’interpretazione del condizionale come implicazione materiale). Si cita la posizione alternativa di Diodoro Crono, la cui interpretazione corrisponde piuttosto a quella rappresentata dall’implicazione stretta o formale (l’asserto è vero quando è impossibile che l’antecedente sia vero e il conseguente falso). L’eredità della scuola megarica fu raccolta dalla scuola stoica, che ebbe il maggiore esponente in Crisippo (281-204). Si riconosce agli stoici il merito di aver elaborato un sistema di logica delle proposizioni come base di una teoria dell’inferenza, che risulta quindi più generale di quella aristotelica, avendo come base un’analisi del ruolo dei connettivi nelle deduzioni.
I principi della logica antica furono trasmessi all’alto medioevo dagli scritti di Boezio (Anicio Manlio Torquato Severino Boezio); gli studi logici conobbero tuttavia nelle scuole e nelle università la loro fioritura fra i secc. xi e xv. Caratteristica della logica medievale è la sua formulazione metalinguistica come sistematizzazione rigorosa della sintassi e della semantica del latino scolastico. I contributi dei logici medievali si possono riassumere in:
• una teoria generale del riferimento (suppositio terminorum) che fu applicata tanto alla distinzione semantica fra uso e menzione delle espressioni quanto alla formulazione delle relazioni tra i quantificatori;
• una teoria generale dell’implicazione (consequentia), posta alla base della logica delle proposizioni;
• dettagliate indagini modali;
• discussione dei paradossi logici.
Il primo grande logico medievale è P. Abelardo, autore di una ricostruzione sistematica in chiave linguistico-formale del materiale boeziano, sostenitore di una posizione concettualistica nella disputa sugli universali. In seguito alla restituzione (in traduzioni dal greco e dall’arabo) dell’intero corpus aristotelico e alle traduzioni dell’arabo spagnolo Averroè e dello scienziato persiano, noto nel mondo latino con il nome di Avicenna fioriscono nelle università di Parigi e di Oxford i grandi commentari alla logica aristotelica, per mano di Roberto Grossatesta (1175-1253), Tommaso d’Aquino, Alberto Magno e altri. Guglielmo di Sherwood e Pietro Ispano sono le figure dominanti della logica del sec. xiii: il primo provvede, oltre che a un’elegante sistemazione della sillogistica, a una serie di definizioni vero-funzionali dei connettivi e a un’interessante teoria delle proposizioni; le Summulae logicales del secondo costituiscono il manuale standard per tutto il tardo medioevo. L’apice della maturità teorica è raggiunto nel sec. xiv a opera di figure come quelle di Guglielmo di Occam, W. Burleigh e G. Buridano.
La reazione rinascimentale nei confronti della scolastica trova un punto di incontro con il pensiero cartesiano nel trattato Logica o arte di pensare (1662), dei filosofi francesi Antoine Arnauld (1612-94) e Pierre Nicole (1625-95). La logica di Port-Royal, di cui questo trattato costituisce la sistemazione, ebbe una grande influenza sulla manualistica sette e ottocentesca, in cui una terminologia epistemologica riveste il nocciolo semplificato delle teorie logiche tradizionali. G.-W. Leibniz, alla cui idea di una characteristica universalis o simbolismo perfettamente adeguato alla rappresentazione logica del pensiero si ispireranno i logici fra Otto e Novecento, è autore di contributi innovativi alla teoria della predicazione e dell’identità; alla sua definizione della verità logica si rifanno i creatori della moderna semantica dei mondi possibili; egli costruì inoltre numerosi frammenti di calcolo dei predicati e delle classi.
Le premesse della ricostruzione della logica nella veste contemporanea di sintassi e semantica dei sistemi formali si individuano da un lato nell’algebrizzazione della logica culminata nell’opera di G. Boole, dall’altro nell’esigenza di chiarificazione logica dei fondamenti della teoria degli → insiemi. La formalizzazione della logica dei predicati del primo ordine, portata per l’essenziale a termine da G. Frege, apre la storia della logica del xx secolo, i cui sviluppi furono in gran parte legati a quello dell’indagine sui → fondamenti della matematica. La “grande logica”, che in base al programma logicistico avrebbe dovuto costituire il fondamento dell’intera matematica, trova la sua espressione classica nei Principia mathematica (1910-13) di A.N. Whitehead e B. Russell, il cui simbolismo deriva largamente dall’opera di G. Peano (→ logicismo).
In seguito al sostanziale fallimento del programma logistico e in alternativa a esso fioriscono le indagini all’interno dei due grandi filoni del → formalismo di D. Hilbert e dell’→ intuizionismo di L.E.J. Brouwer.
Il primo conduce alla precisa formulazione della teoria puramente sintattica dei sistemi formali: nella versione hilbertiana, il formalismo consiste appunto nell’ipotesi che la fondazione della matematica possa ridursi alla dimostrazione di alcune fondamentali proprietà sintattiche dei sistemi formali in cui è formulabile la teoria dei numeri, in particolare della loro non contraddittorietà. Attraverso la teoria della dimostrazione, cioè l’indagine del concetto di teorema della teoria dei numeri strutturata come sistema formale, Hilbert si propone di provare l’assenza di contraddizioni tra quei teoremi e quindi la non contraddittorietà della teoria dei numeri. Questo specifico proposito e i particolari metodi impiegati vanno sotto il nome di programma hilbertiano di fondazione della matematica. La questione del metodo dimostrativo impiegato è molto importante. Infatti l’eventuale impiego della teoria dei numeri come strumento d’indagine circa i sistemi formali dell’aritmetica la cui non contraddittorietà era da provare, avrebbe reso la prova circolare. Hilbert propone allora di limitarsi alla cosiddetta aritmetica finitista, cioè a quei metodi numerici che esprimono operazioni aritmetiche di carattere combinatorio (→ analisi combinatoria). Questi metodi dominano quasi tutte le ricerche metalogiche (→ metamatematica) provenienti da ambiente matematico negli anni Venti del secolo scorso e non solo tra i diretti allievi di Hilbert. Nasce allora, in particolare, quella che sarà poi nota come teoria della ricorsività. L’interesse per simili problematiche è testimoniato anche dalla nascita della → logica combinatoria, dove si cerca, attraverso un numero finito di ben controllabili operazioni, di caratterizzare i concetti e poi i metodi della logica. Nel 1931 K. Gödel scopre, e ne dà una famosissima dimostrazione nota come teorema di → Gödel, che il programma hilbertiano non poteva essere condotto a termine perché nessuno dei metodi numerici contenuti entro la teoria formalizzata dei numeri poteva essere un metodo metateorico sufficiente per dimostrare la non contraddittorietà di quella teoria. Il fallimento del programma hilbertiano viene così a identificarsi con l’insufficienza dell’approccio combinatorio alla metalogica. Nasce dunque la necessità di mutare i punti di vista teorici metalogici. Già Gödel (1930) aveva usato metodi astratti per dimostrare la coincidenza del concetto di legge logica, basato sulla nozione intuitiva di formula vera, con quello teorizzato entro i sistemi logici, ma spetta ad A. Tarski (1935) il merito di una precisa fondazione della metateoria semantica dei linguaggi formalizzati.
Nasce con questo la teoria dei → modelli, branca della moderna logica matematica. Pur fallito, il programma hilbertiano lasciò però aperta la questione di che cosa potesse significare una dimostrazione di non contraddittorietà della teoria dei numeri attraverso l’indagine specifica della nozione di teorema formale. Una risposta alla domanda venne da G. Gentzen (1936), che diede una tale dimostrazione usando nuovi e più astratti metodi (induzione transfinita) che andarono a costituire gli strumenti di gran parte della moderna teoria della dimostrazione.
Le ricerche che si ispirano all’intuizionismo conducono invece a interessanti formalizzazioni delle logiche non classiche. Alcune delle idee di Hilbert subirono lo stimolo delle critiche che il matematico olandese Brouwer fin dal 1907, anno della sua tesi di dottorato, rivolse ai metodi generalizzanti della matematica moderna e, parallelamente, all’uso nell’ambito delle matematiche della logica classica, cioè delle leggi proprie della tradizione logica e codificate dalla sistematica logica ottocentesca e novecentesca. In primo luogo la critica di Brouwer si rivolge al principio logico del → terzo escluso, che secondo Brouwer, vale solo nel mondo esterno, la finitezza del quale consente di andare a controllare, caso per caso, la validità di affermazioni quali «c’è un uomo con due stomaci o non c’è ». Il terzo escluso non vale nelle questioni matematiche che coinvolgono l’infinito e, a detta di Brouwer, l’applicazione di tale principio logico può addirittura portare a contraddizioni. Un trattamento sistematico della logica intuizionista si avrà nel 1930 a opera di A. Heyting.
Gli sviluppi delle ricerche logiche alla fine del secolo scorso sono caratterizzati da un costante ampliamento delle tradizionali problematiche e da crescenti applicazioni in campi diversi. Le nuove prospettive devono molto all’interazione con l’informatica e con gli studi sull’→ intelligenza artificiale. Paradossalmente, proprio le applicazioni informatiche hanno favorito lo sviluppo di alcuni rami della logica che in passato erano stati classificati come “filosofici” e di scarsa rilevanza per la problematica dei fondamenti della matematica. Per esempio, le → logiche modali e le → logiche temporali hanno trovato applicazione nelle ricerche teoriche sul concetto di → programma per un computer. Altri esempi sono rappresentati dalle logiche epistemiche, che studiano il comportamento di operatori come “conoscere”, “credere”, e dalla → fuzzy logic, un tipo di logica polivalente che permette di trattare situazioni ambigue non riducibili al binomio vero-falso. Un altro ramo delle applicazioni della logica alla computer science è rappresentato dalla teoria della dimostrazione automatica. In virtù di un teorema di A. Church del 1936, si sa che il concetto di verità logica non è, in generale, decidibile. Ciò significa che, in linea di principio, non può esistere una macchina capace di risolvere in un numero finito di passi, per ogni possibile espressione, il problema se si tratti di un teorema logico o meno. Ciononostante, l’insieme dei teoremi della logica classica elementare (e di molte logiche non classiche) è un insieme ricorsivamente enumerabile: ogni singolo teorema è deducibile in un numero finito di passi. Ha senso allora la ricerca di dimostratori automatici, per cui risultano adatti particolari calcoli logici, con caratteristiche diverse rispetto ai calcoli che sono naturali per l’intuizione umana, tema questo sviluppato in particolare dal filosofo e logico inglese John Alan Robinson (1928). Una questione che sorge in questo contesto riguarda la possibilità di costruire una logica per i ragionamenti in parallelo. È noto che i ragionamenti formali procedono di norma in serie, nel senso che sono descrivibili attraverso una successione lineare di passi distinti; al contrario, i meccanismi umani inconsci procedono anche in parallelo. È possibile trasmettere al pensiero formale alcune caratteristiche strutturali, che sembrano comuni nello stesso tempo ai meccanismi inconsci e ai sistemi dei circuiti elettronici? Si tratta di una delle questioni più critiche della odierna teoria della dimostrazione.
Un fenomeno che ha acquistato un’importanza crescente è quello della pluralità delle logiche: il moltiplicarsi delle logiche ha sollevato spinosi problemi tecnici e filosofici. Un problema tecnico, in gran parte ancora aperto, è quello di individuare ragionevoli criteri di classificazione, che permettano di stabilire un ordine razionale nell’apparente caos delle diverse logiche. Ciò ha determinato uno spostamento di livello negli studi sui fondamenti della logica. Negli anni Venti e Trenta del secolo scorso si faceva soprattutto metalogica; si studiavano cioè le proprietà sintattiche e semantiche di calcoli, che codificavano schemi di ragionamento ritenuti corretti, e di sistemi formali, che corrispondevano a importanti teorie matematiche. Oggi, invece, si ha spesso occasione di lavorare su un piano metametalogico, studiando contemporaneamente proprietà di classi di logiche. Un caratteristico problema metametalogico è decidere quale tipo di semantica sia adatta per caratterizzare gli elementi di una certa classe di logiche. Dove si intende che una semantica caratterizza una logica L se e solo se definisce una classe K di modelli tali che le leggi della logica L siano tutti e soli gli enunciati veri in ogni modello di K. Le logiche non classiche hanno trovato due strumenti semantici, che fino a oggi hanno avuto un ruolo privilegiato: la semantica algebrica e la semantica dei mondi possibili, detta anche semantica kripkiana, dal nome del filosofo e logico statunitense S.A. Kripke. Il punto di partenza intuitivo di tale semantica è rappresentato dall’idea secondo cui interpretare un linguaggio (o una teoria) significa essenzialmente individuare per ogni enunciato A l’insieme delle situazioni (o mondi possibili) in cui A è vero. Nei casi più semplici, un modello kripkiano per un linguaggio formale è una struttura costituita da un insieme di mondi possibili, da una relazione di accessibilità (o affinità) fra mondi e da una funzione che a ogni enunciato associa la classe dei mondi possibili in cui l’enunciato è vero. Facendo variare opportunamente le proprietà formali della relazione di accessibilità e le condizioni di verità rispetto ai mondi, è possibile caratterizzare logiche diverse. Per esempio, restano così caratterizzate la logica intuizionistica, molte logiche intermedie fra la logica intuizionistica e quella classica, la logica quantistica, molte logiche modali e temporali. Può essere significativo studiare modelli in cui si considerano non solo relazioni, ma anche operazioni fra mondi. In tal modo è possibile caratterizzare logiche in cui i tradizionali connettivi vengono moltiplicati: si studiano allo stesso tempo più congiunzioni, più disgiunzioni, a cui è ragionevole associare significati intuitivi diversi.