lògica matemàtica Branca della logica, che utilizza un linguaggio simbolico e adotta un sistema di calcolo di tipo algebrico per esaminare le espressioni di un discorso deduttivo. Queste ultime possono essere considerate formalmente come oggetti grafici combinabili tra loro (sintassi) o in relazione al loro significato (semantica). Con l'avvento degli elaboratori elettronici, molti temi della l.m. si sono sviluppati in collegamento con i temi di base dell'informatica.
La parte sintattica di una teoria logica si chiama calcolo logico. L'aspetto semantico di una teoria logica è invece la trattazione del significato o interpretazione dei suoi simboli. Nella costruzione di una determinata l.m. si deve prima di tutto stabilire il linguaggio, che è basato su un adeguato insieme di simboli fondamentali detto alfabeto; una sequenza di tali simboli si dice espressione e le espressioni ottenute in conformità a regole di formazione prefissate sono dette formule ben formate. Dopo aver stabilito il linguaggio, si costituisce il calcolo, fissando un insieme di postulati costituito da assiomi e regole di inferenza; applicando queste regole si possono ottenere, a partire dagli assiomi, mediante le dimostrazioni, le formule dimostrabili, dette anche teoremi o tesi logiche. L'interpretazione è una rappresentazione (applicazione) dei simboli sugli elementi dell'insieme che costituisce l'universo (o dominio) di interpretazione.
Permette di stabilire la verità o falsità di un enunciato formato da proposizioni semplici e connettivi logici: congiunzione (e), disgiunzione (o), negazione (non), implicazione (se... allora...), in ragione della verità o falsità delle proposizioni e dei connettivi presenti. È sempre possibile decidere se una formula del linguaggio enunciativo è valida o no, se è soddisfacibile o no, mediante le cd. tavole di verità che prendono in considerazione tutte le possibili interpretazioni per le proposizioni elementari.
Sono presenti in questo caso, oltre ai connettivi enunciativi, quantificatori - esiste (∃), per ogni (∀) -, variabili individuali (x, y, z, ...), variabili predicative pki, dove k è un numero naturale che indica il numero complessivo di argomenti del predicato (predicati binari, ternari ecc.) e i è un numero naturale che differenzia le variabili predicative. Sia per le variabili predicative sia per quelle enunciative, se non vi è possibilità di equivoco, si usano anche i simboli P, Q, R, ... Una formula che contenga variabili libere si dice formula aperta, o funzione proposizionale. Si distingue fra logica dei predicati del primo ordine e logica dei predicati del secondo ordine: in quest'ultima sono ammesse anche formule del tipo ∃ P H e ∀ P H.
Il grande sviluppo della l.m. che si ebbe a cavallo tra il 19° e il 20° sec. è dovuto al tentativo di definire un sistema formale per la matematica e di dimostrarne la completezza e la coerenza con gli strumenti della logica. Nel 1931 però K. Gödel dimostrò che in qualsiasi sistema formale coerente in grado di rappresentare l'aritmetica esistono formule di cui non si può dimostrare né la verità né la falsità (teorema di incompletezza).
Abstract di approfondimento da Logica matematica di Silvio Bozzi (Enciclopedia della Scienza e della Tecnica)
Pur potendo vantare come erede della logica formale un’origine risalente almeno ad Aristotele, come disciplina scientifica la logica matematica è un acquisto recente. Possiamo collocare la sua data di nascita al massimo alla metà dell’Ottocento, con i lavori di George Boole sull’analisi algebrica della sillogistica tradizionale (1847) e la costruzione da parte di Gottlob Frege di un linguaggio formale in grado di riprodurre e analizzare la struttura logica del linguaggio in uso nella pratica matematica (1879). Una doppia origine che sottolinea una duplice vocazione: da una parte l’indagine della struttura matematica sottostante ai metodi propri del ragionamento formale, dall’altra la ricerca di una fondazione per la matematica stessa che attraverso l’analisi logica ne ponga in luce i presupposti generali, giustificandone le definizioni e le procedure deduttive. Questo spiega la caratteristica più evidente che distingue la logica matematica dalla logica formale tradizionale: la coesistenza in essa di un livello dove si situano i linguaggi, le regole deduttive, le teorie costruite e nessuna nozione matematica specifica viene presupposta con un livello superiore in cui questi stessi linguaggi, queste regole e queste teorie vengono analizzate utilizzando eventualmente strumenti matematici specifici. Costante in ogni caso rimane la distinzione tra il piano teorico – quello in cui si situano i linguaggi, le procedure e le teorie che vogliamo esaminare – e il piano metateorico in cui appunto avviene questa analisi. Quanto ai metodi impiegati in questo studio, essi si sono andati precisando nel corso dei dibattiti susseguitisi a partire dai primi del Novecento tra sostenitori di una visione francamente infinitaria, che concepiva la teoria degli insiemi come la fondazione di una nuova matematica di carattere astratto, e quelli di una concezione che privilegiava l’aspetto costruttivo, legato a procedure dominabili, del pensiero matematico. Di qui l’articolazione dell’analisi delle teorie in due prospettive complementari: l’analisi sintattica, interessata alle teorie come sistemi formali, dispositivi di carattere appunto sintattico per costruire deduzioni, la cui importanza è stata sottolineata soprattutto da David Hilbert a partire dagli anni Venti; l’analisi semantica, rivolta all’aspetto interpretativo del linguaggio matematico e la cui indagine sistematica sarà Alfred Tarski a inaugurare negli anni Trenta. Centrale in entrambe le prospettive rimane il concetto di teoria, che costituisce sotto il duplice aspetto di calcolo logico e di teoria deduttiva l’oggetto fondamentale d’indagine.
Come disciplina in sé, la logica matematica non pone vincoli ai metodi impiegati. È chi intende utilizzare i suoi risultati in una data cornice filosofica che può eventualmente porne per ragioni fondazionali. Contrariamente a quanto si potrebbe pensare, questo tipo di vincolo è stato storicamente uno stimolo fondamentale per la ricerca, come mostrano gli esempi opposti della teoria della dimostrazione e della teoria dei modelli. Sono questi due dei settori centrali della moderna ricerca logica, accanto allo studio delle diverse logiche nate sin dagli anni Venti per motivi filosofici o per affrontare situazioni che si presentano in altre discipline (linguistica, informatica teorica, fisica, e così via). Sullo sfondo, vi sono le indagini legate alla teoria degli insiemi e a quella della ricorsività, che tematizzano in generale le nozioni collegate alla costruzione di strutture astratte e alla definizione di procedure combinatorie. Di data più recente ma con promesse di grandi sviluppi sono i rapporti con la teoria delle categorie, che già ha fornito decisivi contributi all’unificazione dei diversi aspetti della ricerca logica.
I linguaggi formali che la logica matematica utilizza hanno il ruolo di rendere esplicita la forma logica degli enunciati, in quanto è da questa forma che dipendono i loro rapporti (coerenza, incompatibilità, consequenzialità ecc.) che ci interessano dal punto di vista logico. Questa analisi può essere condotta a diversi livelli di profondità ed esiste una gerarchia di linguaggi di cui il logico si può servire per analizzare le teorie matematiche, dipendente da quali sono le componenti della forma logica degli enunciati che si prendono in considerazione. Ai livelli più elementari stanno due tipi di linguaggi, quelli enunciativi e quelli equazionali, oltre i quali stanno i linguaggi del primo ordine e di ordine superiore.
Abstract di approfondimento da Modelli, Teoria dei di Silvio Bozzi (Enciclopedia della Scienza e della Tecnica)
Malgrado le modeste origini che ne hanno segnato la nascita, la teoria dei modelli ha sviluppato nel corso del tempo idee e metodi che l’hanno resa uno dei settori più significativi dell’indagine logica contemporanea, per le sue interessanti applicazioni all’algebra, alla geometria algebrica, all’analisi e all’informatica teorica. Non c’è da stupirsi quindi del ruolo paradigmatico che hanno avuto per la teoria dei modelli le indagini sull’assiomatizzazione della geometria condotte nei primi anni del Novecento da David Hilbert, Giuseppe Peano e Mario Pieri, per limitarci ai nomi più grandi.
La teoria dei modelli propriamente detta nasce quando questo tipo di problemi comincia a essere affrontato in modo sistematico ricorrendo agli strumenti propri della logica matematica, in particolare a quei linguaggi formali che la ricerca logica aveva elaborato per scopi fondazionali. Nel 1931 Alfred Tarski darà la prima definizione adeguata dei concetti semantici fondamentali di verità, modello, insieme definibile, conseguenza e, nel 1945, Anatolij I. Mal’cev mostrerà non solo come molte fondamentali strutture algebriche siano naturali interpretazioni per teorie formulate al primo ordine ma anche come si possano ottenere significativi risultati su di esse utilizzando fatti generali – primo fra tutti, il teorema di compattezza – sui modelli di insiemi di formule in linguaggi elementari con numero di costanti extralogiche arbitrario. Più o meno negli stessi anni Tarski pubblica i risultati ottenuti nei primi anni Trenta sulla completezza e decidibilità della teoria elementare dei numeri reali e mostra come trasferire queste proprietà alla geometria, formulando in termini logici generali la procedura che sta alla base della coordinatizzazione dello spazio euclideo sul campo dei reali. Strumento base per provare la completezza, il metodo dell’eliminazione dei quantificatori è introdotto nel 1918 da Thoralf Skolem e poi applicato, prima dell’intervento di Tarski, da Cooper H. Langford (1927) a diverse teorie degli ordini e da Mojzesz Presburger (1930) al gruppo additivo degli interi. La teoria dei modelli era nata.
A partire dagli anni Cinquanta, le ricerche si svilupperanno in due direzioni tra loro comunicanti ma con obiettivi diversi. Da una parte si rafforzeranno i contatti con l’algebra universale e lo studio si concentrerà sulla classificazione dei diversi tipi di classi di algebre o sistemi relazionali in termini della loro definibilità, sottolineando i rapporti tra proprietà di chiusura rispetto a relazioni e operazioni su strutture e forma sintattica dei possibili assiomi. Parallelamente, prenderà forma il progetto di una teoria dei modelli come contesto in cui sviluppare algebra, settori della geometria algebrica ecc. lungo le linee illustrate già negli anni Quaranta da Mal’cev e riprese negli anni Cinquanta da Abraham Robinson.
Altro tipo di ricerche che iniziano negli anni Sessanta sono quelle nate con i lavori di James B. Ax e Simon B. Kochen del 1965 sulla congettura di Artin, che apriranno la strada allo studio della teoria dei modelli dei campi valutati. Accanto a queste ricerche, dirette esplicitamente alle applicazioni, continuano le indagini connesse a classici problemi di tipo metamatematico (decidibilità, diverse forme di definibilità, categoricità, assiomatizzabilità finita ecc.). A partire dagli anni Sessanta decolla anche uno studio sistematico di ampie classi di linguaggi più espressivi di quelli elementari come i linguaggi infinitari, quelli con quantificatori generalizzati, frammenti del secondo ordine con interpretazioni di tipo ‘regionale’ (logica topologica, strutture boreliane, logica della probabilità ecc.). Ma le novità più significative riguardano le indagini connesse con il problema della categoricità. Nel 1965 Michael Morley dimostra il suo teorema sulla categoricità in potenza e i metodi che introduce aprono la strada a uno studio sistematico del numero dei possibili modelli (a meno di isomorfismo) delle teorie, elementari e non. Saharon Shelah sarà uno dei principali protagonisti del tentativo di sviluppare una teoria generale della classificazione dei modelli delle teorie e in questo contesto verranno introdotti metodi e concetti nuovi e fondamentali, quali quello di stabilità, di teoria semplice, di forking, di elemento immaginario, che saranno utilizzati anche nell’ambito di progetti di ricerca diretti in modo più esplicito alle applicazioni matematiche. Alla fine degli anni Settanta nasce dagli studi di Boris Zil’ber sulla congettura di Vaught (per cui ogni teoria totalmente categorica non è finitamente assiomatizzabile) quella che è nota oggi come teoria geometrica della stabilità, che introdurrà metodi nuovi e profondamente legati a tecniche e idee della geometria algebrica.