EPISTEMOLOGIA
. Assumendo la parola "epistemologia" nel senso di "riflessione critica generale intorno alla conoscenza scientifica", il presente tentativo di sintesi problematica delle acquisizioni epistemologiche post-ottocentesche può venir qualificato nella maniera che segue. Si tratta di lumeggiare alcuni fra i principali sviluppi della filosofia della scienza durante il Novecento, con riguardo unicamente alle analisi metodologiche di maggior ampiezza, attendibili sotto il profilo tecnico, nonché implicanti approfondita consapevolezza circa le prerogative del lavoro degli scienziati moderni, giusta il detto di Einstein, secondo cui: "Come la scienza senz'epistemologia risulta primitiva e informe, così l'epistemologia avulsa dalla scienza è destinata a costituire un vuoto schema".
Rivoluzioni scientifiche del primo Novecento. - Una volta riconosciuta l'essenziale connessione esistente fra attività scientifica e pensiero epistemologico, per acquisire un adeguato intendimento delle conquiste dell'e. novecentesca appare opportuno prender le mosse dal fervido quadro della scienza agli inizi del sec. 20°.
Non a caso, questo s'apre con la proposta di dottrine scientificamente rivoluzionarie in vari campi di ricerca: le teorie dei quanti e della relatività nella fisica, la scoperta delle antinomie insiemistiche in matematica, gli assunti analitici e comportamentistici nell'indagine psicologica, ecc.; il che presenta quale tratto peculiare una motivazione di carattere eminentemente metodologico, involvendo le prospettive così emerse soprattutto la ridefinizione d'importanti concetti sperimentali (poniamo, quello di simultaneità a distanza), l'approfondimento del rigore logico (livelli di predicazione, condizioni formali di significanza), il ricorso a nuove procedure di controllo empirico (indiretto) o a nuovi schemi esplicativi (di natura ipotetico-teorica), e simili. In particolare - com'è stato ben rilevato (L. Geymonat) - ha potuto divenir operante, tra i fisici, "una consapevolezza affatto originale" circa il valore dei principi della meccanica, la funzione dei modelli (per esempio, atomistici), il senso attribuibile a costrutti da tempo accolti entro la tradizione scientifica (l'etere, lo spazio assoluto), mentre le concomitanti istanze critiche dei matematici hanno segnato il coronamento del processo rigoristico della geometria, dell'analisi e dell'algebra ottocentesche, fino a propiziare addirittura drastiche riforme della logica classica nonché lo sviluppo rigoglioso della logica contemporanea. Il riscontro di tali fattori rappresenta una premessa indeclinabile per comprendere la prestigiosa evoluzione degli studi epistemologici nel Novecento, prospettando quanto meno valide basi genetiche in vista di un discorso maggiormente articolato sul tema.
Dalla nuova logica alla metamatematica. - Negli ultimi anni del 19° secolo e all'inizio del 20°, l'edificazione della logica simbolica, o logica matematica, o logistica, intrapresa verso la metà dell'Ottocento da G. Boole e A. De Morgan, nonché portata ulteriormente innanzi da autori come E. Schröder, C. S. Peirce e altri, quale profonda estensione o affinamento - se non quale autentica alternativa - della teoria aristotelica della deduzione, ha conseguito progressi determinanti grazie all'opera di G. Frege, G. Peano, B. Russell e D. Hilbert, attingendo una delle sue massime espressioni nei tre monumentali volumi del trattato di B. Russell (scritto con la collaborazione di A. N. Whitehead), Principia mathematica, che videro la luce a Cambridge fra il 1910 e il 1913.
La nuova disciplina si è consolidata via via autonomamente, secondo requisiti metodologici di estrema cogenza e fecondità, prima pressoché esclusivi del lavoro matematico. Anzitutto, mediante la creazione di un simbolismo analogo a quello algebrico, ha potuto strutturarsi in maniera sempre più perspicua ed efficiente, rimpiazzando la descrizione verbale degli argomenti deduttivi con "formule" rappresentanti, ciascuna per sé presa, distinte verità logiche e possibili schemi inferenziali. Ciò non senza un duplice vantaggio: da un lato, di rendere oltremodo lineare e proficua la trattazione stessa dei propri principî, consentendo in misura praticamente decisiva di accrescerne il numero; dall'altro, di promuovere una rinnovata analisi del loro rapporto con i principî matematici. Le "algebre della logica" di Boole, De Morgan, Schröder, ed epigoni, a parte l'importanza rivestita sotto ulteriori aspetti, costituiscono illustrazioni eloquenti al riguardo.
Il nesso fra logica e matematica è stato quindi approfondito man mano che si procedeva a esprimere l'intero corpus delle verità logiche nella medesima forma rigorosa della teoria matematica tradizionalmente ritenuta più perfezionata; la geometria euclidea. Così, tra i fondatori della logica simbolica, Frege, Russell e Hilbert hanno promosso con vigore la progressiva 'assiomatizzazione' della loro disciplina, ottenendo esiti cospicui. Infatti, l'organizzazione sistematica istituita in tal modo fra gli elementi della logica non solo ha permesso di penetrarne con maggior efficacia la natura e le basi costitutive, ma è stata altresì accompagnata dallo sviluppo di nuove e potenti tecniche (per es., la quantificazione predicativa, il calcolo relazionale, la teoria dei tipi), atte ad assicurare importanti ampliamenti rispetto alla dottrina aristotelica. Tutto questo senza dire che, grazie a simili innovazioni procedurali, la logica ha finito col trasformarsi in vera e propria scienza esatta, non più semplice propedeutica o capitolo della filosofia, bensì disciplina a pieno titolo indipendente.
Infine, secondo il significato più riposto della connessione fra principî logici e principî matematici, i primi sono stati integralmente "formalizzati", soprattutto attraverso i lavori di Frege e, ancor più, di Hilbert. Una volta apparso che, dissociando l'elaborazione assiomatica della geometria e dell'algebra dal modo usuale di concepire i rispettivi termini, si giungeva a precisarne con chiarezza i fondamenti e la struttura, nonché ad arricchire l'intera matematica di nuove branche (le geometrie non euclidee, le algebre di W. R. Hamilton, H. Grassmann, G. Boole, ecc.), è risultato possibile (e per determinati scopi necessario) operare analogamente in logica. Così, al fine precipuo di attingere il massimo rigore, come già auspicato da Leibniz, i simboli e le formule di questa, anziché quali abbreviazioni di termini e concetti, di proposizioni e giudizi (suscettibili di verità o di falsità), di argomenti sillogistici e non sillogistici, hanno potuto venir assunti - in una data fase della ricerca logica - come meri elementi di calcoli combinatori astratti. Ne sono scaturite, al di là degli stessi propositi di Frege, Hilbert, ecc., logiche polivalenti, logiche "non standard", logiche interpretabili in modi diversi, ma tutte in sé e per sé immuni da contraddizioni. Alcune di tali logiche hanno permesso di riformulare tesi centrali della tematica probabilistica, risultando inoltre atte a venir applicate in vista di concrete finalità tecnologiche (teoria dei circuiti). Nello stesso tempo, lo studio delle possibili interpretazioni, o modelli, dei calcoli formali, o sintattici, si è rivelato un dominio tanto ricco d'interesse, da originare il significativo e vasto settore delle indagini logico-semantiche.
Come già suggeriscono questi rilievi storici generali, nel Novecento la logica ha raggiunto un assetto scientificamente avanzato proprio in virtù di drastiche revisioni metodologiche, attestanti la maturazione al suo interno di una fertile coscienza critica. Fattore primario, nella fattispecie, deve senz'altro ritenersi l'orientamento "convenzionalistico", espresso con la massima risolutezza da R. Carnap durante il 1934, a Vienna, nelle pagine della Logische Syntax der Sprache dedicate al celebre "principio di tolleranza": "In logica non vi sono morali. Ognuno è libero di costruire la propria logica, cioè la propria forma di linguaggio, nel modo che vuole. Tutto quel che si esige da lui, se egli intende dar ragione del proprio metodo, è che lo stabilisca chiaramente e adduca regole sintattiche anziché argomentazioni filosofiche" (trad. it., p. 89).
Il rinnovamento della logica perseguito fra 19° e 20° secolo sul modello della matematica ha avuto, inter alia, anche l'effetto di render possibile l'operazione inversa: riorganizzare il sapere matematico applicando ad esso i potenziati metodi logici. Frege, Peano, Russell, Hilbert e altri studiosi di salda formazione logica ne sono stati indotti a tentar di ricostruire in varia misura l'aritmetica, la geometria e le ulteriori discipline matematiche classiche sotto forma di sistemi assiomatici rigorosi, attraverso la loro riduzione a pochi concetti e asserti basilari, implicanti ogni residua verità di dette discipline quale teorema. In ciò può ravvisarsi la genesi dell'odierna "metamatematica", ossia dell'insieme di riflessioni epistemologiche intorno ai principî matematici, svolte secondo precise tecniche logico-formali.
Si tratta di una serie di studi estremamente cospicui, originati in pratica (eccettuato il primo, isolato, lavoro di Frege, di cui si dirà poi) verso la fine dell'Ottocento con l'"aritmetizzazione" dell'intera matematica ad opera di Peano, sulla scorta dell'antecedente aritmetizzazione dell'analisi promossa da J. W. R. Dedekind e K. Weierstrass. Avvalendosi di tre sole idee aritmetiche primitive, designate dai termini "zero", "numero naturale" e "successivo", nonché di cinque postulati, esprimenti proprietà o relazioni delle medesime, egli, coll'ausilio della nuova logica simbolica, oltre che dei procedimenti geometrico-analitici e degli esiti più avanzati in campo infinitesimale, intraprese lo sviluppo di un sistema assiomatico volto ad assicurare sia la definizione di ogni altro concetto matematico per mezzo dei suddetti primitivi, sia lo stabilimento di tutte le tesi matematiche tradizionali in quanto conseguenze o teoremi derivanti dagli assiomi prescelti.
Benché l'aritmetizzazione peaniana rappresenti il culmine di uno dei massimi rivolgimenti intellettuali ottocenteschi, Russell vi ha potuto cogliere un'innegabile carenza rilevando l'incompletezza delle sue nozioni cardinali, meramente definite in modo implicito mediante i cinque postulati. Così, fra il termine dell'Ottocento e l'inizio del Novecento, si è delineato un ulteriore programma di revisione critica, complementare nei confronti della stessa aritmetizzazione: quello della cosiddetta "logicizzazione" della matematica classica.
Esso risulta in gran parte addotto a compimento nelle pagine russelliane dei Principles of mathematics (1903) e dei già riferiti Principia matematica, essendo stato comunque anticipato largamente dalle acquisizioni di Frege durante gli ultimi decenni del 19° secolo. Al di là dell'aritmetizzazione, vi predomina l'esigenza tanto di definire i concetti primitivi di sistema di Peano mediante nozioni di logica pura e della moderna teoria degli insiemi, quanto di ricondurre deduttivamente tutti gli assiomi peaniani a un'esigua classe di principi logici e insiemistici. Il notevole valore critico della dottrina in tal modo asserita è oggi riconosciuto senza riserve, dato che, pur con difficoltà e limiti, essa fornisce un'esplicazione pregnante del rapporto fra matematica e logica, nonché di molteplici loro attributi essenziali. Nel medesimo tempo, la persistenza al suo interno di motivi particolarmente problematici appare in effetti responsabile del delinearsi di altri importanti orientamenti epistemologici novecenteschi.
Tra gli scogli più ardui affiorati ben presto nella logicizzazione della matematica classica, ebbe peso determinante la scoperta delle "antinomie" della teoria degli insiemi. Ne è prova la celebre lettera scritta da Russell a Frege nel 1902, con la quale venne denunciata la contraddizione inerente alla classe di tutte le classi che non sono membri di se stesse, contraddizione atta a invalidare tutto l'edificio del sapere logico-matematico minutamente ricostruito dai due pensatori. Proprio i tentativi compiuti per rimuovere siffatte implicanze contraddittorie segnarono il consolidarsi di varie tendenze o scuole metamatematiche, la cui attività non mancò di acquisire rilievo fondamentale nell'epistemologia del 20° secolo.
Russell introdusse, allo scopo, la nota "teoria dei tipi", originale gerarchizzazione delle categorie predicative, che riprende e svolge organicamente istanze metodologiche talvolta intraviste, quantunque mai elaborate in maniera sistematica, nelle opere di logici anteriori, da Aristotele a Peano. Ma nemmeno così egli poté neutralizzare del tutto le obiezioni contro l'indirizzo del "logicismo", di cui fu fondatore con Frege, esponendosi, anzi, ad accuse d'artificiosità o d'arbitrarietà, queste ultime dirette anche contro specifici presupposti della logicizzazione dell'analisi infinitesimale, come, poniamo, l'assioma dell'infinito.
Mezzi diversi per sciogliere il nodo delle antinomie vennero suggeriti dagli esponenti del "formalismo": D. Hilbert, P. Bernays, ecc., nonché dell'"intuizionismo": L. E. J. Brouwer, A. Heyting, e altri. Essi auspicarono una ricostruzione della matematica classica in termini, rispettivamente, affatto formalizzati, ovvero introspezionistico-mentali (con generico riferimento kantiano), basando di preferenza le loro ricerche sull'uso di procedure costruttivistiche e finitistiche, ritenute idonee ad assicurare teorie determinate secondo criteri effettivi, nonché, eventualmente, libere da ogni ipoteca di contraddittorietà in quanto suscettibili di esaurienti dimostrazioni di coerenza.
Tuttavia, neppure tali dottrine riuscirono a eludere serie critiche, sia per la precaria chiarificazione da esse attinta dei concetti matematici basilari (esplicitamente non interpretati nel formalismo e intesi in modo vago dall'intuizionismo, fautore, altresì, di un'analisi oltremodo restrittiva delle conoscenze matematiche tradizionali), sia per l'esito del famoso teorema di K. Gödel, che nel 1931 mostrò l'intrinseca impossibilità di stabilire, entro un sistema logico-matematico implicante l'aritmetica elementare, il carattere non contraddittorio e completo del sistema medesimo. Restano comunque apporti metodologicamente cospicui del lavoro dei formalisti e degli intuizionisti: da un lato, la formulazione della Beweistheorie, o teoria generale della dimostrazione (con organico impiego, nella linea di Frege, di espliciti "metalinguaggi", per poter esprimere rigorosamente il discorso circa le formule logiche e matematiche enunciate in termini di "linguaggio-oggetto"), dall'altro, lo sviluppo di logiche alternative a quella classica (per es., disgiunte dal principio del terzo escluso), l'insistenza sullo studio delle cosiddette matematiche del finito, ecc.
Durante gli ultimi decenni, lo scarto fra gli indirizzi logicista, formalista e intuizionista, col venir ricondotto a prospettive convenzionalistiche, si è parzialmente attenuato, mantenendo invece risvolti teorici complessi nei confronti di vedute filosofiche secolari quali il realismo platonico, il concettualismo e il nominalismo. In ogni caso, più che risultati globalmente conclusivi, nel quadro che ne è scaturito, si rilevano grandi aperture tematiche e arricchimenti specialistici come, poniamo, la radicale messa a punto delle nozioni tecniche di validità, dimostrabilità, indipendenza, completezza, coerenza e simili.
Da quanto precede, e considerando soprattutto alcuni aspetti generali particolarmente significativi, è legittimo dire che in rapporto alla logica e alla matematica le indagini epistemologiche del Novecento presentano tesi di estremo interesse. Con stacco risoluto dall'incerto psicologismo del secolo anteriore, le due discipline appaiono per lo più ritenute - pur non senza vigorose contrapposizioni - scienze formali, ossia costituite da asserti analitici, "tautologici" (nel senso lato della parola), necessariamente veri, ma privi di portata empirica concreta. Esse figurano quindi depositarie di un sapere in massimo grado cogente e astratto, avendo il compito di assicurare gli strumenti inferenziali o calcolistici imprescindibili per la ricerca fattuale. Inoltre, sono alfine concepite nei termini di un'organica concezione unitaria, secondo cui, come nota limpidamente W. V. O. Quine: "La matematica può venir ridotta alla logica e alla teoria degli insiemi, così da presupporre quale suo oggetto effettivo il dominio delle classi" (The scope and language of science, trad. it., p. 934); ovvero, per invocare la testimonianza di un altro autorevole studioso odierno, A. Church, si ha "la riduzione del vocabolario matematico a una lista sorprendentemente circoscritta di nozioni primitive, tutte derivanti dalla logica pura, onde diviene possibile perseguire il riassetto della matematica tradizionale sulla base di un sistema assiomatico unificato relativamente semplice" (Mathematics and logic, trad. it., p. 151).
Nella sua consapevole esplicazione degli attributi rivoluzionari dal punto di vista metodologico del recente pensiero logico-matematico, l'e. novecentesca è impegnata ad avallarne con fermezza le implicanze distintive di maggior respiro. Si tratta, per es., dell'approfondita consistenza tecnica ormai propria di tutte le scienze astratte e dell'eminente rigore ivi attingibile mediante le nuove procedure linguistico-formali (discriminando, nelle teorie, nelle catene definitorie, nelle assiomatizzazioni, linguaggio-oggetto e metalinguaggio, livello strutturale e livello interpretativo, ecc.); della loro sempre più vasta e potente generalità, accentuata dallo sviluppo del lavoro d'analisi e dimostrazione sul piano metalogico o metamatematico; nonché, infine, della fertile libertà costruttiva affermatasi all'interno di entrambe le discipline con motivazioni, insieme, affatto convenzionali e pragmatiche.
Circostanza senz'altro rilevante, nello svolgimento della vicenda di cui sopra, è che i rinnovati principi logici hanno finito col venir ben presto assunti dalla stessa riflessione epistemologica come peculiari mezzi d'indagine. Già pubblicando Our knowledge of the external world (1914), B. Russell ne difese espressamente l'impiego quale comprensivo "metodo logico-analitico" della filosofia scientifica, o e., in ciò seguito con salda convinzione da altri pensatori contemporanei, quali, per es., A. Tarski, esplicito nel considerare "il loro studio pregiudiziale per l'intelligenza delle dottrine matematiche" (Introduction to logic, 1941 [19462], p. 117) e Carnap, altrettanto incline a ritenere apertamente "l'analisi logica dei concetti e delle proposizioni delle scienze" (Logische Syntax der Sprache, trad. it., p. 16), primario strumento di chiarificazione metodologica. Ma poiché questi rilievi toccano, in sostanza, anche l'oggetto del paragrafo successivo, conviene ora procedere a integrarli con ulteriori e distinte considerazioni su parti residue del tema.
La svolta linguistica. - Con l'espressione "svolta linguistica" si suole indicare l'orientamento promosso da L. Wittgenstein mediante la pubblicazione - a Londra nel 1922 - del testo inglese del suo Tractatus logico-philosophicus. In esso la ricerca filosofica venne prospettata come attività di tipo essenzialmente logico-linguistico: "tutta la filosofia è analisi del linguaggio" (proposizione 4.0031), implicante quale proprio scopo "l'esegesi logica dei pensieri" (proposizione 4.112), "il chiarirsi di proposizioni" (proposizione 4.112). Così, dando forma radicale a motivi suggeriti in varia misura negli scritti dei suoi stessi maestri (B. Russell e G. E. Moore), l'autore del Tractatus propiziò la genesi di un indirizzo filosofico d'ampia portata, nel cui ambito i problemi epistemologici non mancarono di conseguire con immediatezza nuove e feconde trattazioni, per opera, specialmente, degli studiosi del Circolo di Vienna, cioè M. Schlick, H. Hahn, O. Neurath, P. Franck, R. Carnap, ecc.
Quest'ultimo, fin dal tempo della già citata Logische Syntax der Sprache, fu tra i più decisi fautori della svolta in questione a proposito sia della logica ( "essa può venir studiata con grande accuratezza attraverso l'analisi, non tanto di giudizi o contenuti di pensieri, quanto delle espressioni linguistiche, fra le quali emergono per importanza gli enunciati o proposizioni", § 1, trad. it., pp. 23-4), sia della filosofia della scienza, o e. ("è possibile sostituire la riflessione filosofica tradizionale con una disciplina rigorosamente scientifica, la logica della scienza intesa come sintassi del linguaggio scientifico", § 86, p. 261). In breve, grazie alle numerose pubblicazioni dei membri del cenacolo viennese e dei loro alleati (per es., la rivista Erkenntnis), siffatta prospettiva acquisì vasta eco internazionale, ciò che risulta particolarmente manifesto nelle pagine dell'International Encyclopedia of Unified Science, edita presso l'università di Chicago a partire dal 1938, ove la conversione "linguistica" dell'epistemologia venne ribadita ed estesa attraverso la fortunata formula dello "studio sintattico-semantico del linguaggio scientifico" (R. Carnap, Logical foundations..., pp. 44-5).
Su tali basi, il lavoro epistemologico degli ultimi decenni ha potuto attingere frutti copiosi, mediante "esplicazioni", "analisi critiche", "ricostruzioni razionali" degli aspetti salienti del discorso degli scienziati. Esempi ormai classici al riguardo sono costituiti dalla definizione semantica della verità, di Tarski, dall'interpretazione logica degli asserti probabilistici, di Carnap, e simili; ma rilievo certo non minore, quantunque eminentemente problematico e ancor oggi alquanto dibattuto, presenta la discussione apertasi in tema di significato con la nota tesi wittgensteiniana, secondo cui "il senso di una proposizione consiste nelle sue condizioni di verità". All'interno di essa ha preso corpo l'esigenza analitica di un esplicito "criterio di significanza", criterio destinato a rinnovare in maniera profonda e irreversibile il metodo stesso della filosofia e della e., integrandolo, oltre le tradizionali categorie della verità e della falsità, con la considerazione pregiudiziale del significato delle espressioni linguistiche. Concepito dapprima soprattutto in termini di "verificabilità", così da rendere significanti, poniamo, fra gli asserti fattuali solo quelli verificabili empiricamente, nonché, quindi (come si vedrà tra breve), "liberalizzato", detto criterio rappresenta la teorizzazione consapevole di generali istanze di rigore affiorate via via nella scienza del primo Novecento: dall'ideale russelliano di una gerarchia dei livelli di predicazione in logica e teoria degli insiemi, alla proposta di ridefinizione dei predicati spazio-temporali nella fisica relativistica; dalla denuncia della precarietà semantica di peculiari descrizioni quantistiche giusta il "principio d'indeterminazione" di W. Heisenberg, alla formulazione della dottrina dell'"operazionismo" da parte di P. W. Bridgman, che afferma "l'impossibilità di estrapolare il significato degli esperimenti al di là dei loro limiti concreti" (The logic of modern physics, 1927, trad. it. Torino 1952, 19652, p. 35) e, per conseguenza, la necessità di definire i termini scientifici adducendo precise indicazioni "operative" circa le procedure del loro impiego in atto entro il discorso dell'indagine sperimentale.
Verso un empirismo liberalizzato. - Insieme con altri fattori, l'interesse organico così delineatosi per la questione del criterio di significanza è presto confluito nello sviluppo di uno dei temi più ampi della metodologia novecentesca: il riesame delle modalità interpretative dell'intero apparato linguistico delle scienze reali. La genesi di ciò può ravvisarsi nel graduale riconoscimento - promosso durante gli anni trenta soprattutto da pensatori come Hahn, Neurath, Popper, Carnap, ecc. - del carattere intrinsecamente ipotetico degli asserti sia universali (leggi o teorie), sia singolari (registrazioni di dati o "protocolli") inerenti alle suddette discipline. Di fatto, una volta smentita in tal modo la possibilità di asserzioni sintetiche certe, ne conseguì l'abbandono del criterio di verificabilità quale criterio di significanza degli enunciati empirici, poiché, mentre sulla sua base questi potevano ritenersi significanti solo quando fossero verificabili in maniera completa, coll'ammettere la loro intrinseca ipoteticità se ne veniva, viceversa, a escludere ogni eventuale verifica del genere e quindi, per principio, ogni significato.
Un ulteriore riflesso del nuovo orientamento appare costituito dalla rinuncia al criterio della definibilità esplicita per l'interpretazione dei termini non primitivi delle scienze fattuali, criterio già sostenuto con larga risonanza nel trattato di Carnap Der logische Aufbau der Welt (1928), sulla linea del rigido riduzionismo empiristico o positivistico di E. Mach. Anche entro simile contesto fu determinante il riconoscimento della dipendenza del significato di peculiari espressioni scientifiche (per es., i cosiddetti costrutti teorici: "atomo", "elettrone", "super-ego", ecc.) da principi di natura ipotetica, destinati a garantirne operativamente significanza empirica se non altro parziale. Comunque, attraverso siffatta revisione, si finì col "liberalizzare" sotto un duplice aspetto la prospettiva empiristica in esame, sostituendo, da un lato, il criterio di verificabilità mediante il meno angusto criterio di confermabilità, nonché, dall'altro, il criterio della definibilità esplicita mediante il più aperto criterio di riducibilità.
Senza voler, per ora, entrare nel merito delle prerogative di quest'ultimo principio, conviene subito chiarire che uno dei testi chiave della vicenda risultò essere il lungo saggio di Carnap Testability and meaning (1936-1937). In esso venne ribadito che "il significato di un asserto coincide, entro certi limiti, col modo nel quale se ne determina la verità o la falsità, e un asserto va ritenuto significante solo se tale determinazione appare possibile. Ma se per verificazione s'intende una dimostrazione assoluta di verità, allora nessun asserto sintetico è mai verificabile, potendo, al massimo, venir confermato... Denominando 'confermabili' gli asserti, di cui consta in che condizioni, per principio, avrebbe luogo conferma effettiva, diviene sostenibile una miglior formulazione della tesi dell'empirismo, ove il criterio di significanza figura concepito in termini di confermabilità" (trad. it., pp. 151-152).
Posto, quindi, che un asserto fattuale, destinato a venir accolto nel corpus delle cognizioni scientifiche in virtù non tanto di completa verifica, quanto piuttosto di conferma progressiva sul piano dell'esperienza, risulti con ciò significante solo essendo confermabile empiricamente, resta da rilevare come anche il tema della determinazione del significato dei predicati non primitivi entro le scienze reali abbia ricevuto approfonditi chiarimenti lungo linee affatto consimili. Si è trattato soprattutto di stabilire le modalità d'introduzione di detti predicati sulla base di termini designanti attributi osservabili dei fenomeni sottoposti a indagine, modalità tali da assicurare, appunto, la confermabilità e la significanza degli asserti includenti in maniera essenziale le espressioni così introdotte nel discorso scientifico. Secondo quel che è già stato suggerito, lo studio di questo problema implica il riconoscimento di procedure non circoscritte alla tradizionale definizione esplicita, ossia le "proposizioni di riduzione", i cui caratteri e scopi appaiono, tuttavia, suscettibili di più organica analisi entro il contesto dell'esame delle teorie, da svolgersi specificamente nelle pagine successive (v. oltre, Il significato delle teorie).
Spiegazione e previsione. - Estendendo alla concezione della scienza promossa nel quadro dell'e. novecentesca il noto assunto di Ferdinand de Saussure circa il linguaggio, da lui inteso quale système où tout se tient, risulta pienamente motivata la prospettiva di un concatenamento pregnante fra i vari aspetti della critica del lavoro degli scienziati, in particolare fra la tesi dell'intrinseca ipoteticità del discorso scientifico-fattuale e il tema dei modelli di spiegazione e previsione vigenti all'interno del medesimo.
Ciò dipende dal fatto che la scienza empirica moderna mira ad attingere il proprio intento esplicativo e di anticipazione del corso degli eventi attraverso lo sviluppo di un organico sistema d'ipotesi universali (leggi o teorie), congiunte fra loro secondo precisi nessi logici. Come sottolineato nell'opera di R. B. Braithwaite, Scientific explanation (1953, p. ix), essa "a mano a mano che avanza, non si accontenta di stabilire delle semplici generalizzazioni tratte dai fenomeni esperiti, ma cerca di rendere intelligibili queste stesse generalizzazioni di livello elementare derivandole da ipotesi più generali di livello superiore. Una simile organizzazione della scienza in sistema gerarchico strutturato logicamente richiede l'uso di tecniche inferenziali affinate che, per la maggior parte, vengono fornite dalla matematica pura. Via via che ci s'innalza nella gerarchia delle ipotesi di generalità crescente, i concetti addotti cessano di coincidere con attributi di entità direttamente osservabili, assumendo, viceversa, il carattere di costrutti teorici (atomi, elettroni, campi di forza, geni, atti mentali inconsci), ancorati al piano dell'osservazione mediante complesse procedure interpretative".
Ora, tale punto di vista, già profilato con chiara consapevolezza linguistica durante il 1934 nella Logische Syntax der Sprache di Carnap - "la spiegazione di un singolo processo fisico noto, l'illazione di un processo ignoto, passato o presente, da uno noto, e la previsione di un evento futuro sono operazioni della medesima natura logica: in tutti e tre i casi si tratta d'inferire la proposizione che descrive il processo o l'evento considerato da leggi e da altre proposizioni descrittive valide; spiegare una legge significa inferirla da leggi di maggior ampiezza" (trad. it., p. 427) -, trovò la sua formulazione più analitica e più efficace nei successivi testi di C. G. Hempel: dal saggio, scritto con P. Oppenheim, Studies in the logic of explanation (in Philosophy of science, 1948, XV, pp. 135-75) ai volumi Aspects of scientific explanation (1965) e Philosophy of natural science (1966) nonché parzialmente, in altri ancora.
Ivi venne proposto il cosiddetto "modello nomologico-inferenziale" (da νόμος, legge) per determinare criticamente le prerogative dell'indagine empirica prese in esame riconducendole a un comune schema unitario. Nei suoi termini, constatato che "la ricerca scientifica, anziché limitarsi a descrivere singoli fenomeni del mondo dell'esperienza, tenta di scoprire delle regolarità nel flusso degli eventi e, con ciò, di enucleare leggi utilizzabili a scopo di spiegazione o previsione" (C. G. Hempel, The theoretician's dilemma, trad. it., p. 99), risulta che i processi esplicativi e previsionali hanno identica struttura logica, consistendo entrambi nel mostrare che un determinato fatto discende da ulteriori fatti secondo leggi generali rilevanti. Entro i contesti più semplici, l'argomento inferenziale pertinente può venir assimilato a una deduzione della forma:
ove C1, C2, Ck sono particolari registrazioni osservative (per es., della posizione e del momento di specifici corpi celesti: Urano, oppure, alternativamente, Nettuno, ecc., in un dato tempo) e L1, L2, Lr sono leggi generali (poniamo, quelle della meccanica celeste newtoniana); E, infine, è una proposizione che descrive quanto viene spiegato (per es., le irregolarità nell'orbita di Urano) o previsto (poniamo, il futuro passaggio di Nettuno; passaggio che, anticipato dapprima proprio sulla base di dette irregolarità, una volta avvenuto e percepito, può venir assunto quale condizione per spiegare causalmente le stesse), fermo restando che l'intero procedimento si ritiene valido solo se la conclusione E consegue di necessità dalle premesse C ed L.
Oltre alla variante deduttiva così illustrata, includente come caso peculiare la spiegazione causale, il modello nomologico-inferenziale dei processi esplicativi e previsionali ne presenta anche una statistica o induttiva. Senza entrare nel merito delle molteplici difficoltá analitiche ancora sussistenti al riguardo, è possibile dire che essa ricorre quando L1, L2, Lr, anziché avere il carattere di leggi ineccepibili (ossia di asserti universali illimitati, affermanti, con adeguato grado di conferma empirica, l'esistenza tra i fenomeni esperiti di uniformità o connessioni costanti, prive di qualsiasi eccezione), sono solo leggi statistiche, cioè enunciazioni di "rapporti di frequenza" tra classi di proprietà o eventi, tali, comunque, da implicare, insieme con C1, C2, Ck, non già necessariamente bensì soltanto probabilisticamente, la conclusione E.
Entrambe le varianti di cui sopra concernono la spiegazione e la previsione di fatti singoli; ma il modello nomologico-inferenziale è applicabile, sia nella forma deduttiva, sia in quella statistica o induttiva, anche per spiegare leggi, come quando, ad esempio, i principî di Keplero sul moto planetario (E) sono spiegati col venir inferiti dalle più ampie generalizzazioni della meccanica newtoniana (L) e da enunciati specificanti peculiari condizioni empiriche (C).
Nella misura in cui la ricostruzione epistemologica dei processi esplicativi e previsionali imperniata sul modello nomologico-inferenziale è corretta, ne deriva una concezione della scienza empirica secondo la quale essa appare organismo, a un tempo radicato saldamente nell'esperienza e contraddistinto da una rigorosa struttura logico-matematica (giusta la sua caratterizzazione galileiana in termini di "sensate esperienze" e "necessarie dimostrazioni"), assai lontano, quindi, dalla "mera rappresentazione dei fenomeni" o dal "catalogo di fatti", di cui parlano autori ancor legati a vedute ottocentesche, come, rispettivamente, P. Duhem, nella Théorie physique (1906) e H. Poincaré, in La science et l'hypothèse (1902). La profonda unità razionale che così viene riconosciuta al sapere scientifico appare, viceversa, sottolineata con toni quanto mai validi e suggestivi nelle pagine di una delle opere più imponenti della letteratura metodologica contemporanea: The structure of science di E. Nagel, volta, appunto, a mostrare che lo scopo dell'indagine fisica "può esser attinto solo isolando specifiche proprietà degli oggetti osservati e chiarendo i nessi costanti di dipendenza che sussistono fra le medesime. Quando una simile ricerca è stata compiuta, asserti che prima sembravano fra loro indipendenti rivelano precisi legami reciproci, grazie al posto rispettivamente occupato entro un sistema di spiegazioni. Talora, è possibile determinare reti di rapporti inerenti a vaste regioni di fatti, tanto che, coll'ausilio di un numero esiguo di principî esplicativi, si riesce a stabilire che innumerevoli asserti riguardanti detti fatti costituiscono un corpo di conoscenze unificato logicamente. Come palesano i casi della geometria e della meccanica razionale, l'unificazione assume a volte forma deduttiva. Così, per es., una ristretta classe di leggi, quali quelle della meccanica di Newton, basta a mostrare che asserti concernenti il moto della luna, lo sviluppo delle maree, le traiettorie dei proiettili, i fenomeni di capillarità sono interconnessi e tutti derivabili dalle stesse leggi newtoniane, unite ad alcune assunzioni empiriche particolari. I diversi fenomeni vengono quindi spiegati in maniera sistematica, coll'inferire logicamente gli asserti che li descrivono da un unico insieme di principî generali" (E. Nagel, The structure of science, 1961; trad. it. Milano 1968, p. 10).
Il significato delle teorie. - Stante il notevole rilievo attribuito nell'epistemologia novecentesca al problema della spiegazione e della previsione, ben si comprende l'interesse altrettanto cospicuo che entro tale ambito sussiste per il tema delle generalizzazioni scientifiche, ossia delle leggi e delle teorie, le quali, come mostrato nel paragrafo precedente, costituiscono, appunto, le imprescindibili premesse "maggiori" di ogni procedimento esplicativo o previsionale.
Dei due livelli di generalizzazione così riscontrabili nelle scienze empiriche, quello delle leggi osservative e quello delle teorie, è in prevalenza il secondo a presentare complessi quesiti di natura critica, mentre il primo, per quanto è già stato fin qui possibile vedere, palesa un assetto relativamente approfondito (nonostante il persistere di alcune considerevoli difficoltà interpretative, soprattutto circa le componenti logico-modali e di controllo operativo implicate), grazie all'analisi dello stesso concetto di legge scientifica in termini della nozione di asserto universale illimitato, ipotetico, con alto grado di conferma induttiva.
La principale finalità dell'esame epistemologico delle teorie scientifiche svolto durante questo secolo consiste nel chiarimento delle loro condizioni di significanza empirica, come risulta dai lavori di Bridgman (The logic of modern physics) e di Carnap (Der logische Aufbau der Welt) verso il termine degli anni venti, dello stesso Carnap fra la metà e la conclusione del decennio successivo nonché, successivamente, ancora di Cannap e di Hempel dal 1950 in poi. Ciò è dovuto al fatto che nelle suddette teorie ricorrono con funzione basilare termini, predicati o costrutti non osservativi (astratti, "teorici", per es., "atomo", "elettrone", ecc.), designanti enti e attributi non suscettibili di rilevamento sensoriale diretto, onde diviene lecito chiedersi in qual modo possano venir garantite la confermabilità empirica (e quindi il significato) dei sistemi di asserti costituenti le medesime teorie, nonché, insieme, la loro funzionalità, vale a dire il potere di spiegazione e di previsione secondo le linee del modello nomologico già discusso. Ossia, esistono procedure tali da precludere, nonostante la circostanza di cui sopra, che simili sistemi risultino sostanzialmente "sganciati" dal mondo dei fenomeni, rivelandosi pertanto incapaci di conferma sul piano dell'esperienza e insufficienti come premesse per l'inferenza?
Entro il periodo qui considerato, sono state suggerite varie risposte, fra loro divergenti sotto alcuni aspetti essenziali. Da una parte, vi sono stati studiosi inclini a elidere il problema, vedendo nei termini teorici delle espressioni prive di qualsiasi riferimento fattuale, del tutto simili a quelle matematiche. Le teorie fisiche, chimiche, ecc., formulate mediante detti termini, assolverebbero, al pari delle pure enunciazioni numeriche, un ruolo unicamente ausiliario, di schematizzazione e di calcolo, così da essere destituite di portata reale e da non presentare in nessun caso peculiari esigenze di conferma empirica. Si tratterebbe solo di strumenti ("mere equazioni matematiche", secondo Heisenberg) per consentire o facilitare l'inferenza, a scopo di spiegazione e previsione, di asserti osservativi da ulteriori asserti dello stesso tipo; ma, nella misura in cui all'interno di una qualche scienza fosse possibile compiere le medesime inferenze usando teorie o strumenti diversi, anche più macchinosi, in luogo di una particolare teoria, questa potrebbe venir eliminata senza pregiudizio per l'efficacia conoscitiva della scienza considerata.
Dall'altra parte, vi sono studiosi propensi a riconoscere una genuina rilevanza fattuale alle teorie in esame e, conseguentemente, la necessità di chiarire con che mezzi siano loro assicurabili adeguata conferma induttiva nonché congruo potere di spiegazione e previsione. Nell'ambito di tale orientamento, si attribuisce agli asserti teorici la possibilità di venir confermati indirettamente, in quanto se ne possano trarre ulteriori asserti suscettibili di controllo attraverso l'osservazione diretta. La procedura ritenuta idonea a permettere le inferenze richieste appare la definizione (o la riduzione) dei predicati teorici in termini di predicati osservativi, due essendo le tecniche pertinenti nella fattispecie: le definizioni complete (esplicite: nominali o contestuali), che determinano una riduzione integrale delle espressioni definite a quelle addotte per definirle, e le definizioni incomplete (implicite: condizionali-operative, o proposizioni di riduzione), che hanno effetto riduttivo soltanto parziale.
Con l'impiego di una definizione completa, i termini teorici verrebbero ridotti senza residuo a termini osservativi e, come le teorie formulate sulla loro base, si rivelerebbero totalmente eliminabili, in un senso ancora più radicale di quello inerente alla concezione dei costrutti teorici quali schemi matematici ausiliari. Infatti, se le espressioni teoriche fossero esplicitamente definibili mediante termini osservativi, rappresenterebbero delle semplici abbreviazioni di questi, cioè permetterebbero di enunciare in modo più economico determinate conoscenze, ma non convoglierebbero alcuna cognizione non formulabile per mezzo di soli predicati osservativi. Nessuna esistenza di enti inosservabili sarebbe così presupposta dal ricorso ai termini teorici, e il problema della funzionalità e della confermabilità empirica delle teorie si risolverebbe in quello della funzionalità e della confermabilità dei vari sistemi di asserti scientifici fattuali ottenuti sostituendo, all'interno di ogni teoria, tutte le espressioni teoriche con le corrispondenti espressioni osservative usate per definirle. Il carattere indiretto della conferma delle teorie verrebbe così a dipendere dalla necessità della loro conversione in sistemi di asserti osservativi per renderle controllabili empiricamente. Anticipato nell'Ottocento dal drastico riduzionismo fenomenistico di E. Mach, un simile punto di vista risulta implicito - fra le maggiori opere espistemologiche del secolo attuale - soprattutto in Der logische Aufbau der Welt di Carnap (non senza consapevolezza di alcuni suoi rilevanti limiti), oltre che nelle tesi più rigide di The logic of modern physics di Bridgman.
La natura estremamente restrittiva delle dottrine esaminate fino a questo punto ha finito col pregiudicarne alquanto l'attendibilità, dato il loro precario riscontro nel lavoro effettivo degli scienziati. Da ciò ê dipesa l'esigenza di un'ulteriore analisi del tema in questione, analisi conforme all'assunto della definibilità o riducibilità unicamente parziale, incompleta dei predicati teorici mediante predicati osservativi. sulla base di siffatto orientamento, le teorie non appaiono più eliminabili a favore di enunciati d'osservazione e il problema dell'esistenza delle entità congetturali, incapaci di controllo percettivo diretto, conserva la propria pregnanza. Gli asserti costituenti l'esito delle spiegazioni e previsioni empiriche vengono ritenuti inferibili dalla congiunzione delle definizioni dei termini teorici e delle relative teorie, la cui conferma presenta carattere indiretto, in quanto fondata induttivamente sulla convalida sperimentale delle stesse previsioni inferite.
Reinterpretando liberamente la concezione bridgmaniana delle definizioni operative, così da sfrondarla dei suoi aspetti di maggior radicalità, nonché, insieme, procedendo a stabilire un nuovo e più appagante assetto della materia, Carnap nelle pagine di Testability and meaning elaborò la dottrina delle "proposizioni di riduzione" quale modello delle procedure definitorie in atto entro l'indagine scientifica per l'intendimento dei costrutti teorici. Si tratta di prospettiva analitica qui illustrabile nel modo più conciso attraverso l'esame di un esempio opportunamente semplificato. I segni "x, y, w, z" fungano da indicatori simbolici delle coordinate spazio-temporali, mentre "P1", "P2", "P3" valgano come abbreviazioni, rispettivamente, dei predicati "corrente elettrica", "corpo conduttore" e "incremento termico"; ciò posto, e riconosciuto carattere teorico al termine "corrente elettrica", la definizione di questo appare formulabile secondo le linee schematiche che seguono:
La natura condizionale-operativa, e quindi parziale o incompleta, di un simile procedimento definitorio, privo della pregiudizievole angustia delle definizioni esplicite, dipende essenzialmente dalla circostanza che con esso "P1" viene interpretato solo in rapporto a determinate condizioni od operazioni fisiche iniziali (inerenti all'uso di "P2"), tanto che la sua supposta equivalenza con "P3" (che designa l'effetto osservabile delle stesse operazioni, nell'ipotesi del sussistere di "P1"), anziché implicare l'eliminabilità del medesimo "P1" in favore di "P3" entro tutti i contesti, prospetta, semmai, un nesso siffatto unicamente nei casi ove risulti possibile garantire i requisiti sperimentali preliminari indicati con "P2". Ora, lungi dal rappresentare una limitazione esiziale, detta incompletezza, anche se per principio non può venir mai integralmente rimossa, è quanto meno via via attenuabile mediante lo stabilimento di ulteriori proposizioni di riduzione, con premesse e conseguenze operative diverse (per es., ponendo: "P2" = "ago magnetico" e "P3" = "deviazione di tale ago", oppure: "P2" = "soluzione salina con elettrodi" e "P3" = "elettrolisi", ecc.), così da rendere il significato di "P1" sempre più definito, benché costantemente "aperto", come richiesto dall'autentica prassi scientifica, che di fatto, consegue la massima fecondità proprio impiegando i costrutti teorici in maniera tale che siano suscettibili del maggior numero di connessioni concettuali all'interno di contesti ipotetici generalizzati.
Se ciò che precede suggerisce un'idea abbastanza perspicua del considerevole valore analitico della dottrina delle proposizioni di riduzione, non va comunque trascurata l'esistenza di alcuni motivi di perplessità al riguardo. Anzitutto, resta ancora da chiarire pienamente il carattere definitorio di dette espressioni, dato che esse, a differenza delle definizioni esplicite, non appaiono per la loro struttura logica senz'altro delle mere stipulazioni convenzionali bensì, piuttosto, dei complessi linguistici capaci d'implicanze empiriche; inoltre, sussistono seri dubbi circa la tesi della parziale definibilità in termini operativi di ogni predicato teorico.
Da questo stato di cose ha avuto origine un'ulteriore prospettiva metodologica, delineata specialmente nei paragrafi finali di Foundations of logic and mathematics e nel saggio The methodological character of theoretical concepts, di Carnap, ma ancor oggi tutt'altro che conchiusa. Si tratta della concezione dei cosiddetti "sistemi di postulati interpretativi" (o "regole di corrispondenza"), quali mezzi per assicurare significanza empirica almeno parziale ai costrutti teorici attraverso loro definizioni implicite in termini di predicati osservativi. Genericamente precorso da tesi di N. R. Campbell (Physics. The elements, 1920) e di H. Reichenbach (Philosophie der Raum-Zeit-Lehre, 1928), nonché dalla stessa reazione di Einstein alle vedute operazionistiche di Bridgman, il nucleo essenziale di tale prospettiva può venir illustrato nel modo che segue.
Suddividendo l'intero linguaggio della scienza (a parte le pure espressioni logico-matematiche) in due sottolinguaggi: quello osservativo, costituito da termini con significato o riferimento empirico direttamente percepibile, e quello teorico costituito, invece, da termini assunti all'inizio solo come segni astratti, privi di qualsiasi portata fattuale, è possibile assimilare le teorie scientifiche a semplici calcoli o sistemi assiomatici formali, stabiliti mediante il sottolinguaggio teorico. L'interpretazione empirica dei termini di questo ha luogo enunciando ulteriori assiomi, i postulati interpretativi, sotto forma di equivalenze, o di altre connessioni logiche non banali, fra qualche assioma teorico e qualche legge osservativa. Ciò contribuisce a definire implicitamente (e quindi incompletamente) i predicati contenuti in detti assiomi teorici, mentre gli analoghi termini inclusi nei restanti assiomi del medesimo tipo finiscono coll'acquisire a loro volta parziale significanza empirica in virtù dei rispettivi nessi, all'interno del calcolo formale dato, con i predicati definiti nella maniera sopra descritta. Siffatta procedura è esemplificata, poniamo, dall'interpretazione fisica della geometria hilbertiana (i cui termini specifici: "punto", ecc., risultano inizialmente addotti senza alcun significato esplicito) attraverso la formulazione di opportune equivalenze fra determinati suoi assiomi e principî osservativi concernenti oggetti o superfici materiali.
Induzione e probabilità. - La sempre più organica consapevolezza attinta dagli epistemologi novecenteschi circa il ruolo centrale delle generalizzazioni sul piano della conoscenza scientifica, nonché il crescente peso teorico in particolare via via riconosciuto entro detto contesto alle ipotesi empiriche generali di carattere statistico, hanno propiziato durante gli ultimi decenni un profondo riesame dei temi dell'induzione e della probabilità. Con ciò è divenuto in special modo possibile "saldare" per la prima volta sistematicamente fra loro un argomento già considerato soprattutto tecnico-matematico, quale la teoria probabilistica, e un capitolo basilare della filosofia, tanto tradizionale quanto moderna, come l'analisi dei processi induttivi.
A parte anticipazioni, anche di notevole originalità, reperibili dal 1920, circa, in poi negli scritti di J. M. Keynes, R. von Mises, L. Wittgenstein, H. Reichenbach, A. Kolmogorov, H. Jeffreys, ecc., l'opera che nel Novecento rappresenta senza dubbio il maggior apporto al riguardo è quella carnapiana, affidata alle pagine di Logical foundations of probability (1950; 19622), The continuum of inductive methods (1952), Studies in inductive logic and probability (con R. C. Jeffrey e altri, vol. I, 1971), e simili. Secondo le parole stesse dell'autore, il suo intento originario appare consistere nell'"esatta esplicazione quantitativa di un'idea fondamentale entro l'odierna metodologia delle scienze empiriche: l'idea della conferma di un'ipotesi in rapporto a un dato insieme di elementi probatori,... assumendo, nel contesto, il concetto logico di probabilità quale fulcro di tutte le inferenze induttive, ossia di tutte le inferenze che non valgono in maniera conclusivamente necessaria" (Intellectual autobiography, in The philosophy of Rudolf Carnap, a cura di P. A. Schilpp, 1963, p. 72).
Tale sviluppo ha potuto, di fatto, venir perseguito solo dopo il basilare chiarimento assicurato da Carnap circa la duplice interpretazione: frequentistica, o statistica, nonché logico-induttiva del termine "probabilità". Conformemente ad esso, mentre nel primo caso la probabilità risulta, grosso modo, assimilabile alla "frequenza relativa, con cui un certo tipo di eventi ricorre entro una determinata classe di riferimento" (R. Carnap, Statistical and inductive probability, trad. it., p. 613), e quindi rappresenta un attributo oggettivo dei fenomeni, nel secondo è invece intesa quale "misura del grado di conferma di un asserto ipotetico (o ipotesi) in relazione agli elementi probatori rilevanti" (ibid., p. 614), avendo perciò carattere di predicato metalinguistico epistemico.
Attraverso siffatto chiarimento e concentrando il proprio interesse sul significato logico, non frequentistico, delle espressioni probabilistiche, la riflessione carnapiana ha saputo elaborare un nuovo, vasto sistema di logica induttiva, diretto a ricostruire criticamente le più note forme d'inferenza non necessaria impiegate nel lavoro scientifico. Fra queste, all'interno di detto sistema, sono state discusse soprattutto quelle di natura statistica, ossia quelle nelle quali il valore n del grado di conferma c di una data ipotesi h, relativamente agli elementi probatori addotti mediante qualche specifico asserto e (giusta la formula: c(h,e) = n), risulta in modo intrinseco condizionato dalla circostanza che h o e, o entrambi, includano definite enunciazioni di frequenze.
Così, accanto a procedure abbastanza elementari come l'"inferenza diretta" e l'"inferenza per analogia" (l'una tendente a stabilire il grado di conferma di un'ipotesi h, affermante la frequenza di una certa proprietà entro un particolare campione statistico, sulla base dell'enunciato probatorio e, asserente detta frequenza all'interno della popolazione correlativa; e l'altra volta ad appurare il grado di conferma di un'ipotesi h, riguardante la presenza di una data proprietà in un individuo a, sulla base dell'enunciato probatorio e, esprimente il possesso della medesima proprietà da parte dell'individuo b, nonché la somiglianza di a e b sotto ulteriori rispetti), la trattazione di Carnap mette limpidamente a fuoco strutture inferenziali quanto mai cospicue nel dominio del pensiero logico non deduttivo. Anzitutto elucida l'"inferenza previsiva", intesa a determinare il grado di conferma di un'ipotesi h, identificante qualche caratteristica in un certo campione sulla base dell'enunciato probatorio e, a sua volta concernente, in maniera analoga, un secondo campione affatto disgiunto dal primo entro la popolazione considerata. Allorché questo consta di un solo individuo, il procedimento inferenziale assume la qualifica di "singolare". Connessa coll'inferenza previsiva, essendo parimenti sorretta da un enunciato probatorio e, rilevante qualche caratteristica in un certo campione, l'"inferenza invers" risulta, d'altra parte, diretta a stabilire il grado di conferma di una ipotesi h, vertente su tutti gli individui residui della corrispettiva popolazione. Infine, l'esame carnapiano affronta il tema dell'"inferenza universale", contraddistinta da tratti parzialmente simili al caso di cui sopra, ma in sé e per sé molto più problematica, mirando a consentire, sempre sulla base di enunciati probatori e, riguardanti campioni esperiti sotto peculiari aspetti, l'accertamento del grado di conferma d'ipotesi h, consistenti in asserti di generalità illimitata, quali propriamente sono da ritenersi le leggi scientifiche.
Com'è possibile arguire anche da questi pochi cenni sommari, il sistema carnapiano presenta un coefficiente di analiticità, nonché una ricchezza di motivi che, uniti al suo profondo rigore formale, ne fanno una vera e propria pietra miliare nella fondazione della logica induttiva modernamente configurata. In esso, trovano alfine assetto organico istanze metodologiche avvertite - con ricorrenti incertezze all'interno della cosiddetta tradizione "soggettivistica" - dai trattatisti classici della probabilità, quali Bayes, Bernoulli, Laplace, non meno che la celebre critica humiana contro ogni pretesa di convalidare induttivamente senza restrizioni le leggi di natura, critica rispecchiata nel principio secondo cui il grado di conferma delle ipotesi di generalità illimitata determinabile attraverso l'inferenza universale è sempre pari a zero (pur assumendo, Carnap, che l'inferenza previsiva consenta almeno di "saggiare" indirettamente, in qualche misura definita, l'attendibilità delle stesse generalizzazioni scientifiche con lo stabilire il grado di conferma di loro casi o esempi non ancora osservati).
Sia gli ultimi sviluppi della medesima dottrina carnapiana, sia gli affinamenti e le estensioni proposti da suoi epigoni o da critici con istanze costruttive (R. C. Jeffrey, J. Hintikka, ecc.) hanno concorso ad ampliare notevolmente il quadro degli studi probabilistici e logico-induttivi, tanto che oggi vi si riscontra un intreccio di quesiti alquanto fluido e, insieme, della massima pregnanza. Ma non mancano le voci discordi, inclini a sostenere con vigore una diversa interpretazione del procedimento di controllo delle ipotesi empiriche nella scienza naturale o sociale. Fra esse, appare contraddistinta da eminente risonanza quella di K. R. Popper, soprattutto sulla scorta dei suoi apporti principali: Logik der Forschung, 1935 (edizione inglese riveduta: The logic of scientific discovery, 1959) e Conjectures and refutations, 1963; 19652 (trad. it., Bologna 1972).
Secondo le tesi popperiane, il lavoro degli scienziati trae origine da situazioni oggettivamente problematiche, che l'uomo affronta mediante i propri poteri inventivi, logici, empirici: "Noi cominciamo la nostra ricerca con problemi. Ci troviamo sempre adagiati in un certo orizzonte problematico e scegliamo un problema che auspichiamo di riuscire a risolvere. La soluzione, avanzata in ogni caso per tentativi, consiste di una teoria, un'ipotesi, una congettura. Le varie teorie rivali vengono confrontate e discusse allo scopo di rilevarne gli errori; e i risultati che ne conseguono, sempre mutevoli e mai definitivi, rappresentano ciò che denominiamo 'la scienza dell'epoca'" (K. R. Popper, Logik der Forschung, 1935; trad. it., Torino 1970, p. xiv).
Con riferimento alle discipline fattuali, ciò significa l'abbandono dell'interpretazione "induttivistica", nel senso propugnato dal positivismo ottocentesco, che identificava il punto di partenza del conoscere scientifico con meri dati di carattere sensoriale - assoggettabili successivamente a generalizzazione induttiva, onde ricavarne leggi o teorie - in favore di un nuovo intendimento metodologico secondo cui, negata addirittura la possibilità di qualsiasi canone d'induzione, "non si procede mai da fatti a teorie, se non per confutazioni o 'falsificazioni'".
Così, la scienza reale finisce coll'esser concepita come un complesso di attività precipuamente costruttive e critiche, anziché quale semplice opera d'accumulazione di elementi empirici, destinati a implicare induttivamente inoppugnabili conclusioni generali. Suo primum risulta l'abbozzo di ipotesi, congetture o teorie, come possibili risposte ai quesiti affioranti sul piano dell'esperienza, mentre il suo sviluppo appare affidato al peculiare metodo di controllo eliminativo, consistente nella ricognizione sistematica degli eventuali casi specifici in contrasto con esse: "Non esiste alcuna induzione, perché le teorie universali non sono mai inferibili o verificabili a partire da asserti singolari, quantunque possano venir confutate o falsificate da asserti siffatti, da descrizioni di eventi osservabili.... In realtà, il metodo scientifico è un procedimento per tentativi ed eliminazione degli errori, basato sulla proposta d'ipotesi ardite, nonché sul loro assoggettamento alle critiche più severe, con lo scopo di stabilire se e dove si sia sbagliato" (ibid.).
Al di là delle profonde differenze che li contraddistinguono, i punti di vista di Carnap e di Popper circa il controllo e la scelta delle generalizzazioni ipotetiche della scienza empirica (leggi o teorie), controllo e scelta esplicati, nell'un caso, mediante i concetti di esperienza sistematica, nonché di grado di conferma (o probabilità in senso logico-induttivo) e, nell'altro, mediante le idee di sperimentazione critica, di falsificazione, di procedura eliminativa, ecc., presentano un importante aspetto comune. Si tratta della elaborazione globale del metodo scientifico secondo linee rilevate con chiara consapevolezza soprattutto da H. Reichenbach, e quindi divenute dominanti all'interno dell'epistemologia novecentesca ove, appunto, detto metodo risulta inteso come strumento di "giustificazione" o di "corroborazione" anziché di "scoperta", ossia quale insieme di modalità per stabilire il valore intersoggettivo degli asserti e delle ipotesi addotti nell'indagine, a prescindere dal loro stesso contesto genetico. In effetti, attraverso un esame analitico del discorso delle varie scienze, la ricerca epistemologica è riuscita durante gli ultimi decenni a esplicitare organicamente i criteri costitutivi del sapere scientifico, individuando l'inerenza di un metodo postulazionale-deduttivo, o assiomatico, nelle discipline formali come la logica e la matematica, nonché di una più composita variante metodologica: il metodo ipotetico-deduttivo (sperimentale-induttivo), nelle discipline concrete quali la fisica, la chimica, la biologia, ecc.
Con riferimento al primo caso, la base procedurale consiste nell'assumere convenzionalmente una ristretta classe di termini o concetti, primitivi o indefiniti, e un'analoga classe di asserti o giudizi, non dimostrati, denominabili assiomi o postulati; mentre l'una è destinata a consentire la definizione di ulteriori termini o concetti per mezzo dei primitivi, l'altra ha parimenti lo scopo di permettere la deduzione di nuovi asserti o giudizi - i cosiddetti teoremi - senza eccezione veri, qualora tali risultino gli assiomi da cui sono logicamente inferiti.
Nel secondo caso, invece, la struttura metodologica presenta caratteri di maggior complessità e articolazione. Dopo che lo scienziato ha tratto, attraverso osservazioni non necessariamente sistematiche dei fenomeni naturali o sociali, lo spunto per formulare delle congetture, delle ipotesi di portata universale, si procede a un'elaborazione logico-matematica di queste, inferendone, con l'ausilio di opportune constatazioni concrete ed eventualmente di definizioni interpretative o regole di corrispondenza, degli enunciati previsionali, consistenti per lo più in possibili risultati di osservazioni programmate o di esperimenti da realizzare mediante sistematici e ripetuti interventi sugli oggetti di studio. Se le risultanze di questi processi sono in numero cospicuo positive, assicurano induttivamente un adeguato grado di conferma alle ipotesi in questione (o, quanto meno, un loro controllo critico mediante la confutazione di alternative), permettendo quindi di enunciarle come leggi. Infine, una volta stabilite leggi siffatte, o loro peculiari concatenazioni includenti costrutti non direttamente osservativi, denominate teorie, lo scienziato può utilizzarle per spiegare o prevedere fenomeni compresi nel dominio investigato, coll'inferirli logicamente (dopo aver proceduto alla determinazione delle condizioni iniziali rilevanti) da questa o quella legge ovvero da un insieme di simili principî.
Oltre a tali vedute che rivestono carattere globale, l'e. contemporanea ha attinto anche molti altri risultati specifici di notevole rilievo, quali, per es., l'approfondimento della natura e del ruolo delle definizioni, la precisazione della portata dei modelli, l'intelligenza del processo di metrizzazione nel discorso delle scienze empiriche, il riassetto organico delle dottrine dello spazio-tempo, dell'infinito, della causalità, ecc.
In ogni caso, dalle analisi epistemologiche odierne non emergono né precetti dogmatici, né indicazioni di tecniche di scoperta o di ricerca così efficienti sotto il profilo pratico da consentire allo scienziato, con la loro mera reiterata applicazione, di rinunciare all'impiego inventivo, all'intelligente creazione d'ipotesi o postulati fecondi, fino a rendere l'attività scientifica una semplice routine di acquisizione più o meno meccanica di dati. Il frutto primario di dette analisi è intellettuale anziché economico, consistendo in una migliore comprensione della scienza, soprattutto dei procedimenti ivi impiegati per il controllo e l'avallo intersoggettivo degli assunti, delle ipotesi e degli esiti rilevanti.
Bibl.: F. Enriques, I problemi della scienza, Bologna 1906, 19102; G. Vailati, Scritti, Firenze-Lipsia 1911; R. Carnap, H. Hahn, O. Neurath, Wissenschaftliche Weltauffassung. Der Wiener Kreis, Vienna 1929; R. Carnap, Logische Syntax der Sprache, ivi 1934 (trad. it. Sintassi logica del linguaggio, Milano 1961); A. Heyting, Mathematische Grundlagenforschung. Intuitionismus. Beweistheorie, Berlino 1934; R. Carnap, Testatibility and meaning, in Philosophy of science, III (1936), pp. 419-71; IV (1937), pp. 1-40 (trad. it.: Controllabilità e significato, in Analiticità, significanza, induzione, Bologna 1971, pp. 151-261); F. Waismann, Einführung in das mathematische Denken, Vienna 1936 (trad. it. Introduzione al pensiero matematico, Torino 1939; 19652); C. W. Morris, Logical positivism, pragmatism and scientific empiricism, Parigi 1937; R. Carnap, Logical foundations of the unity of science, in International Encyclopedia of Unified Science, vol. I, 1, Chicago 1938, pp. 42-62 (trad. it. I fondamenti logici dell'unità della scienza, in La filosofia contemporanea in USA, Asti-Roma, 1958, pp. 71-93); id., Foundations of logic and mathematics, ibid. vol. I, 3, ivi 1939 (trad. it. Fondamenti di logica e matematica, Torino 1956); F. Gonseth, Philosophie mathématique. Avec cinq déclarations de A. Church, W. Ackermann, A. Heyting, P. Bernays, L. Chwistek, Parigi 1939; P. Frank, Modern science and its philosophy, Cambridge, Mass., 1949 (trad. it. La scienza moderna e la sua filosofia, Bologna 1973); H. Reichenbach, The rise of scientific philosophy, Berkeley-Los Angeles 1951 (trad. it. La nascita della filosofia scientifica, Bologna 1961; 19662); C. G. Hempel, Fundamentals of concept formation in empirical science, in International Encyclopedia of Unified Science, vol. II, 7, Chicago 1952 (trad. it. La formazione dei concetti e delle teorie nella scienza empirica, Milano 1961, pp. 3-97); R. Carnap, Statistical and inductive probability, New York 1955 (trad. it. Le interpretazioni statistica e logico-induttiva della probabilità, in Il neoempirismo, a cura di A. Pasquinelli, Torino 1969, pp. 612-28); id., The methodological character of theoretical concepts, in The foundations of science and the concepts of psychology and psychoanalysis, a cura di H. Feigl e M. Scriven, Minneapolis 1956, pp. 38-76 (trad. it. Il carattere metodologico dei concetti teorici, in Analiticità, significanza, induzione, Bologna 1971, pp. 263-315); W. V. O. Quine, The scope and language of science, in British journal for the philosophy of science, VIII (1957), pp. 1-17 (trad. it., Il discorso scientifico, in Il neoempirismo, a cura di A. Pasquinelli, Torino 1969, pp. 915-36); C. G. Hempel, The theoretician's dilemma, in Autori vari, Minnesota studies in the philosophy of science, vol. II, Minneapolis 1958, pp. 37-98 (trad. it. La formazione dei concetti e delle teorie nella scienza empirica, Milano 1961, pp. 99-168); Philosophy in the mid-century. A survey, vol. I, Logic and philosophy of science, a cura di R. Klibansky, Firenze 1958; E. Agazzi, Introduzione ai problemi dell'assiomatica, Milano 1961; A. Church, Mathematics and logic, in Autori vari, Logic, methodology and philosophy of science, Stanford, Cal., 1962, pp. 181-86 (trad. it. Matematica e logica, in La filosofia della matematica, a cura di C. Cellucci, Bari 1967, pp. 143-51); Logic, methodology and philosophy of science. Proceedings of the 1960 international congress, a cura di E. Nagel, P. Suppes, A. Tarski, Stanford 1962; E. Casari, Questioni di filosofia della matematica, Milano 1964; A. Pasquinelli, Nuovi principî di epistemologia, ivi 1964; W. Stegmüller, Hauptströmungen der Gegenwartsphilosophie, Stoccarda 1965; R. Carnap, Philosophical foundations of physics, New York 1966 (trad. it. I fondamenti filosofici della fisica, Milano 1971); Logique et connaissance scientifique, a cura di J. Piaget, Parigi 1967; Contemporary philosophy. A survey, a cura di R. Klibansky, vol. I, Logic and foundations of mathematics; vol. II, Philosophy of science, Firenze 1968; L. Geymonat, Storia del pensiero filosofico e scientifico, vol. VI, Il Novecento, Milano 1972.