Scienza cognitiva
Con la locuzione scienza cognitiva, dalla fine degli anni Settanta, si è soliti designare l'insieme delle discipline che hanno per oggetto lo studio dei processi cognitivi umani e artificiali. La definizione comprende anche l'ambito artificiale, in quanto un ruolo centrale nella s. c. è rivestito dalla cosiddetta intelligenza artificiale (v. App. V), le cui ricerche e i cui risultati hanno costituito la spinta propulsiva per il formarsi e il consolidarsi di questo ampio settore interdisciplinare, nel quale si è soliti comprendere, oltre all'intelligenza artificiale (in seguito IA), la psicologia cognitiva, la linguistica e la psicolinguistica, la filosofia della mente e del linguaggio, le neuroscienze e, secondo una prassi ormai consolidata (Gardner 1985; fig. 1), anche l'antropologia, benché l'effettiva appartenenza di quest'ultima alla s. c. rimanga ancora tra i desiderata (Bara 1990). Questa voce è dedicata a delineare i caratteri fondamentali della s. c. - il suo 'paradigma' in senso kuhniano -, con particolare attenzione agli aspetti pertinenti dell'IA, agli sviluppi cognitivisti a questa attigui e al dibattito filosofico-psicologico che ne è stato complemento non secondario. Per gli sviluppi interni alle singole discipline v. le rispettive voci nell'App. V e in questa Appendice.
Origini, metodi e obiettivi della scienza cognitiva
I presupposti storici e teorici per la nascita di una s. c. possono essere individuati già nel celebre test escogitato da A. Turing (1950), il matematico che negli anni Trenta aveva teorizzato una macchina di calcolo universale (macchina di Turing) che sarebbe stata alla base della scienza dei calcolatori; a partire dall'ipotesi dell'impossibilità di distinguere, in circostanze sperimentali opportune, tra le prestazioni cognitive di una macchina e quelle di un essere umano, Turing suggeriva l'affinità, se non proprio l'identità, tra intelligenza umana e IA, ponendo così le basi - sebbene in una forma embrionale ancora viziata dalla visione comportamentista della mente come black box - del futuro orientamento di ricerca, volto a privilegiare lo studio delle operazioni mentali rispetto a quello del loro sostrato biologico, delle funzioni cognitive rispetto alle strutture neurocerebrali. Tale orientamento, pur creando delle difficoltà ai fini dell'auspicata integrazione tra le varie scienze che si occupano dell'intelligenza e le neuroscienze, rappresenta la caratteristica distintiva della s. c., in larga misura influenzata dallo sviluppo della scienza dei calcolatori, dall'informatica e dal modello computazionale della mente retrostante all'IA.
D'altra parte, sin dagli anni Quaranta erano stati proposti programmi di ricerca, rientranti nella cibernetica o a questa contigui, caratterizzati da una maggiore integrazione tra studio della mente e studio delle attività neurocerebrali, basati sull'idea di una sostanziale analogia tra il funzionamento del cervello e quello delle macchine: oltre al celebre articolo di A. Rosenblueth, N. Wiener e J. Bigelow (1943), in cui si interpretava il comportamento finalizzato in termini di retroazione negativa, va ricordata l'ipotesi di K.J. Craik (1943) secondo cui il pensiero consiste in processi di modellizzazione simbolico-rappresentativa di aspetti della realtà, realizzati dall'attività neurocerebrale e paragonabili, in linea di principio, a quelli di macchine come i puntatori anti-aereo e il previsore delle maree di Kelvin; e, ancora, l'esplicita assimilazione, compiuta dal neurologo W.S. McCulloch e dal matematico W.H. Pitts (1943), delle attività neurali del cervello alle operazioni di una macchina di calcolo operante secondo le regole logiche dell'algebra booleana. Analogie tra cervello e calcolatore, anche se in forma alquanto cauta, sarebbero state poi delineate da J. Von Neumann (1958), il fondatore della scienza dei calcolatori. I programmi di ricerca basati su tali analogie, benché ancora perseguiti sino agli anni Sessanta, si dimostrarono tuttavia minoritari e furono soppiantati dal più promettente programma dell'IA, interessato non alla simulazione delle attività neurocerebrali ma a quella dei processi mentali (v. mente: Neuroscienze e modelli della mente, App. V; per un'articolata ricostruzione storica cfr. Cordeschi 1996 e 1998). Solo di recente, con il cosiddetto connessionismo, si è ritornati a prendere in considerazione l'ipotesi di una simulazione computazionale delle attività neurali ai fini della comprensione di quelle cognitive (v. oltre).
Un'altra fonte storica da cui ha preso l'avvio la costituzione della s. c. è naturalmente la reazione al comportamentismo rappresentata dalla nascita della psicologia cognitiva (v. App. V; v. anche psicologia, in questa Appendice), la quale, basata sul paradigma della mente come sistema di elaborazione di informazioni (human information processing) e largamente influenzata dalla ricerca di IA e dalla computer science, si caratterizza principalmente per il ripristino, all'interno della ricerca psicologica sperimentale, di quelle nozioni e di quei processi di tipo mentalistico (rappresentazioni e categorizzazioni mentali, schemi cognitivi, motivazioni, scopi, processi inferenziali e decisionali) che il comportamentismo aveva totalmente espunto dall'ambito della ricerca psicologica in quanto privi di legittimità empirica. Si aggiunga infine l'enorme impatto delle teorie linguistiche di N. Chomsky, che, sfociando in ambito psicolinguistico, avevano ipotizzato l'esistenza di autentiche capacità mentali innate, in ultima analisi di origine biologica, sviluppate e affinate nel rapporto con l'ambiente, a fondamento dell'apprendimento e della competenza linguistici (v. grammatica generativa, App. IV e V).
Benché le ricerche che convergono nell'ambito della s. c. avessero raggiunto una loro maturità già tra gli anni Sessanta e gli anni Settanta, la data di nascita ufficiale della s. c. è il 1978, anno in cui si tenne a La Jolla (California) un convegno organizzato dalla Cognitive Science Society (che dal 1977, grazie ai finanziamenti della Alfred Sloan Foundation, pubblicava la rivista Cognitive science). Al convegno parteciparono ricercatori di IA, psicologi, linguisti, neuroscienziati e filosofi, accomunati dall'idea di conseguire una sempre maggiore interdisciplinarità tra i vari ambiti d'indagine che hanno per oggetto la mente umana, con l'obiettivo di dar vita a un programma di ricerca sulle attività cognitive che risultasse ampiamente integrato pur nei suoi molteplici livelli di indagine e sperimentazione.
Caratteristica centrale della s. c. è la tesi che le attività cognitive umane - più o meno le stesse investigate per secoli dalla tradizionale teoria della conoscenza - siano concepibili nei termini di un sistema di "rappresentazioni mentali" che, imponendo "un livello di analisi del tutto separato da quello biologico o neurologico da un lato e da quello sociologico o culturale dall'altro", trova nell'elaboratore elettronico il modello privilegiato "del modo in cui funziona la mente umana" (Gardner 1985; trad. it. 1988, p. 18). In certa misura, la s. c. costituisce lo sviluppo, su basi scientifiche e tecnologiche, della vecchia idea di Hobbes che il ragionamento non consista in altro che calcolo (Mind design, 1981; trad. it. 1989, p. 7). Sebbene la simulazione al calcolatore e la concezione computazionale della mente e dei processi cognitivi costituiscano i presupposti metodologici della nuova scienza, non sempre esiste accordo sui modi specifici e sulla validità generale della metodologia simulativa. L'analogia tra mente e calcolatore, o meglio, tra mente e programmi eseguiti da calcolatori, costituisce in ogni caso il nucleo concettuale dell'IA, tanto da avere spinto alcuni dei suoi maggiori teorici (H.A. Simon, A. Newell, M.L. Minsky, J. McCarthy) a parlare di una vera e propria identità tra software implementati su calcolatori e processi cognitivi umani, indipendentemente dalle differenze tra i loro rispettivi sostrati materiali (hardware e cervello), con la conseguenza di concepire l'attività cognitiva come consistente in null'altro che nella manipolazione e trasformazione di rappresentazioni simboliche tramite procedure algoritmiche, esattamente come accade nei calcolatori forniti di programmi in grado di dimostrare teoremi logici e matematici, giocare a scacchi o elaborare strategie di ottimizzazione nei processi decisionali.
Modelli computazionali, rappresentazioni e intelligenza umana
Sulla base dell'idea che l'attività cognitiva umana consista essenzialmente nell'elaborazione di un certo insieme di informazioni, le ricerche della s. c. sono state principalmente volte a costruire modelli di elaborazione dell'informazione che siano sperimentalmente controllabili (si pensi ai numerosi e articolati modelli di memoria: v. memoria, in questa Appendice). L'enorme sviluppo della scienza dei calcolatori ha reso praticabile l'implementazione su software di modelli computazionali da confrontare con le operazioni cognitive effettivamente realizzate dagli esseri umani, al fine di verificarne l'adeguatezza empirica ed eventualmente correggerli sulla base di tale confronto. Il punto di partenza di questo percorso è costituito dalla scrupolosa osservazione del modo in cui si suppone ragionino, o eseguano particolari compiti cognitivi, soggetti umani in condizioni opportunamente selezionate, così da determinare i vincoli da porre alla costruzione dei modelli cognitivi ipotizzabili e all'elaborazione dei programmi da implementare (Newell, Simon 1976; Bara 1990). Questa metodologia empirica ha naturalmente costituito un notevole elemento propulsivo nell'elaborazione di realistici modelli computazionali in grado di rappresentare adeguatamente la specificità dei processi cognitivi umani, che non sempre sono riconducibili alle regole formulate in sede di teoria logica. Per es., benché la logica matematica così come fu sistematizzata, tra la fine del 19° secolo e l'inizio del 20°, da G. Frege, B. Russell e A. Whitehead abbia fornito senz'altro modelli inferenziali di grande stimolo, non solo per l'epistemologia neopositivistica ma anche per la nascita dell'IA, è dubbio che il ragionamento umano, almeno nelle situazioni più comuni, si conformi ai canoni normativi della logica classica (proposizionale e predicativa); anzi, sotto molti aspetti esso si rivela più flessibile e insieme più complesso di quanto non lasci supporre la logica classica, caratterizzato com'è da inferenze basate su generalizzazioni parziali, su condizionali controfattuali, su informazioni incomplete e ambigue, su conoscenze di sfondo non esplicitate (Johnson-Laird 1988). Si comprende, quindi, come i tentativi di descrivere in forma adeguata gli effettivi processi del ragionamento umano abbiano dato luogo a ricerche volte a individuare principi riconducibili a logiche che si discostano per rilevanti aspetti dalla logica classica. Tra queste, particolare interesse ha suscitato la logica non monotòna, che intende fornire una formalizzazione del cosiddetto ragionamento per default, cioè quel ragionamento del senso comune (e del discorso etico o giuridico) nel quale - in contrasto con quello formalizzato dalla logica classica, di tipo monotòno - molte inferenze accettate implicitamente possono essere nondimeno rifiutate qualora si rivelino in conflitto con specifiche informazioni contestuali o addizionali che ne limitano la validità, per cui, nonostante la verità delle premesse ∀x (Ax→Bx) e Aa, in presenza di particolari circostanze può essere rifiutata la conclusione Ba e, quindi, la validità incondizionata della regola logica del modus ponens (McDermott, Doyle 1980; per una presentazione delle caratteristiche generali di tale logica v. Bara 1990, Cordeschi 1996). Ne consegue che, nell'ampio spettro di ricerche compiute nell'ambito dell'IA, effettivamente rilevanti per la s. c. sono quelle che mirano a simulare i reali processi cognitivi umani, piuttosto che quelle cui si volgeva l'IA degli anni Cinquanta (dimostrazione di teoremi logici e matematici, automazione del gioco degli scacchi e della dama) o quelle che hanno dato origine all'implementazione dei cosiddetti sistemi esperti, cioè programmi che consentono di ottimizzare i metodi e i risultati delle più sofisticate prestazioni scientifiche e tecnologiche, quali predizioni economiche, decision-making, analisi di strutture chimiche e fisiche, diagnosi mediche ecc. Una parte non esigua dell'IA ha del resto dedicato sempre maggiore attenzione alla realizzazione dell'obiettivo, paradossalmente ma comprensibilmente più difficile, di fornire un resoconto realistico delle prestazioni cognitive umane, intrecciandosi così fortemente con le ricerche parallele nella psicologia cognitiva. In tale prospettiva si colloca una vasta serie di ricerche - di cui saranno qui delineati i contributi più importanti - volte a simulare in forma computazionale l'attività di risoluzione di problemi, quella di rappresentazione mentale alla base della comprensione e della conoscenza e quella soggiacente alle procedure inferenziali.
All'analisi della risoluzione di problemi hanno contribuito in modo determinante A. Newell e H.A. Simon, il cui monumentale lavoro sul problem solving (1972) - coronamento di un ventennio di ricerche dedicate alla modellizzazione computazionale di aspetti fondamentali della razionalità umana - è tuttora tra i risultati più importanti e più prolifici di sviluppi della scienza cognitiva. Sulla base di dati empirici costituiti dai "protocolli" di soggetti che eseguivano le operazioni di risoluzione ad alta voce, Newell e Simon hanno cercato di fornire una descrizione del modo in cui le informazioni pertinenti alla soluzione di un problema - non solo logico, matematico e scacchistico, ma anche del tipo suscitato dalle più comuni decisioni e pianificazioni, secondo il progetto del programma computazionale GPS (General Problem Solver) - vengono via via ricuperate dalla memoria a lungo termine e utilizzate nella soluzione dei vari sottoproblemi in cui viene scomposto il problema di partenza, così da pervenire da uno stato iniziale a uno stato finale (stato-meta) che è la soluzione o l'obiettivo perseguito. Di cruciale importanza, nell'analisi proposta, è la ricerca euristica, ossia quel tipo di ricerca che, nella struttura ad albero con cui possono essere rappresentate graficamente le innumerevoli alternative possibili (ramificazioni) in cui si espande lo "spazio del problema" e attraverso cui può procedere il solutore, mira a selezionare solo un sottoinsieme di tali ramificazioni: un sistema (artificiale o umano) davvero intelligente evita infatti l'esplosione "esponenziale" o "combinatoria" della ricerca, cioè l'esplorazione di tutte le ramificazioni generabili al fine di trovare, per tentativi ed errori o per pura ricerca esaustiva, quella che conduce alla soluzione giusta; piuttosto, sulla base delle informazioni di cui dispone, esso seleziona ed esplora soltanto le ramificazioni più pertinenti e "promettenti" per il conseguimento di soluzioni parziali, ciascuna delle quali costituisce un mezzo per quella successiva, fino al conseguimento dell'obiettivo desiderato.
Applicato successivamente da Simon (1977) anche ai processi di elaborazione, selezione e controllo delle ipotesi scientifiche, il programma di Newell e Simon - nonostante l'obiettivo di fornire per suo tramite una simulazione sufficientemente generale dell'attività di problem solving, tale da ricomprendere anche il modo in cui solitamente gli esseri umani risolvono i problemi della vita quotidiana - trova il suo limite nella specializzazione a risolvere problemi di tipo "strutturato" (come, appunto, quelli di criptoaritmetica, logica e scacchi), cioè chiaramente definiti sul piano delle regole e dei vincoli da rispettare, delle soluzioni da raggiungere e degli ambiti entro cui si sviluppa la ricerca euristica. Esso si è rivelato pertanto non sempre del tutto adeguato come descrizione dell'attività di risoluzione dei problemi e dei processi decisionali operanti nelle comuni situazioni umane, caratterizzati dall'uso di conoscenze di sfondo spesso implicite, dipendenza dai diversi contesti, difficoltà di reperire strategie euristiche ottimali, aleatorietà di risultati.
Proprio l'esigenza di rendere conto dei più comuni processi cognitivi è alla base di alcuni dei maggiori risultati della s. c., come la teoria delle reti semantiche di M.R. Quillian (1968), sistemi di rappresentazione delle interconnessioni dei concetti e dei significati, la teoria dei prototipi di E. Rosch (v. significato: Linguistica, App. V) e soprattutto la teoria dei frames di M.L. Minsky.
A quest'ultimo si devono innanzitutto radicali obiezioni agli approcci 'logicisti' alla cognizione, cioè le ricostruzioni nei termini della logica classica delle caratteristiche del ragionamento e della conoscenza umani. Tra i maggiori teorici di un'IA autenticamente descrittiva delle capacità cognitive umane, Minsky ha rivolto particolare attenzione alle caratteristiche del pensiero di senso comune, al suo essere tipicamente influenzato dalle conoscenze implicite e dai contesti, alla sua flessibilità nell'adattarsi a situazioni impreviste e alla non-monotonicità del ragionamento umano, fornendo contributi rivelatisi di grande efficacia non solo per la ricerca in IA, ma anche per quella più strettamente cognitivista. A tale proposito può essere ricordato come lo stesso U. Neisser (1976) abbia rilevato delle convergenze tra la prospettiva di Minsky e il proprio approccio "ecologico" al cognitivismo, ossia l'approccio che, segnalando i limiti delle ricerche basate su artificiali situazioni di laboratorio, privilegia lo studio dell'attività cognitiva negli ambienti e nei contesti in cui essa si forma e si esplica. Nel celebre lavoro sulla nozione di frame, Minsky, evitando deliberatamente di tracciare "una linea di confine fra una teoria del pensiero umano e uno schema per costruire una macchina intelligente" (Minsky 1975; trad. it. 1989, p. 110), delineava un modello, implementabile mediante opportune procedure computazionali, in grado di rappresentare adeguatamente alcune fondamentali prestazioni cognitive umane, come comprendere o riconoscere eventi e situazioni dell'esperienza quotidiana e compiere le giuste inferenze e previsioni riguardanti un contesto dato e i discorsi a esso relativi. Un frame - nozione di cui Minsky individua le ascendenze negli "schemi" di F.C. Bartlett e nei "paradigmi" di Th.S. Kuhn - è una struttura-dati esistente in memoria, una "rappresentazione algoritmica di un contesto" (Hofstadter 1979; trad. it. 1984, p. 697). Insiemi di conoscenze implicite con cui vengono rappresentate situazioni o eventi stereotipi - come, per es., una tipica festa di compleanno, una tipica stanza di soggiorno -, i frames possono essere concepiti come costituiti da livelli superiori, che rappresentano gli aspetti invarianti di una certa situazione (per es., ogni soggiorno è una stanza con soffitto, pavimento, pareti), e livelli inferiori o terminali (slots) provvisti di valori (default values) assegnati implicitamente, per difetto appunto, in assenza di specifici dati relativi alla situazione rappresentata (per es., uno o più divani e quadri alle pareti nel caso del soggiorno); i valori di default (essi stessi frames inferiori o subframes; fig. 2) possono tuttavia essere rimpiazzati da altri, allorché occorrenze di specifici dettagli della situazione esperita non si conformino alle aspettative indotte dal frame (per es., la presenza di poltrone anziché divani e di librerie invece che quadri in un soggiorno). I frames (fig. 2) costituiscono così insiemi di aspettative e presupposizioni (attivati da opportune esperienze percettive come la visione di un ambiente, la lettura di un testo, la narrazione di una serie di eventi) che possono essere soddisfatte o deluse: il veloce recupero dalla memoria a lungo termine dei frames pertinenti, la capacità di attivare più frames e subframes per comprendere situazioni particolarmente complesse (per es., una festa di compleanno in una stanza di soggiorno al cui interno è presente uno studio con biblioteca), di trovare plausibili giustificazioni per le situazioni non corrispondenti alle aspettative dei frames attivati o di integrare, modificare e sostituire quelli che non si adattano alle situazioni esperite, costituiscono in larga misura caratteristiche tipiche dell'intelligenza e della comprensione umane, di cui si deve tener conto nella realizzazione di programmi che intendano adeguatamente simularle. La grande flessibilità della nozione di frame è dimostrata inoltre dal fatto che a tale sistema di informazioni, rappresentazioni e aspettative sono associati processi di problem solving relativi alle decisioni e alle azioni pertinenti in una data situazione: per es., al frame di una festa di compleanno possono essere associati, per default, i problemi di comprare un regalo, quale oggetto comprare, dove, di che valore, se sarà gradito ecc.
Un ulteriore sviluppo della frame theory si deve a R.C. Schank e R.P. Abelson (1977), che hanno ampliato con la nozione di script quella di frame, fino a ricomprendervi sequenze di azioni tipiche in situazioni tipiche: scopo di uno script è rappresentare in forma algoritmica, in modo da fornire istruzioni pertinenti a un calcolatore, l'insieme delle conoscenze implicite e delle aspettative che si suppone permettano a un essere umano di comprendere, compiendo le corrette inferenze, sequenze di eventi che sono ricostruibili da narrazioni coerenti (per es., andare al ristorante, chiamare il cameriere, ordinare ecc.).
Nell'ambito della psicologia cognitiva più vicina all'IA, tra le ricerche miranti a fornire un'adeguata descrizione dei processi rappresentazionali che sono alla base della cognizione e della competenza deduttiva, un particolare rilievo ha assunto la nozione di modello mentale. A partire dalle intuizioni di K.J. Craik (1943), tale nozione è stata particolarmente elaborata da Ph.N. Johnson-Laird (1983). Un modello mentale è una rappresentazione 'interna' in forma analogica di oggetti, stati di cose e sequenze di eventi; esso può essere pensato come una sorta di immagine - provvista di un certo grado di arbitrarietà e variabilità - di una situazione percepita visivamente o descritta linguisticamente, benché il ricorso alle immagini non sia strettamente necessario: per es., il modello mentale di tre oggetti percepiti visivamente ne replicherebbe isomorficamente la disposizione spaziale, se è questa la caratteristica percettivamente saliente, tralasciando altri aspetti ritenuti non pertinenti. Johnson-Laird parla di una "corrispondenza strutturale" tra il modello mentale e la configurazione fisica di cui esso costituisce appunto un modello. Ciò che contraddistingue un modello mentale non è, in ogni caso, la sua specifica realizzazione psicologica o fisica, ma il suo ruolo funzionale, ossia l'insieme delle operazioni che esso svolge nella conoscenza, nei processi inferenziali e nell'esecuzione di azioni. Da questo punto di vista le caratteristiche principali di un modello possono essere replicate in un "automa craikiano" (Johnson-Laird 1983; trad. it. 1988, pp. 595-96), un robot provvisto di un arbitrario dispositivo che ne regola gli output comportamentali sulla base di input che gli forniscono informazioni appropriate sull'ambiente esterno e che svolgono funzioni di rappresentazioni simboliche (si pensi, per es., a un dispositivo che registri analogicamente il percorso, le posizioni del robot nell'ambiente e gli ostacoli in questo presenti, innescando un meccanismo di arresto o di allarme ogniqualvolta il robot incontra un ostacolo). Di là dal problema riguardante la reale natura dei modelli mentali (che è compito delle neuroscienze investigare), questi vengono trattati da Johnson-Laird come "entità teoriche" provviste di riscontro sperimentale e sottoposte al vincolo fondamentale dell'implementabilità su calcolatore.
La nozione di modello mentale è stata utilizzata da Johnson-Laird in particolare nell'analisi psicologica delle inferenze sillogistiche, dove sembra aver conseguito le migliori conferme sperimentali. La competenza inferenziale umana non è basata, secondo Johnson-Laird, sull'applicazione di una "logica mentale" a simboli proposizionali - ossia (come, per es., nell'epistemologia genetica di J. Piaget) di quelle regole e procedure formali o sintattiche codificate dalla logica classica -, quanto piuttosto sulla costruzione di modelli provvisti di contenuto semantico. Così, il primo passo per l'inferenza sillogistica sarebbe costituito dalla costruzione di un modello mentale tramite cui viene rappresentata una situazione tipica descritta dalle premesse; il secondo consisterebbe nella formulazione di una provvisoria conclusione informativa (implicita nelle premesse), che risulti vera nella situazione rappresentata, mentre il terzo e ultimo passo consisterebbe nella ricerca di un controesempio, di un modello alternativo delle premesse in grado di falsificare la conclusione raggiunta: se è possibile costruire un tale modello di situazione alternativa, la conclusione va rivista, altrimenti è valida. Dal momento che l'abilità inferenziale dipende dalla capacità di concepire modelli delle situazioni descritte, e spesso modelli di elevata complessità e di numero elevato, le difficoltà incontrate dalla memoria operativa nel gestire contemporaneamente tali modelli spiegano ampiamente gli errori che gli esseri umani commettono nelle deduzioni sillogistiche più interessanti e complesse.
I modelli mentali sono stati inoltre proficuamente utilizzati da Johnson-Laird per delineare i meccanismi di acquisizione della conoscenza (quella percettiva in particolare) e nell'analisi della comprensione linguistica e della competenza semantica in genere, con particolare attenzione alle basi cognitive del significato e dei cosiddetti atteggiamenti proposizionali (credere, sapere, sperare ecc.), il che pone il suo contributo anche in quella sotto-area della s. c. nota come semantica cognitiva (Marconi 1992).
Tra le altre indagini tipiche della s. c. possiamo qui ricordare quelle sulla percezione e quelle sulle immagini mentali. Alle prime ha contribuito in modo decisivo D. Marr (1982), neurofisiologo dedicatosi all'elaborazione di modelli artificiali della percezione visiva. Da segnalare, nell'approccio all'IA di Marr (poi proseguito da T. Poggio), è la convinzione che, pur essendo la neurofisiologia insufficiente da sola a permettere una completa spiegazione della percezione visiva (e di altri processi cognitivi), ogni indagine ed elaborazione computazionale dovrebbero sempre osservare i vincoli posti dalle conoscenze relative all'hardware neurofisiologico, vincoli spesso trascurati dall'IA classica (Cordeschi 1996).
Il problema delle immagini mentali, tipico della psicologia ottocentesca e dotato di una lunga storia filosofica, era stato messo definitivamente da parte dai comportamentisti. Esso è risorto negli anni Settanta nell'ambito della s. c. grazie ad A. Paivio (1971), R.N. Shepard (1978) e soprattutto S.M. Kosslyn (1980). A quest'ultimo si deve non solo un'articolata trattazione teorica basata su un'ampia serie di dati sperimentali sulle immagini mentali e sulle capacità mentali che i soggetti hanno di sottoporle a trasformazioni (per es., rotazioni) e di ragionare tramite il ricorso a tali informazioni prive di struttura proposizionale, ma anche l'elaborazione di sofisticati modelli computazionali. Il dibattito seguito a questi contributi è stato particolarmente vivace, dato che essi tendono a ridimensionare il paradigma simbolico-proposizionale che informa gran parte della s. c., la tesi cioè che l'elaborazione dell'informazione avvenga tipicamente, in analogia con gli elaboratori digitali, su rappresentazioni simboliche di forma proposizionale. Le difese di tale paradigma sono state prese soprattutto da Z.W. Pylyshyn (1984), secondo cui le immagini mentali sono soltanto epifenomeni dell'attività cognitiva basata sulla memorizzazione e la manipolazione inferenziale di simboli dalla struttura proposizionale. A Johnson-Laird (1983) si deve d'altra parte la distinzione di tre tipi di rappresentazioni, tutti forniti di evidenza sperimentale: modelli mentali, rappresentazioni proposizionali e immagini (queste ultime concepite come una sottoclasse dei modelli mentali).
Scienza cognitiva, paradigma computazionale e controversie epistemologiche
L'analogia funzionale tra mente e software per calcolatori ha avuto un enorme impatto sulla riflessione filosofica contemporanea, soprattutto di orientamento analitico, almeno a partire dai primi anni Sessanta, contribuendo a determinare un notevole cambiamento della prospettiva ontologica materialista-riduzionista che sino ad allora aveva in larga misura dominato il dibattito sul rapporto mente-cervello. Filosofi della mente come H. Putnam (1960) e J.A. Fodor (1968) sono stati tra i primi a rilevare l'unilateralità della cosiddetta type-identity theory di origine neopositivistica - implicante un'identità stretta tra proprietà mentali e proprietà neurocerebrali - proprio a partire dai brillanti risultati dell'IA, che sembravano accordarsi con una più debole token-identity theory, nota anche come tesi della realizzabilità multipla degli stati mentali e dei processi cognitivi. Secondo quest'ultima l'attività intelligente non è una caratteristica esclusiva del cervello umano ma di sostrati materiali che, pur essendo di diversa natura fisico-chimica, possono nondimeno espletare le medesime funzioni. Le funzioni mentali sarebbero così un software (un insieme di istruzioni e procedure algoritmiche) realizzabile su diversi hardware oltre che su quel particolare hardware che è il cervello. Queste considerazioni - che in consonanza con il cognitivismo hanno aperto la strada a un nuovo genere di mentalismo non dualistico (Mind design, 1981, trad. it. 1989, p. 11; Gardner 1985, trad. it.1988, p. 98) il cui oggetto di studio è l'attività intelligente considerata in se stessa - rappresentano il nucleo della concezione della mente nota come funzionalismo, che è possibile in qualche modo considerare come la filosofia della s. c. (v. anche mente: Il problema mente-corpo e la filosofia della mente, App. V; coscienza, in questa Appendice).
La riflessione filosofica e lo stesso funzionalismo sono comunque più variegati e complessi di quanto possa lasciar supporre la popolarità di cui hanno goduto queste idee. Particolare interesse ha, per es., suscitato la filosofia della mente di D.C. Dennett (1987, 1996), in cui confluiscono suggestioni di varia provenienza, dalla cibernetica all'IA al cognitivismo, dall'evoluzionismo ai risultati delle neuroscienze. A Dennett si deve il tentativo di caratterizzare la sfera cognitiva in almeno due livelli: un livello interpretativo mentalistico, applicato per lo più sul piano del comportamento molare di un sistema e basato sull'"atteggiamento intenzionale" (intentional stance), con cui esseri umani, animali e artefatti (per es. termostati e calcolatori opportunamente programmati per giocare a scacchi o compiere altre attività intelligenti) vengono trattati, a fini esplicativi e predittivi, come se fossero entità provviste di scopi, credenze e razionalità; e un livello esplicativo basato sull'"atteggiamento progettuale", con cui i medesimi sistemi vengono analizzati, funzionalmente e strutturalmente, nei termini delle entità e attività molecolari che li costituiscono (l'hardware, i vari input e output elettrici e il software nel caso dei calcolatori, la struttura neurale e le sue attività nel caso degli esseri viventi). A questo secondo livello ogni ontologia e metodologia di tipo intenzionale (basata su credenze, desideri e assunzioni di razionalità) lascerebbe il posto a meccanismi causali e sistemi di controllo inconsapevoli del tutto privi delle caratteristiche teleologico-mentalistiche postulate dalla folk psychology (v. anche intenzionalità e coscienza, in questa Appendice). Le operazioni di tali meccanismi e sistemi di controllo, svolte negli esseri umani da innumerevoli e simultanee attività neurali, sarebbero per Dennett il prodotto (filogenetico e ontogenetico) di modificazioni plastiche del cervello dovute all'evoluzione biologica (nella versione dello zoologo R. Dawkins sottoscritta da Dennett) e presenterebbero caratteristiche paragonabili, in linea di principio, a quelle di un calcolatore a elaborazione parallela, di tipo diverso, quindi, dai calcolatori digitali di Von Neumann ad architettura seriale (v. elaboratori elettronici, App. V) che hanno costituito il modello dell'IA classica, i calcolatori caratterizzati cioè da operazioni che, per quanto velocemente, vengono eseguite l'una dopo l'altra (in Dennett 1991, dove questa idea viene articolata soprattutto per fornire una plausibile teoria della coscienza, si parla del cervello come di una macchina ad architettura parallela provvista di un software biologico che simula le operazioni di una macchina ad architettura seriale).
Se Dennett ha caratterizzato esplicitamente la propria prospettiva come "interpretazionista", nel senso di non supporre l'esistenza reale delle entità mentali (rappresentazioni) postulate dalle spiegazioni psicologiche cognitiviste e di senso comune (il che, come viene spesso notato, comporta una forma di strumentalismo), un esplicito realismo circa le rappresentazioni simboliche (o i "simboli fisici", secondo l'espressione di Newell e Simon) su cui opererebbero i processi cognitivi è alla base dell'identificazione tra mente e opportuni software di calcolatori. Tipica di certa IA e delle cosiddette teorie computazionali della mente a essa ispirate, tale identificazione è, per es., alla base delle discusse teorie di Fodor (1975, 1987) sul "linguaggio del pensiero" innato (il "mentalese"), secondo cui i processi cognitivi opererebbero attraverso manipolazioni inferenziali di simboli dalla struttura proposizionale che, in qualche modo, sarebbero realizzati fisicamente nel cervello.
Le pretese eccessive del modello computazionale della mente - nelle versioni speculari per cui, da un lato, i processi cognitivi umani non consistono che in attività computazionali, dall'altro, i calcolatori possiedono effettivamente proprietà psicologiche e mentali - sono state segnalate in particolare da J.R. Searle (1980, 1984, 1997) e prima ancora da H.L. Dreyfus (1972). Quest'ultimo, in una prospettiva fenomenologico-ermeneutica e wittgensteiniana, aveva segnalato i limiti del programma dell'IA sulla base del costitutivo radicamento dell'esperienza umana da un lato nella corporeità, dall'altro in contesti culturali che sono alla base di pratiche, conoscenze implicite, attività cognitive e di comprensione le cui caratteristiche non possono essere riprodotte in modo algoritmico e formalizzato da nessun programma per calcolatore (si noti, comunque, come sia stata proprio l'esigenza di dare una plausibile soluzione a questo tipo di problemi semantici e pragmatici a motivare la frame theory di Minsky). Searle ha d'altro canto sottolineato l'implausibilità di quella che considera la concezione "forte" dell'IA in quanto contrapposta a quella "debole": mentre per la prima i programmi computazionali implementabili su calcolatori digitali costituirebbero non solo una simulazione, ma una vera e propria riproduzione dei processi cognitivi umani, per l'altra essi non sono che strumenti tecnologici in grado di formulare e verificare ipotesi e modelli relativi ai processi cognitivi, senza che ciò implichi in alcun modo che l'intelligenza naturale possa essere identificata con programmi artificiali. I programmi per calcolatori, ha notato Searle, non riescono infatti a catturare la specificità dei fenomeni mentali, la loro intrinseca intenzionalità (v. in questa Appendice), cioè il loro essere provvisti di una semantica, il loro riferirsi a contenuti di significato e a entità extramentali, caratteristiche che nessun programma, basato per definizione su manipolazioni puramente sintattiche e formali di simboli e stringhe di simboli, è in grado di replicare. Del pari, ha ancora osservato Searle, la concezione cognitivista della mente come sistema di elaborazione di informazioni può essere un utile modello, non diversamente dal modello, datato, del cervello come centralino telefonico, ma non dovrebbe essere preso troppo sul serio, dato che l'ipotesi dell'esistenza di calcoli inconsci su simboli astratti non può prendere il posto dello studio biologico del cervello e delle attività neurali.
Costituiscano o meno posizioni di retroguardia, queste tesi possono comunque a loro volta apparire eccessive se si tiene conto che, fra le tante proposte funzionaliste e cognitiviste, vi è anche quella per la quale il paradigma dell'attività cognitiva come manipolazione di simboli non deve necessariamente impegnarsi a identificare tale attività con quella tipicamente realizzata dai calcolatori digitali con architettura di Von Neumann: per quel che ne sappiamo, l'architettura giusta potrebbe essere anche diversa da quella di Von Neumann, la sua individuazione essendo subordinata all'ampliamento delle conoscenze neurobiologiche (Pylyshyn 1984; Bechtel 1988).
Non dovrebbe nemmeno essere trascurato, d'altronde, quello che Gardner (1985; trad. it. 1988, pp. 430-35) ha chiamato il "paradosso computazionale" della s. c., che proprio attraverso l'elaborazione di sofisticati modelli computazionali ha spesso dovuto constatare, sul piano dei controlli empirici, la distanza che separa i processi cognitivi, strategici e decisionali umani da quei modelli. In realtà, il pensiero e l'azione umana appaiono spesso caratterizzati, oltre che da un'organizzazione ed elaborazione altamente olistica delle informazioni (e quindi poco strutturabile secondo precise regole), da fattori ambientali, emotivi e idiosincratici, da preferenze intransitive ed euristiche subrazionali, da errori sistematici o irrazionale perseveranza in credenze false, da inferenze gratuite e oscuri meccanismi di autoinganno e wishful thinking che difficilmente risultano replicabili anche dai più 'deboli' modelli implementabili su calcolatore. D'altra parte, se molti dati empirici sulle prestazioni cognitive umane (su cui si vedano soprattutto Judgement under uncertainty, 1983; Nisbett, Ross 1980) appaiono poco confortanti, non solo per le concezioni della razionalità elaborate in sede filosofica e di teoria economica, ma anche per le teorie cognitiviste, ciò non toglie, come ha osservato Gardner, che essi potrebbero in linea di principio non risultare del tutto intrattabili sul piano della ricostruzione formale. Cionondimeno, essi pongono vincoli non trascurabili all'elaborazione di teorie e modelli volti a conseguire un'autentica comprensione del funzionamento della mente umana.
Neuroscienze e nuovi orientamenti
Se la controversia tra programma di simulazione delle attività cerebrali e programma di simulazione di quelle cognitive si era conclusa a favore di quest'ultimo, grazie al grande sviluppo delle ricerche di IA e alle sempre più strette connessioni fra tali ricerche e la psicologia cognitiva, un problema con cui l'orientamento tipicamente mentalista e funzionalista della s. c. si è trovato a confrontarsi è il rapporto con le neuroscienze (v. in questa Appendice). Nell'atto costitutivo della s. c. le neuroscienze vengono considerate a pieno titolo come facenti parte di questa nuova scienza; tuttavia è difficile dire quanto i due livelli d'indagine - quello simbolico-computazionale e quello strettamente neuroscientifico - siano integrati o integrabili: se il paradigma della s. c. è costituito dall'assunzione che le attività cognitive siano essenzialmente attività computazionali indipendenti dall'hardware su cui possono essere implementate, allora la rilevanza delle neuroscienze per la s. c. appare quanto meno dubbia, dato che esse si occupano esattamente di un particolare sostrato di implementazione, quello neurobiologico, che la s. c. ritiene non direttamente pertinente alle proprie ricerche (Tabossi 1998). Inoltre, sebbene spesso alle neuroscienze si demandi il compito di fornire i vincoli neurobiologici che la s. c. dovrebbe rispettare, va notato come sia stata soprattutto la s. c. a porre un vincolo alle neuroscienze: il vincolo, cioè, di individuare gli adeguati processi neuronali correlati alle rappresentazioni interne e alle funzioni cognitive che su queste opererebbero. Ma l'esistenza di tali rappresentazioni, paradossalmente, viene talvolta messa in discussione nello stesso ambito cognitivo proprio su basi neuroscientifiche e biologiche, con conseguenze che appaiono ben poco promettenti per l'auspicata integrazione: si pensi allo strumentalismo di Dennett sull'intenzionalità e, più generalmente, al cosiddetto eliminativismo (rappresentato vigorosamente dai coniugi Churchland: P.S. Churchland 1986; P.M. Churchland 1989), che considera le rappresentazioni mentali alla stregua di vaghe ed erronee metafore radicate negli usi linguistici e destinate a svanire con l'incremento delle conoscenze neuroscientifiche, per essere soppiantate dal più adeguato livello di descrizione e spiegazione dei fenomeni mentali che tali conoscenze sarebbero in grado di conseguire.
Quanto alle analogie tra calcolatore e cervello, se hanno goduto di una certa fortuna tra gli anni Quaranta e Cinquanta, non sempre hanno successivamente incontrato il favore dei neuroscienziati: il "darwinismo neurale" di G. Edelman, per es., è una teoria esplicitamente biologica che, pur utilizzando tra i suoi metodi sperimentali la simulazione al calcolatore, non può essere considerata rientrante nel paradigma simbolico-computazionale cognitivista (v. mente: Neuroscienze e modelli della mente, App. V). Considerazioni analoghe valgono per la teoria della coscienza del neuroscienziato F. Crick. La simulazione al calcolatore, del resto, è oggi uno strumento di sperimentazione e predizione di cui si avvalgono numerose discipline scientifiche, senza che ciò comporti la natura computazionale dei fenomeni studiati (Searle 1984; Parisi 1989). E in larga misura essa viene così utilizzata da parte della "neuroscienza cognitiva" (espressione coniata dal neuropsicologo M.S. Gazzaniga), cioè l'insieme delle discipline neuroscientifiche che - soprattutto attraverso l'individuazione di correlazioni tra deficit cognitivi e danni cerebrali - mira a localizzare e descrivere le aree e le attività del cervello deputate all'espletamento delle funzioni cognitive superiori (memoria, linguaggio, ragionamento, azione volontaria).
Le sempre più avvertite esigenze di teorie cognitiviste fornite di plausibilità dal punto di vista neuroscientifico hanno condotto, in tempi relativamente recenti, alla nascita di un nuovo approccio alle attività intelligenti, basato su presupposti alquanto divergenti da quelli radicalmente funzionalisti della s. c. e dell'IA classica e per molti versi affini a quelli della cibernetica. Tale approccio è noto con il nome di connessionismo (o modello a reti neurali o Parallel Distributed Processing, "elaborazione parallela distribuita") e le sue idee fondamentali risalgono ad alcune ipotesi avanzate verso la fine degli anni Quaranta da D.O. Hebb e sul finire dei Cinquanta da F. Rosenblatt (v. mente: Neuroscienze e modelli della mente, App. V).
Il connessionismo - tra i cui maggiori esponenti possiamo qui ricordare P. Smolensky, D.E. Rumelhart, J.L. McClelland, G.E. Hinton, T.R. Sejnowski - rappresenta, almeno dalla metà degli anni Ottanta, il più articolato programma di ricerca volto a conseguire una spiegazione dei processi cognitivi in grado di rispettare rigorosi vincoli neurologici; a tale fine esso utilizza come modello della mente non le istruzioni codificate in un software per calcolatore, ma la stessa struttura neurale del cervello. In tale prospettiva il modello ampiamente utilizzato è quello delle reti neurali (v. App. V; v. anche psicolinguistica, App. V), concepite come una plausibile rappresentazione (benché alquanto semplificata) delle connessioni sinaptiche tra i neuroni, le cui attività eccitatorie e inibitorie sono considerate congiuntamente sufficienti per la produzione della percezione, del pensiero, del linguaggio e della memoria. Anche il connessionismo, come l'IA, fa ampio ricorso alla simulazione al calcolatore: il comportamento delle reti neurali è infatti ritenuto analogo a (o, quanto meno, simulabile da) quello di un calcolatore ad architettura parallela, caratterizzato da un numero elevato di operazioni che avvengono simultaneamente; tuttavia c'è attualmente disaccordo sulla sua collocazione nel panorama della s. c., potendo nel medesimo tempo essere considerato sia la versione più aggiornata dell'IA (e presumibilmente di una IA 'debole' nel senso di Searle) sia un approccio del tutto diverso che, rinunciando esplicitamente al paradigma rappresentazionalista dei sistemi simbolici fisici a favore di un paradigma "subsimbolico" (Parisi 1989), conserva solo quello computazionale, benché a livello di hardware piuttosto che di software.
Sviluppatasi e consolidatasi in esplicito contrasto con il riduzionismo, la s. c. si trova così oggi a dover mediare fra le esigenze più autenticamente cognitiviste, caratterizzate da un'impressionante mole di ricerche teoriche, computazionali e sperimentali, e quelle più radicalmente riduzioniste, che, nonostante i limiti tradizionali (primo fra tutti il disinteresse per l'influenza dei contesti socio-culturali sullo sviluppo e l'espletamento dell'intelligenza umana), sembrano riproporsi con il connessionismo. Le unilateralità di entrambe le prospettive impongono in ogni caso l'osservanza di un principio di tolleranza che, prima di ambire al conseguimento di un'ancora lontana integrazione, salvaguardi soprattutto le specificità dei diversi livelli d'indagine.
bibliografia
K.J. Craik, The nature of explanation, Cambridge 1943 (trad. it. dei capp. 5 e 6 in La fisica della mente, a cura di V. Somenzi, Torino 1969, pp. 32-79).
W.S. McCulloch, W.H. Pitts, A logical calculus of the ideas immanent in nervous activity, in Bulletin of mathematics biophysics, 1943, pp. 115-33.
A. Rosenblueth, N. Wiener, J. Bigelow, Behavior, purpose and teleology, in Philosophy of science, 1943, pp. 18-24 (trad. it. in La filosofia degli automi, a cura di V. Somenzi, R. Cordeschi, Torino 1994², pp. 78-85).
A. Turing, Computing machinery and intelligence, in Mind, 1950, pp. 433-60 (trad. it. in La filosofia degli automi, a cura di V. Somenzi, R. Cordeschi, Torino 1994², pp. 167-93).
J. Von Neumann, The computer and the brain, New Haven (Conn.) 1958 (trad. it. in La filosofia degli automi, a cura di V. Somenzi, R. Cordeschi, Torino 1994², pp. 108-50).
H. Putnam, Mind and machines, in Dimensions of mind, ed. S. Hook, New York 1960, pp. 148-80 (rist. in H. Putnam, Mind, language, and reality, Cambridge 1975; trad. it. Milano 1987, pp. 392-415).
J.A. Fodor, Psychological explanation, New York 1968.
M.R. Quillian, Semantic memory, in Semantic information processing, ed. M.L. Minsky, Cambridge (Mass.) 1968, pp. 216-60.
A. Paivio, Imagery and verbal processes, New York 1971.
H.L. Dreyfus, What computers can't do: the limits of artificial intelligence, New York 1972, 1979² (trad. it. Roma 1988).
A. Newell, H.A. Simon, Human problem solving, Englewood Cliffs (N.J.) 1972.
J.A. Fodor, The language of thought, New York 1975.
M.L. Minsky, A framework for representing knowledge, in The psychology of computer vision, ed. P.H. Winston, New York 1975, pp. 211-77 (rist. in Mind design: philosophy, psychology, artificial intelligence, ed. J. Haugeland, Cambridge, Mass., 1981; trad. it. Bologna 1989, pp. 107-42).
U. Neisser, Cognition and reality: principles and implications of cognitive psychology, San Francisco 1976 (trad. it. Bologna 1981).
A. Newell, H.A. Simon, Computer science as empirical inquiry: symbol and search, in Communication of the Association for computing machine, 1976, pp. 113-26 (rist. in Mind design: philosophy, psychology, artificial intelligence, ed. J. Haugeland, Cambridge, Mass., 1981; trad. it. Bologna 1989, pp. 43-75).
R.C. Schank, R.P. Abelson, Scripts, plans, goals and understanding, Hillsdale (N.J.) 1977.
H.A. Simon, Models of discovery, Dordrecht 1977.
P.H. Winston, Artificial intelligence, Reading (Mass.) 1977, 1992³.
R.N. Shepard, The mental image, in American psychologist, 1978, pp. 125-37.
D.R. Hofstadter, Gödel, Escher, Bach: an eternal golden braid, New York 1979 (trad. it. Milano 1984).
S.M. Kosslyn, Images and mind, Cambridge (Mass.) 1980 (trad. it. Firenze 1989).
D. McDermott, J. Doyle, Non-monotonic logic I, in Artificial intelligence, 1980, pp. 41-72.
R. Nisbett, L. Ross, Human inference: strategies and shortcoming of social judgment, Englewood Cliffs (N.J.) 1980 (trad. it. Bologna 1989).
J.R. Searle, Minds, brains, and programs, in The behavioral and brain science, 1980, pp. 417-24 (trad. it. Milano 1984).
Mind design: philosophy, psychology, artificial intelligence, ed. J. Haugeland, Cambridge (Mass.) 1981 (trad. it. Bologna 1989).
Z.W. Pylyshyn, The imagery debate: analogue media versus tacite knowledge, in Psychological review, 1981, pp. 16-45.
D. Marr, Vision: a computational investigation into the human representation and processing of visual information, San Francisco 1982.
Ph.N. Johnson-Laird, Mental models: towards a cognitive science of language, inference and consciousness, Cambridge 1983 (trad. it. Bologna 1988).
Judgement under uncertainty: heuristic and biases, ed. D. Kahneman, P. Slovic, A. Tverski, Cambridge 1983.
Z.W. Pylyshyn, Computation and cognition: toward a foundation for cognitive science, Cambridge (Mass.) 1984.
J.R. Searle, Minds, brains and science, London 1984 (trad. it. Milano 1987).
H. Gardner, The mind's new science, New York 1985 (trad. it. Milano 1988).
P.S. Churchland, Neurophilosophy: toward a unified understanding of the mind-brain, Cambridge (Mass.) 1986.
La filosofia degli automi. Origini dell'intelligenza artificiale, a cura di V. Somenzi, R. Cordeschi, Torino 1986, 1994².
PDP Research Group, Parallel Distributed Processing: exploration in the microstructure of cognition, 2 voll., Cambridge (Mass.) 1986 (trad. it. parz. Bologna 1991).
D.C. Dennett, The intentional stance, Cambridge (Mass.) 1987 (trad. it. Bologna 1993).
J.A. Fodor, Psychosemantics: the problem of meaning in the philosophy of mind, Cambridge (Mass.) 1987 (trad. it. Bologna 1990).
W. Bechtel, Philosophy of mind: an overview for cognitive science, Hillsdale (N.J.) 1988 (trad. it. Bologna 1992).
Ph.N. Johnson-Laird, The computer and the mind: an introduction to cognitive science, London 1988, 1993² (trad. it. Bologna 1997).
P.M. Churchland, A neurocomputational perspective: the nature of mind and the structure of science, Cambridge (Mass.) 1989 (trad. it. Bologna 1992).
Foundations of cognitive science, ed. M.I. Posner, Cambridge (Mass.) 1989.
D. Parisi, Intervista sulle reti neurali, Bologna 1989.
B. Bara, Scienza cognitiva, Torino 1990.
D.C. Dennett, Consciousness explained, London 1991 (trad. it. Coscienza: che cos'è, Milano 1993).
V. Somenzi, La materia pensante, Milano 1991.
D. Marconi, Semantica cognitiva, in M. Santambrogio, Introduzione alla filosofia analitica del linguaggio, Roma-Bari 1992, pp. 432-82.
The cognitive neurosciences, ed. M.S. Gazzaniga, Cambridge (Mass.) 1995.
Cognitive science, ed. N.P. Sheehy, A.J. Chapman, 3 voll., New York 1995.
R. Cordeschi, L'intelligenza artificiale, in L. Geymonat, Storia del pensiero filosofico e scientifico, a cura di E. Bellone, C. Mangione, Milano 1996, 8° vol., pp. 145-200.
D.C. Dennett, Kinds of minds, New York 1996 (trad. it. La mente e le menti, Milano 1997).
P. Thagard, Mind: introduction to cognitive science, Cambridge (Mass.) 1996 (trad. it. Milano 1998).
J.R. Searle, The mistery of consciousness, New York 1997 (trad. it. Milano 1998).
R. Cordeschi, La scoperta dell'artificiale, Milano 1998.
F. Ferretti, Pensare vedendo: le immagini mentali nella scienza cognitiva, Roma 1998.
P. Tabossi, Intelligenza naturale e intelligenza artificiale, Bologna 1998.