Teoria computazionale della mente

The following is the translation of Michael Rescorla’s entry on “The Computational Theory of Mind “in the Stanford Encyclopedia of Philosophy. The translation follows the version of the entry in the SEP’s archives at https://plato.stanford.edu/archives/win2020/entries/computational-mind/ . The translated version may differ from the current version of the entry, which may have been updated since the time of this translation. The current version is located at https://plato.stanford.edu/entries/computational-mind/ . We’d like to thank the Editors of the Stanford Encyclopedia of Philosophy for granting permission to translate and publish this entry on the web.


******* SEP translations *******

Una macchina sarebbe in grado di pensare? La mente potrebbe essere essa stessa una macchina pensante? La rivoluzione informatica ha rivoluzionato il dibattito intorno a queste domande, fornendo prospettive ottimali per le macchine che simulano il ragionamento, il processo decisionale, il problem-solving, la percezione, la comprensione linguistica, ed altri processi mentali. I progressi nell’informatica suggeriscono la possibilitĂ  che la mente stessa sia un sistema computazionale, una posizione nota come teoria computazionale della mente (TCM). I computazionalisti sono ricercatori che sostengono la TCM, almeno per come viene applicata ad alcuni importanti processi mentali. La TCM ha svolto un ruolo centrale nella scienza cognitiva negli anni ’60 e ’70. Per molti anni ha goduto di uno statuto ortodosso. PiĂš di recente, è stata messa in crisi da vari paradigmi avversari. L’obiettivo decisivo per i computazionalisti è quello di spiegare cosa si intende quando si dice che la mente “computa”. Un secondo compito è sostenere che la mente “computa” nel senso rilevante. Un terzo compito è chiarire come la descrizione computazionale si relaziona ad altri tipi comuni di descrizione, in particolare alla descrizione neurofisiologica (che fa riferimento alle proprietĂ  neurofisiologiche del cervello o del corpo dell’organismo) e alla descrizione intenzionale (che fa riferimento invece alle proprietĂ  rappresentazionali degli stati mentali).

.

1. Macchine di Turing

Le nozioni intuitive di computazione e algoritmo sono centrali in matematica. In parole povere, un algoritmo è una procedura esplicita e dettagliata per rispondere a qualche domanda o risolvere qualche problema. Un algoritmo fornisce istruzioni meccaniche di routine che stabiliscono come si debba procedere in ogni fase. Obbedire alle istruzioni non richiede ingegnositĂ  o creativitĂ  particolari. Ad esempio, gli algoritmi a cui siamo abituati dalle scuole elementari descrivono come fare addizioni, moltiplicazioni e divisioni. Fino all’inizio del ventesimo secolo, i matematici si basavano su nozioni informali di computazione e algoritmo senza tentare nulla di simile a un’analisi formale. Gli sviluppi nelle basi della matematica alla fine spinsero i logici a perseguire un trattamento piĂš sistematico. L’imprescindibile paper di Alan Turing “On Computable Numbers, With an Application to the Entscheidungsproblem” (Turing 1936) ha offerto l’analisi che si è dimostrata piĂš influente.

Una macchina di Turing è un modello astratto di un dispositivo informatico idealizzato con tempo e spazio di archiviazione illimitati a sua disposizione. Il dispositivo manipola i simboli, proprio come un agente informatico umano manipola i segni di matita su carta durante la computazione aritmetica. Turing dice molto poco sulla natura dei simboli. Sostiene che i simboli primitivi siano tratti da un alfabeto finito. Assume inoltre che i simboli possano essere inscritti o cancellati in “indirizzi di memoria”. Il modello di Turing funziona nel modo seguente:

 

Turing traduce questa descrizione informale in un modello matematico rigoroso. Per maggiori dettagli, vedere la voce sulle macchine di Turing

Turing motiva poi il suo approccio riflettendo sugli agenti informatici umani idealizzati. Citando i limiti del nostro apparato percettivo e cognitivo, sostiene che qualsiasi algoritmo simbolico eseguito da un essere umano possa essere replicato da una macchina di Turing adeguata. Conclude che il formalismo della macchina di Turing, nonostante la sua estrema semplicitĂ , è abbastanza potente da catturare tutte le procedure meccaniche eseguibili da un essere umano attraverso le configurazioni simboliche. Gli autori successivi, che hanno discusso questa tesi, sono stati quasi universalmente d’accordo.

La computazione di Turing è spesso descritta come digitale piuttosto che analogico. Non è sempre cosĂŹ chiaro che cosa significhi, ma l’idea di base è che la computazione opera su configurazioni discrete. In confronto, molti algoritmi storicamente importanti operano su configurazioni a variazione continua. Ad esempio, la geometria euclidea assegna un ruolo importante alle costruzioni con righello e compasso, che manipolano le forme geometriche. Per qualsiasi forma, se ne può trovare un’altra che differisce in misura arbitrariamente piccola. Le configurazioni simboliche manipolate da una macchina di Turing non differiscono in misura arbitrariamente piccola. Le macchine di Turing operano su stringhe discrete di elementi (cifre) tratte da un alfabeto finito. Una controversia ricorrente riguarda se il paradigma digitale sia adatto come modello per l’attivitĂ  mentale o se sarebbe invece piĂš adatto un paradigma analogico (MacLennan 2012; Piccinini e Bahar 2013).

Oltre a introdurre le sue macchine, Turing (1936) ha conseguito diversi risultati matematici fondamentali in cui esse sono state coinvolte. In particolare, ha dimostrato l’esistenza di una macchina di Turing universale (MTU). In parole povere, una MTU è una macchina di Turing che può imitare qualsiasi altra macchina di Turing. Si fornisce all’MTU un input simbolico che codifica la tavola della macchina per la macchina di Turing M. L’MTU replica il comportamento di M, eseguendo le istruzioni fornite dalla tavola della macchina di M. In questo senso, la MTU è un computer generico a scopo programmabile. Da una prima approssimazione, tutti i personal computer sono anche ad uso generale: possono imitare qualsiasi macchina di Turing, una volta che sono stati opportunamente programmati. La limitazione principale è che i computer fisici hanno una memoria finita, mentre una macchina di Turing ha una memoria illimitata. PiĂš precisamente, quindi, un personal computer può imitare qualsiasi macchina di Turing fino a quando non esaurisce la sua limitata disponibilitĂ  di memoria.

La discussione di Turing ha contribuito a gettare le basi per l’informatica, che cerca di progettare, costruire e comprendere i sistemi informatici. Come sappiamo, gli informatici possono ora costruire macchine informatiche estremamente sofisticate. Tutte queste macchine implementano qualcosa di simile alla computazione di Turing, sebbene i dettagli differiscano dal modello semplificato che ha proposto.

.

2. Intelligenza artificiale

Rapidi progressi nell’informatica hanno spinto molti, compreso Turing, a riflettere sulla possibilitĂ  di costruire un computer in grado di pensare. L’intelligenza artificiale (AI) mira a costruire “macchine pensanti”. PiĂš precisamente, mira a costruire macchine informatiche che eseguono compiti mentali fondamentali come il ragionamento, il processo decisionale, il problem-solving e cosĂŹ via. Nel corso degli anni ’50 e ’60, questo obiettivo ci concretizzò sempre piĂš (Haugeland 1985).

Le prime ricerche sull’IA ponevano l’accento sulla logica. I ricercatori hanno cercato di “meccanizzare” il ragionamento deduttivo. Un famoso esempio fu il programma per computer Logic Theorist (Newell e Simon 1956), che ha dimostrato 38 dei primi 52 teoremi dei Principia Mathematica (Whitehead e Russell 1925). In un caso ha scoperto una dimostrazione piĂš semplice di quella fornita nei Principia.

I primi successi di questo tipo stimolarono un enorme interesse dentro e fuori il mondo accademico. Molti ricercatori prevedevano che per giungere alle macchine intelligenti sarebbero serviti pochi anni. Ovviamente, queste previsioni non risultarono corrette. Tra noi non camminano ancora robot intelligenti. Anche i processi mentali di livello relativamente basso, come la percezione, superano di gran lunga le capacitĂ  degli attuali programmi per computer. Quando queste fiduciose previsioni delle macchine pensanti si rivelarono eccessivamente ottimistiche, molti osservatori persero interesse o conclusero che l’intelligenza artificiale fosse l’impresa di uno sciocco. Tuttavia, nei decenni si è assistito a graduali processi. Un successo sorprendente è stato quello di Deep Blue della IBM, che ha sconfitto il campione di scacchi Gary Kasparov nel 1997. Un altro grande successo è stato quello dell’auto senza conducente Stanley (Thrun, Montemerlo, Dahlkamp, ​​et al. 2006), che ha completato un percorso di 132 miglia nel deserto del Mojave, vincendo la grande sfida della Defense Advanced Research Projects Agency (DARPA) del 2005. Una storia di successo meno appariscente è il grande miglioramento degli algoritmi per il riconoscimento vocale.

Un problema che ha ostacolato i primi lavori nell’IA è l’incertezza. Quasi tutti i ragionamenti e il processo decisionale operano in condizioni di incertezza. Ad esempio, potresti dover decidere se andare a fare un picnic senza essere certo che pioverĂ . La teoria bayesiana delle decisioni è il modello matematico standard di inferenza e processo decisionale in condizioni di incertezza. L’incertezza è codificata attraverso la probabilitĂ . Regole precise stabiliscono come aggiornare le probabilitĂ  alla luce di nuove prove e come selezionare le azioni alla luce delle probabilitĂ  e delle utilitĂ . (Vedi le voci sul teorema di Bayes e le teorie normative della scelta razionale: utilitĂ  attesa  per i dettagli.) Negli anni ’80 e ’90, gli sviluppi tecnologici e concettuali hanno permesso lo sviluppo di programmi per computer efficienti che implementano o approssimano l’inferenza bayesiana in scenari realistici. Ne seguĂŹ un’esplosione di intelligenza artificiale bayesiana (Thrun, Burgard e Fox 2006), inclusi i giĂ  menzionati progressi nel riconoscimento vocale e nei veicoli senza conducente. Gli algoritmi trattabili che gestiscono l’incertezza sono un risultato importante dell’IA contemporanea (Murphy 2012) e forse facevano presagire progressi futuri ancora piĂš impressionanti.

Alcuni filosofi insistono sul fatto che i computer, per quanto sofisticati, nel migliore dei casi arriveranno ad imitare il nostro pensiero, anzichĂŠ replicarlo. Una simulazione al computer del tempo non fa piovere per davvero. Una simulazione di volo al computer non fa volare per davvero. Anche se un sistema informatico potesse simulare l’attivitĂ  mentale, perchĂŠ dovremmo sospettare che la costituirebbe per intero?

Turing (1950) anticipò queste preoccupazioni e cercò di attenuarle. Egli ha proposto uno scenario, ora detto Test di Turing, in cui si valuta se un interlocutore non visibile è un computer o un essere umano. Un computer supera il test di Turing se non si riesce a stabilire che si tratta di un computer. Turing ha proposto di abbandonare la domanda “Un computer è in grado di pensare?” dato che è irrimediabilmente vaga, sostituendola con “Un computer potrebbe superare il test di Turing?”. La discussione di Turing ha ricevuto notevole attenzione, dimostrandosi particolarmente influente all’interno del campo dell’IA. Ned Block (1981) ha offerto una critica influente. Egli sostiene che alcune macchine possibili superano il test di Turing anche se esse non si avvicinano al pensiero o all’intelligenza degli esseri umani. Vedi la voce sul test di Turing per la discussione dell’obiezione di Block e altri problemi che riguardano il test di Turing.

Per ulteriori informazioni sull’intelligenza artificiale, vedi voce sullla logica e l’intelligenza artificiale. Per molti piĂš dettagli, si veda Russell e Norvig (2010).

3. La teoria computazionale della mente classica

Warren McCulloch e Walter Pitts (1943) hanno suggerito per primi che qualcosa di simile alla macchina di Turing potrebbe fornire un buon modello per spiegare la mente. Negli anni ’60, la computazione di Turing divenne centrale per l’emergente iniziativa interdisciplinare delle scienze cognitive, che studiano la mente attingendo alla psicologia, all’informatica (in particolare all’IA), alla linguistica, alla filosofia, all’economia (in particolare la teoria dei giochi e l’economia comportamentale), all’antropologia e alle neuroscienze. L’etichetta “teoria computazionale della mente classica” (che abbrevieremo come TCMC) è ora abbastanza comune. Secondo la TCMC, la mente è un sistema computazionale simile per importanti aspetti a una macchina di Turing, e i cui processi mentali fondamentali (ad esempio, ragionamento, processo decisionale e problem-solving) sono calcoli simili in alcuni aspetti a quelli eseguiti da una macchina di Turing. Questa formulazione è, tuttavia, imprecisa. La TCMC può essere considerata al piĂš come un insieme di teorie, piuttosto che come un’unica teoria con una singola definizione. [1]

Si usa descrivere la TCMC come se incarnasse la “metafora del computer”. Questa descrizione è fuorviante per due motivi.

In primo luogo, la TCMC si può formulare meglio descrivendo la mente come un “sistema informatico” o un “sistema computazionale” piuttosto che un “computer”. Come osserva David Chalmers (2011), descrivere un sistema come un “computer” suggerisce fortemente che il sistema è programmabile. Come nota anche Chalmers, non è necessario affermare che la mente è programmabile semplicemente perchĂŠ la si considera come un sistema computazionale simile alle macchine di Turing. (La maggior parte delle macchine di Turing, infatti, non sono programmabili.) Pertanto, l’espressione “metafora del computer” suggerisce fortemente un impegno teorico non essenziale per la TCMC. Il punto qui non è solo terminologico. I critici della TCMC spesso obiettano che la mente non è un computer programmabile per scopi generali (Churchland, Koch e Sejnowski 1990). Siccome i computazionalisti classici non hanno bisogno di affermare (e di solito non lo fanno) che la mente è un computer programmabile per scopi generali, l’obiezione è mal indirizzata.

In secondo luogo, la TCMC non va intesa metaforicamente. La TCMC non sostiene semplicemente che la mente è come un sistema informatico. La TCMC sostiene che la mente è letteralmente un sistema informatico. Naturalmente, i sistemi informatici artificiali piĂš familiari sono realizzati con chip di silicio o materiali simili, mentre il corpo umano è fatto di carne e sangue. Ma la TCMC sostiene che questa differenza nasconde una somiglianza piĂš fondamentale, che possiamo comprendere con un modello computazionale simile alle macchine di Turing. Nell’offrire un tale modello, prescindiamo dai suoi dettagli a livello fisico. Otteniamo una descrizione computazionale astratta che potrebbe essere implementata fisicamente in diversi modi (ad esempio, attraverso chip di silicio, neuroni, pulegge o leve). La TCMC sostiene che un modello computazionale astratto offre una descrizione letteralmente corretta dei processi mentali fondamentali.

È comune riassumere la TCMC attraverso lo slogan “la mente è una macchina di Turing”. Questo slogan è anche un po’ fuorviante, perchĂŠ nessuno considera il preciso formalismo di Turing un modello plausibile della nostra attivitĂ  mentale. Il formalismo sembra troppo restrittivo per diversi motivi:

Le macchine di Turing eseguono calcoli simbolici puri. Gli input e gli output sono simboli inscritti negli indirizzi di memoria. Al contrario, la mente riceve input sensoriali (ad esempio, stimolazioni retiniche) e produce output motori (ad esempio, attivazioni muscolari). Una teoria completa deve descrivere come la computazione mentale si interfaccia agli input sensoriali e gli output motori.

La TCMC afferma che l’attivitĂ  mentale è “computazione simile alle macchine di Turing”, che consente queste e altre divergenze rispetto allo stesso formalismo di Turing.

3.1 Funzionalismo della macchina

Hilary Putnam (1967) ha introdotto la TCMC in filosofia. Ha messo a confronto la sua posizione con il comportamentismo logico e la teoria dell’identitĂ  di tipo. Ogni posizione pretende di rivelare la natura degli stati mentali, inclusi gli atteggiamenti proposizionali (come le credenze), sensazioni (come il dolore) ed emozioni (come la paura). Secondo il comportamentismo logico, gli stati mentali sono disposizioni comportamentali. Secondo la teoria dell’identitĂ  di tipo, gli stati mentali sono stati cerebrali. Putnam avanza al contrario una teoria funzionalista, in base alla quale gli stati mentali sono stati funzionali. Secondo il funzionalismo, un sistema ha una mente quando il sistema ha un’organizzazione funzionale adeguata. Gli stati mentali sono stati che svolgono ruoli appropriati nell’organizzazione funzionale del sistema. Ogni stato mentale è individuato in base alle sue interazioni con input sensoriali, output motorii e altri stati mentali.

Il funzionalismo offre notevoli vantaggi rispetto al comportamentismo logico e alla teoria dell’identitĂ  del tipo:

Putnam difende una versione di funzionalismo ora detta “funzionalismo della macchina”. Egli pone l’enfasi sugli automi probabilistici, che sono simili alle macchine di Turing, tranne per il fatto che le transizioni tra gli stati computazionali sono stocastiche. Egli propone che l’attivitĂ  mentale implementi un automa probabilistico e che particolari stati mentali non siano che stati macchina del processore centrale dell’automa. La tavola della macchina specifica un’organizzazione funzionale appropriata e specifica anche il ruolo che svolgono i singoli stati mentali all’interno di tale organizzazione funzionale. In questo modo, Putnam combina il funzionalismo con la TCMC.

Il funzionalismo della macchina deve far fronte diversi problemi. Un problema, evidenziato da Ned Block e Jerry Fodor (1972), riguarda la produttività del pensiero. Un essere umano normale può generare una serie di enunciati potenzialmente infinità. Il funzionalismo della macchina identifica gli stati mentali con gli stati macchina di un automa probabilistico. PoichÊ esiste un numero finito di stati macchina, non ve ne sono abbastanza perchÊ si accoppino a uno a uno con i possibili stati mentali di un essere umano. Naturalmente, un essere umano in carne ed ossa prenderà in considerazione solo un numero limitato di proposizioni. Tuttavia, Block e Fodor sostengono che questa limitazione rifletta i limiti della durata della vita e della memoria, piuttosto che (ad esempio) qualche legge psicologica che restringa la classe delle proposizioni enunciabili dagli esseri umani. Un automa probabilistico è dotato di tempo e capacità di memoria illimitati, ma ha ancora solo un numero limitato di stati macchina. Apparentemente, quindi, il funzionalismo della macchina identifica i limiti della cognizione umana nel luogo sbagliato.

Un altro problema del funzionalismo della macchina, evidenziato anche da Block e Fodor (1972), riguarda la sistematicitĂ  del pensiero. La capacitĂ  di enunciare una proposizione è correlata alla capacitĂ  di pensare ad altre proposizioni. Ad esempio, se qualcuno pensa “Giovanni ama Maria” può anche pensare “Maria ama Giovanni”. Sembrano dunque esserci relazioni sistematiche tra gli stati mentali. Una buona teoria dovrebbe rendere conto di queste relazioni sistematiche. Eppure, il funzionalismo della macchina identifica gli stati mentali con stati macchina non strutturati, che sono privi delle relazioni sistematiche richieste. Per questo motivo, il funzionalismo della macchina non spiega la sistematicitĂ  del pensiero. In risposta a questa obiezione, i funzionalisti della macchina potrebbero negare di essere obbligati a spiegare la sistematicitĂ  del pensiero. Tuttavia, l’obiezione suggerisce che il funzionalismo della macchina trascuri le caratteristiche essenziali della mente umana. Una teoria piĂš efficiente dovrebbe mirare a spiegare queste caratteristiche in modo rigoroso.

Sebbene le obiezioni sulla produttivitĂ  e sulla sistematicitĂ  al funzionalismo della macchina forse non siano decisive, spingono fortemente affinchĂŠ si cerchi una versione migliorata della TCMC. Si veda Block (1978) per ulteriori problemi relativi al funzionalismo e al funzionalismo della macchina piĂš in generale.

.

3.2 Teoria rappresentazionale della mente

Fodor (1975, 1981, 1987, 1990, 1994, 2008) sostiene una versione della TCMC che rende conto della sistematicitĂ  e alla produttivitĂ  in modo molto piĂš soddisfacente. Egli sposta l’attenzione sui simboli utilizzati durante la computazione da parte delle macchine di Turing.

Una vecchia teoria, che risale almeno alla Summa Logicae di Guglielmo d’Ockham, sostiene che il pensiero si manifesti in un linguaggio del pensiero (a volte chiamato “Mentalese”). Fodor riprende questa teoria. Egli postula un sistema di rappresentazioni mentali, comprendente sia le rappresentazioni primitive che le rappresentazioni complesse formate da rappresentazioni primitive. Ad esempio, le parole primitive in Mentalese “GIOVANNI”, “MARIA” e “AMA” possono combinarsi per formare la frase in Mentalese “GIOVANNI AMA MARIA”. Il Mentalese è una lingua composizionale: il significato di un’espressione complessa in Mentalese è una funzione dei significati delle sue parti e del modo in cui queste parti sono combinate tra di loro. Gli atteggiamenti proposizionali sono relazioni con i simboli del Mentalese. Fodor chiama questa visione “teoria rappresentazionale della mente” (TRM). Combinando la TRM con la TCMC, Egli sostiene che l’attivitĂ  mentale comporti computare simboli del linguaggio del pensiero nello stile delle macchine di Turing. La compitazione mentale immagazzina i simboli mentali negli indirizzi di memoria, manipolando quei simboli in accordo con regole meccaniche.

Una delle virtÚ principali della TRM è la facilità con cui riesce a spiegare produttività e sistematicità del pensiero:

ProduttivitĂ : la TRM postula un insieme finito di espressioni Mentalesi primitive, combinabili in una potenziale infinitĂ  di espressioni Mentalesi complesse. Un pensatore che abbia accesso al vocabolario Mentalese primitivo e ai dispositivi di composizione Mentalese potrebbe costruire un’infinitĂ  di espressioni in Mentalese. Potrebbe dunque generare infiniti atteggiamenti proposizionali (tralasciando i limiti di tempo e di memoria).

Sistematicità: secondo la TRM, esistono delle relazioni sistematiche tra quali atteggiamenti proposizionali possono essere pensati dal soggetto. Ad esempio, supponiamo che io possa pensare che John ama Mary. Secondo la TRM, il fatto che io mi comporto così implica che mi trovo in una relazione R con la frase in Mentalese “GIOVANNI AMA MARIA”, composta dalle parole in Mentalese GIOVANNI, AMA e MARIA combinate nel modo giusto. Se ho questa capacità, allora posso anche stare in relazione R con la frase in Mentalese “MARIA AMA GIOVANNI”, pensando così che Maria ama Giovanni. Quindi la capacità di pensare che Giovanni ama Maria è sistematicamente correlata alla capacità di pensare che Maria ama Giovanni.

Trattando gli atteggiamenti proposizionali come relazioni con simboli mentali complessi, la TRM spiega sia la produttivitĂ  che la sistematicitĂ  del pensiero.

TCMC + TRM differisce dal funzionalismo della macchina per molti altri aspetti. In primis, il funzionalismo della macchina è una teoria degli stati mentali in generale, mentre la TRM è solo una teoria degli atteggiamenti proposizionali. In secundis, i sostenitori di TCMC+ TRM non hanno bisogno di dire che gli atteggiamenti proposizionali sono individuati dal loro ruolo funzionale. Come osserva Fodor (2000: 105, nota 4), dobbiamo distinguere il computazionalismo (secondo cui i processi mentali sono computazionali) dal funzionalismo (per cui gli stati mentali sono stati funzionali). Il funzionalismo della macchina sostiene entrambe le teorie. TCMC+ TRM approva solo il primo. Sfortunatamente, molti filosofi credono ancora erroneamente che il computazionalismo implichi un approccio funzionalista per gli atteggiamenti proposizionali (vedi Piccinini 2004 per tale discussione).

La discussione filosofica dell’TRM tende a concentrarsi principalmente sul pensiero umano di alto livello, in particolare sulla credenza e sul desiderio. Tuttavia, TCMC+ TRM è applicabile a una gamma molto piĂš ampia di stati e processi mentali. Molti scienziati cognitivi la applicano ad animali diversi dagli esseri umani. Ad esempio, Gallistel e King (2009) la applicano a determinati classi di invertebrati (ad esempio, la navigazione spaziale delle api). Anche stringendo il campo agli esseri umani, è possibile applicare TCMC+ TRM all’elaborazione sub-personale. Fodor (1983) sostiene che la percezione coinvolge un “modulo” sub-personale che converte l’input retinico in simboli mentali e quindi esegue calcoli su quei simboli. Pertanto, parlare di un linguaggio del pensiero è potenzialmente fuorviante, poichĂŠ suggerisce una restrizione inesistente all’attivitĂ  mentale di livello superiore.

Potenzialmente fuorviante è anche la descrizione del Mentalese come linguaggio, il che suggerisce che tutti i simboli Mentalesi assomigliano a espressioni del linguaggio naturale. Molti filosofi, compreso Fodor, a volte sembrano sostenere questa posizione. Tuttavia, ci sono possibili formati non proposizionali per i simboli Mentalesi. I sostenitori di TCMC+ TRM possono adottare una linea pluralistica, consentendo alla computazione mentale di operare su elementi simili a immagini, mappe, diagrammi o altre rappresentazioni non proposizionali (Johnson-Laird 2004: 187; McDermott 2001: 69; Pinker 2005: 7; Sloman 1978: 144–176). La linea pluralistica sembra particolarmente plausibile se applicata ai processi sub-personali (come la percezione) e agli animali diversi dagli esseri umani. Michael Rescorla (2009a e b) esamina la ricerca sulle mappe cognitive (Tolman 1948; O’Keefe e Nadel 1978; Gallistel 1990), suggerendo che alcuni animali possono spostarsi per mezzo di calcoli su rappresentazioni mentali piĂš simili alle mappe che agli enunciati. Elisabeth Camp (2009), citando la ricerca sull’interazione sociale del babbuino (Cheney e Seyfarth 2007), sostiene che i babbuini possano codificare relazioni di dominio sociale attraverso rappresentazioni non-sentenziali strutturate ad albero.

TCMC+ TRM è schematico. Per completare lo schema, è necessario fornire modelli computazionali dettagliati di specifici processi mentali. Un modello completo dovrebbe:

Fornendo un modello computazionale dettagliato, scomponiamo un processo mentale complesso in una serie di operazioni elementari governate da precise istruzioni abitudinarie.

TCMC+ TRM rimane neutrale nel dibattito tradizionale tra fisicalismo e dualismo delle sostanze. Un modello di macchina di Turing procede a un livello molto astratto, senza dire se i calcoli mentali siano implementati da una sostanza fisica o una sostanza cartesiana (Block 1983: 522). In pratica, tutti i sostenitori di TCMC+ TRM abbracciano una visione ampiamente fisicalista. Essi sostengono che i calcoli mentali non siano implementati dalla sostanza cartesiana ma piuttosto dal cervello. Da questo punto di vista, i simboli mentali sono realizzati da stati neurali e le operazioni di computazione sui simboli mentali sono realizzate da processi neurali. In definitiva, i fisicalisti sostenitori di TCMC+ TRM devono produrre teorie empiricamente confermate che spieghino esattamente come l’attivitĂ  neurale implementa nella computazione di una macchina di Turing. Come sottolineano Gallistel e King (2009), attualmente non disponiamo di tali teorie, sebbene per alcune speculazioni si possano vedere Zylberberg, Dehaene, Roelfsema e Sigman (2011).

Fodor (1975) propone la TCMC+ TRM come base per la scienza cognitiva. Discute i fenomeni mentali come il processo decisionale, la percezione e l’elaborazione linguistica. In ciascuno di questi casi, egli sostiene, le nostre migliori teorie scientifiche postulano l’esistenza di computazioni in stile Turing su rappresentazioni mentali. Infatti, sostiene che le nostre uniche teorie plausibili hanno questa forma. Conclude che TCMC+ TRM è “l’unica opzione disponibile”. Molti scienziati cognitivi sostengono idee simili. C.R. Gallistel e Adam King (2009), Philip Johnson-Laird (1988), Allen Newell e Herbert Simon (1976) e Zenon Pylyshyn (1984) sostengono tutti che la computazione alla Turing sui simboli mentali sia la base migliore per una teorizzazione scientifica della mente.

4. Reti neurali

Negli anni Ottanta, il connessionismo è emerso come antagonista principale del computazionalismo classico. Il punto di partenza dei connessionisti è la neurofisiologia più che la logica o l’informatica; i loro modelli computazionali, le reti neurali, sono profondamente differenti rispetto a quelli proposti da Turing. Una rete neurale è un insieme di nodi interconnessi, che cadono sotto tre categorie: input, output e nodi nascosti (di mediazione tra i primi due). Ciascuno di essi presenta dei valori di attivazione, espressi da numeri reali, nonché delle connessioni ponderate con altri nodi, a loro volta descritte da numeri reali. L’attivazione dei nodi di input è esogena: è data dagli input della computazione. L’input totale di attivazione di un nodo nascosto o di output è la somma ponderata delle attivazioni dei nodi che vi si basano. Insomma, l’attivazione di un nodo nascosto o di output è una funzione del suo input totale di attivazione, funzione che varia a seconda della rete. Nella computazione di una rete neurale, onde di attivazione si propagano dai nodi di input ai nodi di output secondo le connessioni ponderate tra i vari nodi.

In una rete feedforward, le connessioni ponderate vanno in una sola direzione. Le reti ricorrenti possiedono circoli di feedback in cui le connessioni mediate dai nodi nascosti tornano agli stessi nodi nascosti. Quest’ultimo tipo di struttura è matematicamente più complesso da rendere delle prime. Tuttavia, sono cruciali per esprimere vari fenomeni psicologici, in particolare quelli che descrivono un certo tipo di memoria (Elman 1990).

I pesi in una rete neurale sono tipicamente mutevoli, evolvendosi in accordo con un algoritmo di apprendimento. Nella letteratura si trovano vari algoritmi di apprendimento, ma l’idea di base è di solito quella di regolare il peso delle connessioni in modo che gli output effettivi si avvicinino gradualmente agli output obiettivo che ci si aspetterebbe per i relativi input. La retropropagazione di errore ne è un esempio ampiamente utilizzato (Rumelhart, Hinton e Williams 1986).

Il connessionismo risale a McCulloch e Pitts (1943), che hanno studiato le reti di operatori logici interconnessi (ad esempio, E ed O). Una rete di operatori logici può essere descritta come una rete neurale, con attivazioni limitate a due valori (0 e 1) e funzioni di attivazione date dalle consuete funzioni di veritĂ . McCulloch e Pitts hanno presentato i loro operatori come modelli idealizzati di singoli neuroni. I loro studi esercitarono una profonda influenza sull’informatica (von Neumann 1945), tant’è che i moderni computer digitali altro non sono che reti di operatori logici. All’interno delle scienze cognitive, tuttavia, i ricercatori si concentrano oggi di solito su strutture i cui elementi sono piĂš simili ai neuroni. In particolare, i connessionisti moderni danno piĂš peso a reti neurali analogiche i cui nodi assumono valori di attivazione continui anzichĂŠ discreti. Alcuni autori usano addirittura l’espressione “rete neurale” esclusivamente per riferirsi a questo tipo di architettura.

Le reti neurali hanno ricevuto un’attenzione relativamente scarsa da parte degli scienziati cognitivi durante gli anni Sessanta e Settanta, quando i modelli in stile Turing dominavano il dibattito. Gli anni Ottanta hanno visto un’enorme rinascita dell’interesse per le reti neurali, specialmente per le reti neurali analogiche, con il Parallel Distributed Processing, opera in due volumi (Rumelhart, McClelland, e il gruppo di ricerca PDP, 1986; McClelland, Rumelhart, e il gruppo di ricerca PDP, 1987), come loro manifesto. I ricercatori hanno nel tempo costruito modelli connessionisti di diversi fenomeni: riconoscimento degli oggetti, percezione e comprensione del linguaggio naturale, sviluppo cognitivo, etc. Colpiti dal connessionismo, molti studiosi hanno dovuto concludere che la TCCM+TRM non era piĂš l’unica alternativa possibile.

Negli anni 2010, una classe di modelli computazionali noti come reti neurali profonde è diventata piuttosto popolare (Krizhevsky, Sutskever e Hinton 2012; LeCun, Bengio e Hinton 2015). Questi modelli sono reti neurali con piĂš strati di nodi nascosti (a volte centinaia). Reti neurali profonde addestrate su grandi volumi di dati attraverso un certo algoritmo di apprendimento (di solito di retropropagazione) hanno ottenuto un grande successo in molte aree dell’IA, tra cui il riconoscimento degli oggetti e il gioco strategico. Le reti neurali profonde sono ora ampiamente diffuse in commercio e sono al centro di un’ampia indagine sia all’interno del mondo accademico che dell’industria. Non mancano ricercatori che hanno anche iniziato a utilizzarle per modellare la mente (ad esempio Marblestone, Wayne e Kording 2016; Kriegeskorte 2015).

Per una descrizione dettagliata delle reti neurali, si veda Haykin (2008). Per un’introduzione base, focalizzata sulle applicazioni psicologiche, si veda Marcus (2001). Per un’introduzione filosofica alle reti neurali profonde, si veda Buckner (2019).

4.1 La relazione tra le reti neurali e il computazionalismo classico

Le reti neurali sono a prima vista molto diverse dai modelli piÚ classici (come quelli di Turing). Nonostante ciò, il computazionalismo classico e questa famiglia di modelli non si escludono a vicenda:

Sebbene alcuni ricercatori suggeriscano una fondamentale opposizione tra il computazionalismo classico e il computazionalismo con reti neurali, sembra piĂš accurato identificare due famiglie di modelli che talvolta si sovrappongono (cfr. Boden 1991; Piccinini 2008b). A questo proposito, vale anche la pena di notare che entrambe hanno la loro origine comune nel lavoro di McCulloch e Pitts.

I filosofi spesso affermano che il computazionalismo classico consiste nella “manipolazione di simboli secondo regole”, mentre il computazionalismo connessionista non è simbolico. L’immagine intuitiva è che l’”informazione” nelle reti neurali sia distribuita globalmente attraverso le interazioni e le attivazioni, anzichĂŠ concentrata in simboli localizzati. Tuttavia, la nozione stessa di “simbolo” richiede una spiegazione, per cui spesso non è chiaro cosa i teorici considerino necessario per descrivere la computazione come simbolico o non simbolico. Come accennato al §1, il formalismo di Turing pone pochissime condizioni ai propri “simboli”. Per quanto riguarda i simboli primitivi, Turing presuppone che ce ne siano un numero finito e che possano essere espressi in supporti di memoria riscrivibili. Anche le reti neurali possono manipolare simboli che soddisfano queste due condizioni: come si è appena detto, un modello in stile Turing è integrabile in una rete neurale.

Molti dibattiti tra simbolismo e non-simbolismo utilizzano una nozione piĂš robusta di “simbolo”. Nell’accezione piĂš forte, un simbolo è ciò che rappresenta un argomento. Quindi, qualcosa è un simbolo solo se ha proprietĂ  semantiche o rappresentative. Se utilizziamo questa nozione piĂš robusta di simbolo, allora la distinzione tra simbolismo e non-simbolismo taglia trasversalmente la distinzione tra la computazione in stile Turing e la computazione in rete neurale. Una macchina di Turing non ha bisogno di utilizzare simboli in un’accezione cosĂŹ forte. Per quanto riguarda il formalismo di Turing, tali elementi non necessitano di proprietĂ  rappresentazionali (Chalmers 2011). Viceversa, una rete neurale può manipolare simboli con proprietĂ  rappresentazionali. Di fatto, una rete neurale analogica può operare anche su simboli che hanno una sintassi e una semantica combinatoria (Horgan e Tienson 1996; Marcus 2001).

Seguendo Steven Pinker e Alan Prince (1988), possiamo distinguere tra connessionismo eliminativista e connessionismo implementazionista.

I connessionisti eliminativisti presentano il connessionismo come rivale del computazionalismo classico. Sostengono che il formalismo di Turing non spiega i fenomeni psicologici. Spesso, anche se non necessariamente, cercano di far rivivere la tradizione associazionista in psicologia, una tradizione che la TCCM aveva avversato duramente. Inoltre, spesso si pongono contro la linguistica mentalista e nativista di Noam Chomsky (1965). Manifestano solitamente una palese ostilità alla nozione stessa di rappresentazione mentale. Ma la caratteristica che definisce il connessionismo eliminativista è che utilizza le reti neurali come sostituti dei modelli di Turing: da questa prospettiva, l’attività computazionale della mente viene definita in modo radicalmente diverso rispetto a una macchina di Turing. Alcuni autori sposano esplicitamente il connessionismo eliminativista (Churchland 1989; Rumelhart e McClelland 1986; Horgan e Tienson 1996), e molti altri vi si avvicinano.

Il connessionismo implementazionista è una posizione piÚ ecumenica. Riconosce un ruolo importante sia ai modelli di Turing che alle reti neurali, che funzionerebbero in armonia su diversi livelli di descrizione (Marcus 2001; Smolensky 1988). I primi funzionano a livello generale, i secondi a livello particolare. La rete neurale serve a spiegare come il cervello integri modelli di Turing, mentre la descrizione in termini di operatori logici serve a spiegare come un computer esegue un programma in un linguaggio di ordine superiore.

4.2 Argomenti a favore del connessionismo

Il connessionismo suscita interessi in molti ricercatori per l’analogia che c’è tra le reti neurali e il cervello. I nodi sembrano analoghi ai neuroni, mentre le loro connessioni alle sinapsi. Tale modellazione appare quindi piĂš “biologicamente plausibile” rispetto alla visione classica. Secondo i sostenitori di questa prospettiva, una ricostruzione connessionista di un fenomeno psicologico catturerebbe (in modo idealizzato) il modo in cui i neuroni interconnessi genererebbero il fenomeno.

Quando si valuta l’argomento della plausibilitĂ  biologica, si dovrebbe tuttavia riconoscere che le reti neurali differiscono in modo sostanziale dall’effettiva attivitĂ  cerebrale. Molte reti che figurano in modo prominente negli scritti connessionisti non sono in effetti cosĂŹ biologicamente plausibili (Bechtel e Abrahamsen 2002: 341-343; BermĂşdez 2010: 237-239; Clark 2014: 87-89; Harnish 2002: 359-362). Alcuni esempi di quanto detto:

Esistono tuttavia alcune reti neurali che sono più realistiche dal punto di vista biologico (Buckner and Garson 2019; Illing, Gerstner, eBrea 2019). Per esempio, alcuni modelli rimpiazzano l’algoritmo di retropropagazione con altri procedimenti, tra cui l’apprendimento con rinforzo (Pozzi, Bohté e Roelfsema 2019, altre risorse online) o l’apprendimento non-supervisionato (Krotov e Hopfield 2019). Ci sono anche delle reti neurali che generano come output picchi discreti di attività che sono analoghi al funzionamento dei neuroni nel cervello (Maass 1996; Buesing, Bill, Nessler e Maass 2011).

Anche quando una rete neurale non è biologicamente plausibile, può comunque essere piĂš plausibile dei modelli classici. Le prime sembrano infatti certamente piĂš vicine, sia nei dettagli tecnici che nella sostanza, alla descrizione neurofisiologica del nostro cervello, rispetto ai modelli di Turing. Molti scienziati cognitivi temono che la TCCM rifletta un tentativo maldestro di imporre al cervello l’architettura dei computer odierni. Alcuni dubitano che il cervello preveda qualcosa di simile alla computazione digitale, cioè la computazione su configurazioni discrete di cifre (Piccinini e Bahar 2013). Altri dubitano che il cervello permetta una separazione netta, come per le macchine di Turing, tra il processore centrale e la memoria di lettura/scrittura (Dayan 2009). Le reti neurali sono migliori da entrambi i punti di vista, in quanto non richiedono nĂŠ questo tipo di computazione nĂŠ una distinzione funzionale cosĂŹ marcata.

I computazionalisti classici solitamente rispondono che è prematuro trarre conclusioni definitive sulla teoria basate sulla mera plausibilitĂ  biologica, data la scarsa comprensione della relazione tra livelli neurali, computazionali e cognitivi nella descrizione della nostra vita mentale (Gallistel e King 2009; Marcus 2001). Utilizzando tecniche di misurazione come le registrazioni cellulari e la risonanza magnetica funzionale (RMF), e attingendo a discipline molto diverse come la fisica, la biologia, l’intelligenza artificiale, la teoria dell’informazione, la statistica, la teoria dei grafici e la teoria dei sistemi dinamici, i neuroscienziati hanno accumulato una conoscenza sostanziale sul cervello a vari livelli di granularitĂ  (Zednik 2019): ora sappiamo molto sui singoli neuroni, su come i neuroni interagiscono all’interno delle popolazioni neurali, sulla localizzazione dell’attivitĂ  mentale nelle regioni corticali (ad esempio la corteccia visiva) e sulle interazioni tra le regioni corticali stesse. Eppure, c’è ancora molto da imparare su come il tessuto neurale svolga i propri compiti: la percezione, il ragionamento, il processo decisionale, l’acquisizione del linguaggio e cosĂŹ via. Dato il nostro attuale stato di relativa ignoranza, sarebbe avventato insistere sul fatto che il cervello non operi in modo per nulla simile alla computazione di Turing.

I connessionisti offrono numerosi altri argomenti in favore dell’utilizzo dei propri modelli al posto di, o in aggiunta di, versioni classiche. Si veda la pagina sul connessionismo per ulteriori dettagli. In questa pagina, saranno menzionati solamente altri due argomenti.

Il primo mette l’accento sulla nozione di apprendimento (Bechtel e Abrahamsen 2002: 51). Imparare dalla propria esperienza richiede l’utilizzo di una vasta gamma di fenomeni cognitivi. Molti modelli connessionisti sono esplicitamente progettati per analizzare questo tipo di operazione, sia attraverso la retropropagazione o altri algoritmi che incidono sulle interazioni ponderate tra i nodi della rete. Questo nasce dal fatto che tali autori spesso lamentano della scarsità di buoni modelli classici dell’apprendimento. I computazionalisti classici, dal canto loro, apportano le imperfezioni degli algoritmi testati dai loro avversari a questo scopo (per esempio, il bisogno di supervisione per la retropropagazione). Un punto fermo del computazionalismo classico è anche la teoria delle decisioni di Bayes, secondo cui l’apprendimento è un processo di aggiornamento probabilistico. I traguardi di questo modello matematico sono incarnati soprattutto dalla teoria cognitiva bayesiana, che parte proprio da tale struttura per spiegare la nostra vita mentale (Ma 2019). Questa impressiva sequenza di successi suggerisce che almeno alcuni processi mentali siano bayesiani o quasi-bayesiani (Rescorla 2020). Inoltre, i progressi menzionati in §2 mostrano come la computazione classica possa eseguire quasi perfettamente l’aggiornamento probabilistico di Bayes in una serie di scenari realistici. Queste conferme sperimentali lasciano sperare ai sostenitori della TCCM di poter fornire un modello per molti casi di apprendimento.

Il secondo argomento si sofferma sulla velocitĂ  di computazione. I neuroni sono molto piĂš lenti dei componenti a base di silicio dei computer digitali. Per questo motivo, non sono in grado di eseguire calcoli seriali abbastanza rapidamente da spiegare le rapide prestazioni umane nella percezione, nella comprensione linguistica, nei processi decisionali, etc. I connessionisti sostengono che l’unica soluzione possibile sia sostituire la computazione seriale con un’architettura computazionale “massicciamente parallela” – esattamente ciò che le reti neurali forniscono (Feldman e Ballard 1982; Rumelhart 1989). Tuttavia, questo argomento è efficace solo contro i computazionalisti classici che insistono appunto sull’elaborazione seriale. Come osservato nel §3, alcuni modelli di Turing lavorano invece sull’elaborazione parallela. Molti computazionalisti classici sarebbero felici di ascrivere alla mente una struttura di computazione “massicciamente parallela”. Detto questo, rimane tuttavia una questione importante che qualsiasi computazionalista – sia esso classico, connessionista o altro – deve affrontare: come fa un cervello costruito da neuroni relativamente lenti ad eseguire calcoli sofisticati cosĂŹ rapidamente? NĂŠ i computazionalisti classici nĂŠ quelli connessionisti finora (2020) hanno risposto a questa domanda in modo soddisfacente (Gallistel e King 2009: 174 e 265).

4.3 SistematicitĂ  e produttivitĂ 

Fodor e Pylyshyn (1988) propongono una celebre critica del connessionismo eliminativista, sostenendo che i modelli del connessionismo non spieghino sistematicità e produttività, a meno di integrare anche degli elementi classici. Se questo è vero, il connessionismo non è un’alternativa fruibile ella TCCM. Il suo ruolo potrebbe al massimo essere quello di comporre una descrizione a livello analitico di certi fenomeni, di raccordo tra i modelli di Turing e il dato delle neuroscienze.

Questo argomento ha originato profonde discussioni. Alcuni sostengono che le reti neurali possono esibire sistematicità senza l’ausilio di alcun elemento classico (Horgan and Tienson 1996; Chalmers 1990; Smolensky 1991; van Gelder 1990). Altri ritengono che Fodor e Pylyshyn diano troppo peso alla sistematicità in sé (Johnson 2004) o alla produttività in sé (Rumelhart e McClelland 1986), specialmente per quanto riguarda gli animali non-umani (Dennett 1991). Tutte queste questioni sono state largamente sondate dalla letteratura. Per saperne di più, si vedano Bechtel e Abrahamsen (2002: 156–199), Bermúdez (2005: 244–278), Chalmers (1993), Clark (2014: 84–86), e le pagine di questa enciclopedia sull’ipotesi del linguaggio del pensiero sul connessionismo.

Gallistel e King (2009) avanzano un argomento simile al precedente, ma incentrato sulla produttivitĂ . Sottolineano in particolare la produttivitĂ  della computazione mentale, in contrapposizione alla produttivitĂ  degli stati mentali. Attraverso dettagliati studi di casi empirici, arrivano a ritenere che molti animali non umani possano estrarre, immagazzinare o recuperare immagini dettagliate dell’ambiente circostante. Per esempio, un uccello come la ghiandaia occidentale sa memorizzare dove tiene il cibo, che tipo di cibo ha nascosto in ogni luogo, quando l’ha fatto e se un nascondiglio è stato distrutto (Clayton, Emery e Dickinson 2006). Può inoltre accedere a queste informazioni e sfruttarle per calcolare le sue prossime azioni: sa calcolare se un alimento conservato da qualche parte è probabilmente scaduto; il percorso da un luogo a un altro; e cosĂŹ via. Il numero di operazioni possibili che un simile uccello può eseguire è, a tutti gli effetti, praticamente infinito.

La TCCM spiega la produttivitĂ  della computazione mentale ponendo al centro delle operazioni un processore centrale che assegnerebbe ai simboli una posizione nella propria memoria di lettura/scrittura. Al bisogno, possono essere recuperate combinazioni arbitrarie e imprevedibili dei suoi contenuti. Al contrario, secondo Gallistel e King, il connessionismo non sa spiegare altrettanto facilmente tale produttivitĂ  naturale. BenchĂŠ i due in realtĂ  non facciano chiaramente la distinzione tra connessionismo eliminativista e implementazionista, possiamo riassumere la loro posizione come segue:

Gallistel e King concludono che la TCCM è molto migliore del connessionismo di entrambe le tipologie per spiegare tutta una serie di fenomeni cognitivi.

I critici di questo argomento sulla produttività muovono diversi tipi di critiche, che partono però principalmente dai casi empirici portati da Gallistel e King stessi. Peter Dayan (2009), John Donahoe (2010) e Christopher Mole (2014) sostengono che delle reti neurali biologicamente plausibili possono sistematizzare almeno parte di queste casistiche. Dayan e Donahoe invece argomentano che reti neurali senza nulla che faccia da memoria riscrivibile possano essere perfettamente accurate dal punto di vista empirico. Mole afferma che certe reti neurali empiricamente provate possano implementare i meccanismi di memoria richiesti da Gallistel e King. Questi dibattiti cosÏ fondamentali hanno sicuramente un ampio futuro.

4.4 Neuroscienze computazionali

Le neuroscienze computazionali descrivono il sistema nervoso attraverso modelli computazionali. Sebbene questa disciplina parta da strutture matematiche a livello dei singoli neuroni, il vero focus rimane sul sistema di neuroni interconnessi. Solitamente, le neuroscienze computazionali utilizzano reti neurali. In questo senso possono essere considerate una variante o uno sviluppo del connessionismo; tuttavia, però, la maggior parte dei neuroscienziati non si considerano connessionisti. Esistono infatti numerose differenze tra i due orientamenti:

Si potrebbe dire che le neuroscienze computazionali si occupano della computazione neurale (svolto cioè da sistemi di neuroni), mentre il connessionismo di modelli computazionali astratti ispirati all’attività del cervello. Tuttavia, il confine tra le due discipline è chiaramente labile. Per maggiori dettagli, si vedano Trappenberg (2010) o Miller (2018).

Il serio impegno filosofico con le neuroscienze risale almeno a Neurophilosophy (1986) di Patricia Churchland. Con lo sviluppo delle neuroscienze computazionali, Churchland divenne una dei suoi principali campioni filosofici (Churchland, Koch e Sejnowski 1990; Churchland e Sejnowski 1992). A lei si sono poi aggiunti Paul Churchland (1995, 2007) e altri (Eliasmith 2013; Eliasmith e Anderson 2003; Piccinini e Bahar 2013; Piccinini e Shagrir 2014). Tutti questi autori sostengono che le teorie computazionali dovrebbero iniziare con lo studio del cervello, non con macchine di Turing o altri strumenti inappropriati tratti dalla logica e dall’informatica. Sostengono anche che la modellazione delle reti neurali dovrebbe sforzarsi di ottenere un maggiore realismo biologico rispetto a quanto facciano i modelli connessionisti. Chris Eliasmith (2013) sviluppa questo punto di vista neuro-computazionale attraverso il suo Neural Engineering Framework, che integra le neuroscienze computazionali con strumenti tratti dalla teoria del controllo (Brogan 1990). Il suo obiettivo è quello di “decodificare” il cervello, costruendo reti neurali su larga scala e con accuratezza biologica per spiegare i fenomeni cognitivi.

Le neuroscienze computazionali si differenziano dalla TCCM e dal connessionismo per un aspetto cruciale: abbandonano l’idea di realizzabilità multipla. I neuroscienziati computazionali citano proprietà e processi neurofisiologici specifici, per cui i loro modelli non si applicano altrettanto bene a una creatura, per esempio, a base di silicio con connotati sufficiente diversi all’essere umano. Così facendo, le neuroscienze computazionali sacrificano una caratteristica fondamentale che ha attratto originariamente i filosofi verso il computazionalismo in generale. Un difensore coerente di questa prospettiva risponderebbe che questo sacrificio vale una maggiore comprensione delle basi neurofisiologiche dell’attività cerebrale. Ma molti computazionalisti temono che, concentrandosi troppo sui sostrati neurali, si rischi di perdere di vista la foresta cognitiva e focalizzarsi solamente sugli alberi neurali. Il dato neurofisiologico è sì importante, ma non c’è anche bisogno di un ulteriore livello astratto di descrizione computazionale che prescinda da tali dettagli? Gallistel e King (2009) sostengono che una fissazione miope su ciò che attualmente conosciamo del cervello ha portato le neuroscienze computazionali a concentrarsi su fenomeni cognitivi basilari e a corto raggio, come per esempio l’apprendimento delle dimensioni spaziali e temporali, la navigazione dell’ambiente, e così via. Allo stesso modo, Edelman (2014) lamenta come il Neural Engineering Framework sostituirebbe vere e proprie spiegazioni filosofiche con una bufera di nozioni neurofisiologiche.

In parte in risposta a tali preoccupazioni, alcuni ricercatori propongono delle neuroscienze computazionali cognitive integrate che connettano le teorie psicologiche con i meccanismi dell’attivitĂ  neurale corrispondente (Naselaris et al. 2018; Kriegeskorte e Douglas 2018). L’idea di base è quella di utilizzare reti neurali per mostrare come i processi mentali siano istanziati nel cervello, offrendo cosĂŹ una descrizione cognitiva che rispetti sia la realizzabilitĂ  multipla che l’accuratezza in termini neurofisiologici. Un buon esempio di ciò è il recente lavoro sull’implementazione neurale dell’inferenza bayesiana (ad esempio, Pouget et al. 2013; Orhan e Ma 2017; Aitchison e Lengyel 2016). Tali ricercatori articolano modelli bayesiani (con realizzabilitĂ  multipla) di vari processi mentali; costruiscono reti neurali biologicamente plausibili che eseguono (quasi) perfettamente i calcoli bayesiani forniti; valutano quanto questi modelli di reti neurali si adattino bene al dato neurofisiologico.

Nonostante le differenze tra il connessionismo e le neuroscienze computazionali, questi due orientamenti si muovono su terreni molto simili. In particolare, entrambi si pongono parallelamente nel dibattito (di cui a §4.4) sulla sistematicità e produttività.]

5. Computazione e rappresentazione

I filosofi e gli scienziati cognitivi utilizzano il termine “rappresentazione” in modi diversi. In filosofia, l’uso dominante lo lega al tema dell’intenzionalità, cioè della direzionalità degli stati mentali. Solitamente, anzi, ci si riferisce all’intenzionalità proprio parlando di contenuto rappresentazionale. Uno stato mentale rappresentazionale ha un contenuto che rappresenta un determinato stato di cose, così che è possibile valutare se il mondo sia effettivamente così: lo stato diventa così giudicabile semanticamente secondo proprietà come verità, accuratezza, adeguatezza, etc.:

Le credenze hanno quindi condizioni di veritĂ  (a cui sono vere), le percezioni condizioni di accuratezza (a cui sono accurate), i desideri condizioni di soddisfacimento (a cui sono soddisfatti).

Nella vita di tutti i giorni, spieghiamo e prevediamo il comportamento di qualcuno facendo riferimento a credenze, desideri e altri stati mentali rappresentazionali. Li identifichiamo proprio attraverso le loro proprietà rappresentazionali. Quando diciamo “Frank crede che Emmanuel Macron sia francese”, specifichiamo a che condizioni la sua credenza è vera (che Emmanuel Macron sia francese). Quando diciamo “Frank vuole mangiare cioccolata”, specifichiamo a che condizioni il desiderio di Frank è soddisfatto (che Frank mangi cioccolata). Questo per dire che la lettura più intuitive del nostro comportamento assegna un ruolo centrale alle descrizioni intenzionali, cioè a descrizioni che identificano gli stati mentali tramite le loro proprietà rappresentazionali. Se questa metodologia abbia senso anche per la psicologia a livello scientifico è una questione dibattuta nella filosofia della mente contemporanea.

Il realismo intenzionale è realismo a proposito delle rappresentazioni. Al minimo, questa posizione afferma che le proprietà rappresentazionali sono aspetti reali della nostra vita mentale. Solitamente, si spinge anche però a prescrivere che la psicologia scientifica faccia uso delle descrizioni intenzionali dei fenomeni che analizza. Il realismo intenzionale è una posizione molto popolare, sostenuta da Tyler Burge (2010a), Jerry Fodor (1987), Christopher Peacocke (1992, 1994), e altri. Un argomento importante a favore di questa tesi deriva dalla pratica delle scienze cognitive. La ragione sarebbe che le descrizioni intenzionali sono centrali a molte aree delle scienze cognitive, tra cui la psicologia percettiva e la linguistica. Per esempio, la prima descrive come l’attività percettiva trasformi gli input sensoriali (stimoli della retina) in immagini della geometria dell’ambiente circostante (rappresentazioni spaziali di forme, dimensioni e colori): gli stati percettivi vengono identificati mediante proprietà rappresentazionali (relazioni rappresentazionali a particolari forme, dimensioni e colori). Dietro una prospettiva latamente realista sulla conoscenza scientifica, i successi della psicologia percettiva sarebbero una prova del realismo intenzionale.

L’eliminativismo è una forma forte di antirealismo sull’intenzionalità. Gli eliminativisti svalutano le descrizioni intenzionali in quanto vaghe, dipendenti dal contesto, soggettive, superficiali o comunque problematiche. Prescrivono dunque che la psicologia scientifica faccia a meno del contenuto rappresentazionale. Un precursore di questo orientamento è stato W. V. Quine con Word and Object (1960), che tenta di tradurre la psicologia intenzionale con un comportamentismo stimolo-risposta. Paul Churchland (1981), altro importante eliminativista, fa riferimento piuttosto alle neuroscienze.

Esistono varie posizioni intermedie tra il realismo intenzionale e l’eliminativismo. Daniel Dennett (1971, 1987) riconosce l’importanza predittiva dell’intenzionalità, ma dubita che gli stati mentali abbiano realmente proprietà rappresentazionali. Secondo lui, infatti, coloro che utilizzano descrizioni intenzionali non starebbero letteralmente affermando la presenza di tali proprietà; starebbero semplicemente adottando una “prospettiva intenzionale”. Donald Davidson (1980) sposa una simile posizione interpretivista. Mette l’accento sul ruolo centrale dell’intenzionalità nella vita pratica quotidiana di interpretare gli stati mentali e gli atti linguistici altrui; allo stesso tempo, tuttavia, si chiede se la visione psicologia che ne deriva possa avere lo status di una scienza vera e propria. Sia Davidson che Dennett sono realisti sugli stati mentali intenzionali. Nonostante ciò, entrambi sono spesso presentati come antirealisti (in particolare, Dennett viene spesso portato come esempio di strumentalismo sull’intenzionalità). Una ragione di questa lettura è l’indeterminatezza dell’interpretazione. Si immagini che l’osservazione del comportamento del soggetto permetta due interpretazioni incompatibili dei suoi stati mentali. Davidson e Dennett, seguendo Quine, direbbero entrambi che non esiste un fatto determinante quale interpretazione sia quella giusta. Per lo meno, questa risposta denoterebbe una posizione meno che realista sull’intenzionalità.

I dibattiti sull’intenzionalità emergono spesso sulla filosofia intorno al computazionalismo. Vediamo alcune questioni.

5.1 La formalitĂ  della computazione

I computazionalisti classici solitamente assumono ciò che potrebbe essere chiamata la concezione formo-sintattica della computazione (CFS). L’idea di fondo è che calcolare sia manipolare dei simboli mediante le loro proprietà formali anziché le loro proprietà semantiche.

La CFS deriva dalle scoperte della logica matematica del tardo Ottocento e del primo Novecento, ed in particolare dai contributi di George Boole e Gottlob Frege. Nei suoi Begriffsschrift (1879/1967), Frege ha presentato una completa formalizzazione della computazione decisionale. Per questo ha introdotto un linguaggio formale le cui espressioni linguistiche sono individuate in maniera non-semantica (per esempio, attraverso la loro forma geometrica). A prescindere dal fatto che il linguaggio possa essere stato creato con una particolare interpretazione come applicazione principale, i suoi elementi sono entità puramente sintattiche che possono essere trattate senza riferimento a proprietà semantiche come referenze o condizioni di verità. In particolare, si possono individuare regole di inferenza in termini formali e sintattici. Se fossero ben formate, queste dovrebbero servire l’interpretazione che abbiamo in mente, portandoci da premesse vere a conclusioni vere. Con la formalizzazione, Frege ha donato grande rigore alla logica. Ha così gettato le basi per numerosi sviluppi sia matematici che filosofici.

La formalizzazione gioca un ruolo fondamentale nell’informatica. È possibile programmare una macchina di Turing per manipolare espressioni linguistiche formali. Se il computer è programmato adeguatamente, le sue operazioni sintattiche corrisponderanno all’interpretazione semantica che abbiamo in mente. Per esempio, è possibile programmare un computer in modo che faccia seguire a premesse vere solamente conclusioni vere, oppure che aggiorni delle probabilità secondo la teoria delle decisioni di Bayes.

La CFS sostiene che ogni computazione tratti con entità formali e sintattiche, a prescindere da qualsiasi proprietà semantica. Le precise formulazioni di questa teoria possono variare. Si dice che la computazione sia “sensibile” rispetto alla sintassi ma non alla semantica, o che abbia “accesso” solo a proprietà sintattiche, o che operi “in virtù” di proprietà sintattiche ma non semantiche, o che sia influenzata da proprietà semantiche solo in quanto “mediate” da proprietà sintattiche. Non è sempre ben chiaro il significato di queste definizioni o se siano equivalenti tra di loro. Ma l’intuizione che sta dietro è che le proprietà sintattiche avrebbero una priorità causale/esplicativa sulle proprietà semantiche nello svolgimento di una computazione.

L’articolo di Fodor “Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology” (1980) è un antesignano di questa visione. L’autore combina la CFS con la TCCM+TRM. Traccia un’analogia tra il “mentalese” e i linguaggi formali studiati dai logici: entrambi contengono elementi semplici e complessi individuati in maniera non-semantica. I simboli del “mentalese” hanno un’interpretazione semantica, ma questa non influisce (direttamente) sulla computazione mentale. Le proprietà formali di un simbolo, e non le sue proprietà semantiche, determinano come la computazione in corso lo manipolerà. In questo senso la mente sarebbe un “dispositivo sintattico”. Praticamente tutti i computazionalisti classici imitano Fodor e sposano la CFS.

Spesso sono i connessionisti a negare che le reti neurali manipolino degli elementi strutturati sintatticamente. Per questa ragione, molti esiterebbero ad accettare la CFS. Nonostante ciò, la maggior parte dei connessionisti sostiene una tesi generale della formalità: la computazione prescinde da proprietà semantiche. Anche questa tesi solleva le stesse questioni filosofiche sollevate dalla CFS; qui ci concentreremo solamente su quest’ultima, che è stata trattata più ampiamente in filosofia.

Fodor combina TCCM+TRM+CFS con il realismo intenzionale. Sostiene che la TCCM+TRM+CFS sostenga la nostra visione intuitiva dei fenomeni psicologici, traducendo le descrizioni in termini intenzionali in una scienza vera e propria. L’autore ha offerto un argomento per abduzione molto conosciuto a favore di questa tesi (1987: 18-20). La nostra attività mentale traccia le proprietà semantiche in modo incredibilmente coerente. Per esempio, una deduzione porta a conclusioni vere se le premesse sono vere. Come spiegare questo aspetto cruciale dell’attività mentale? La formalizzazione mostra che le manipolazioni sintattiche hanno il potere di tracciare le proprietà semantiche, e l’informatica mostra invece come costruire macchine per eseguire manipolazioni sintattiche a piacimento. Se trattiamo la mente come uno di questi dispositivi sintattici, possiamo capire come mai l’attività della mente sia coerente rispetto alla semantica. Inoltre, tale spiegazione non postula meccanismi causali totalmente diversi da quelli già accettati dalle scienze fisiche. Da qui la domanda fondamentale: com’è meccanicamente possibile la razionalità?

Stephen Stich (1983) e Hartry Field (2001) combinano la TCCM+CFS con l’eliminativismo. Sostengono che i modelli delle scienze cognitive dovrebbero descrivere la mente in termini formo-sintattici e facendo completamente a meno dell’intenzionalità. Accettano che gli stati mentali abbiano proprietà rappresentazionali, ma mettono in dubbio il loro ruolo nelle spiegazioni della psicologia scientifica. Perché incorporare una descrizione intenzionale in una trattazione formo-sintattica? Se la mente è un dispositivo sintattico, non è inutile fare riferimento al suo contenuto rappresentazionale?

A un certo punto della sua carriera, Putnam (1983: 139-154) ha combinato la TCCM+CFS con un interpretazionismo alla Davidson. Le scienze cognitive dovrebbero procedere secondo le linee suggerite da Stich e Field, delineando modelli computazionali sintattici puramente formali; questi coesisterebbero con la pratica interpretativa ordinaria, in cui si attribuiscono contenuti intenzionali agli stati mentali e agli atti linguistici. Quest’ultima è governata da principi olistici ed euristici, che tuttavia le impediscono di convertire la descrizione intenzionale in scienza rigorosa. Per Putnam, come per Field e Stich, la trattazione scientifica insomma avviene a livello sintattico formale piuttosto che a livello intenzionale.

La TCM+CFS viene attaccata da varie direzioni. Una critica riguarda la rilevanza causale del contenuto rappresentazionale (Block 1990; Figdor 2009; Kazez 1995). Intuitivamente parlando, i contenuti degli stati mentali sono causalmente rilevanti per l’attivitĂ  e il comportamento mentale. Per esempio, il mio desiderio di bere acqua anzichĂŠ succo d’arancia mi porta verso il lavandino piuttosto che verso il frigorifero. Il contenuto del mio desiderio (che io beva acqua) sembra giocare un ruolo causale importante nel plasmare il mio comportamento. Secondo Fodor (1990: 137-159), la TCCM+TRM+CFS accoglie tuttavia tali intuizioni. L’attivitĂ  sintattica formale implementa l’attivitĂ  mentale intenzionale, assicurando che gli stati mentali intenzionali interagiscano causalmente in accordo con il loro contenuto. Tuttavia, non è cosĂŹ chiaro come questa analisi assicuri la rilevanza causale dei contenuti in sĂŠ. La CFS afferma che la computazione mentale è “sensibile” alla sintassi ma non alla semantica. A seconda di come si legge il termine chiave “sensibile”, può sembrare che il contenuto rappresentazionale non abbia rilevanza causale, che sarebbe tutta assorbita dal comparto sintattico. Si consideri quest’analogia: quando un’auto va per la strada, l’ombra dell’auto segue dei motivi fissi; tuttavia, la posizione dell’ombra in un istante non la influenza in un secondo istante. Allo stesso modo, la TCCM+TRM+CFS spiegherebbe come l’attivitĂ  mentale rispetti modelli stabili descritti in termini intenzionali, pur senza facendo riferimento causale al loro contenuto. Se la mente è davvero un dispositivo sintattico, allora il potere esplicativo va cercato a livello sintattico anzichĂŠ semantico, il quale semplicemente ne “segue la traiettoria”. Apparentemente, quindi, la TCM+CFS incoraggia la conclusione che le proprietĂ  rappresentazionali siano causalmente inerti. Questa tesi è compatibile con l’eliminativismo, ma solitamente non col realismo intenzionale.

Una seconda critica afferma che la trattazione formo-sintattica sarebbe speculazione antiscientifica. Tyler Burge (2010a, b, 2013: 479-480) sostiene che la descrizione sintattica dell’attività mentale non giocherebbe alcun ruolo rilevante nella maggior parte delle scienze cognitive, incluso lo studio del ragionamento teorico, del ragionamento pratico e della percezione. In ogni caso, secondo Burge, la scienza stessa utilizza una descrizione intenzionale anziché una descrizione formo-sintattica. Per esempio, la psicologia della percezione individua gli stati percettivi non tramite proprietà formali o sintattiche ma attraverso relazioni rappresentazionali con forme, dimensioni, colori nello spazio. Per comprendere a pieno questa obiezione è necessario distinguere tra descrizione formo-sintattica e descrizione neurofisiologica. Chiunque sarebbe d’accordo che la psicologia scientifica debba assegnare un’importanza fondamentale al dato neurofisiologico. Tuttavia, questo piano si distingue da quello sintattico in quanto il secondo si suppone abbia realizzabilità multipla sul primo. Il punto è quindi se la psicologia scientifica debba utilizzare descrizioni formo-sintattiche non-intenzionali con realizzabilità multipla in aggiunta ad una descrizione intenzionale e neurofisiologica.

5.2 Esternismo del contenuto mentale

L’importantissimo articolo “The Meaning of ‘Meaning’” (1975: 215–271) di Putnam contiene l’esperimento mentale di Terra Gemella, in cui si chiede di immaginare un mondo in tutto e per tutto identico al nostro salvo per il fatto che l’H2O è sostituita da una sostanza XYZ ad essa qualitativamente simile, tranne che per la sua composizione chimica. Secondo Putnam, XYZ non è acqua, ma gli abitanti della Terra Gemella utilizzano la parola “acqua” per riferirsi a XYZ anziché alla ‘nostra’ acqua. Burge (1982) estende questa conclusione non solo alla referenza linguistica, ma anche al contenuto mentale. Burge sostiene infatti che gli abitanti della Terra Gemella possiedano stati mentali con contenuti differenti dai nostri. Per esempio, se Oscar sulla Terra pensa che l’acqua sia dissetante, il suo corrispettivo sulla Terra Gemella avrà un pensiero con un contenuto diverso, che l’acqua è dissetante. Burge conclude che il contenuto mentale non sopravviene sulla neurofisiologia, ma è individuato in parte da fattori esterni ai confini del soggetto, incluse le reazioni causali con l’ambiente. Questa posizione si dice esternismo sul contenuto mentale.

Tale prospettiva solleva importanti domande sull’utilità esplicativa che dovrebbe avere il contenuto rappresentazionale per la psicologia scientifica:

Argomento della causalità (Fodor 1987, 1991): come può il contenuto mentale avere un qualsiasi ruolo causale se non mediato dalla neurofisiologia del soggetto? Non esiste “azione psicologica a distanza”. Le differenze per quanto riguarda l’ambiente fisico impattano il comportamento del soggetto unicamente inducendo delle differenze in termini di stati cerebrali. Quindi, gli unici fattori causalmente rilevanti sono quelli che sopravvengono sulla neurofisiologia. Il contenuto individuate esternamente non ha rilevanza causale.

Argomento della spiegazione (Stich 1983): una trattazione scientifica rigorosa non dovrebbe contemplare fattori esterni al soggetto. Una lettura intuitiva dei fenomeni psicologici potrebbe classificare diversi stati mentali in base al legame con l’ambiente circostante, ma la psicologia scientifica dovrebbe limitarsi integralmente a fattori che sopravvengono sulla neurofisiologia. Dovrebbe trattare Oscar e Oscar Gemello come cloni psicologici.
[3]

Alcuni accolgono entrambi gli argomenti combinati. Entrambi puntano alla medesima conclusione: gli stati mentali individuati esternamente non hanno alcun legittimo ruolo causale per la psicologia scientifica. Stich (1983) cosĂŹ motiva il suo eliminativismo formo-sintattico.

Molti rispondono a queste obiezioni con l’internalismo del contenuto. Laddove gli esternisti accettano un contenuto ampio (che non sopravviene sulla neurofisiologia del soggetto), essi invocano un contenuto stretto (sopravveniente). Tale sarebbe ciò che rimane del contenuto mentale pulito da qualsiasi fattore esterno. Ad un certo punto della sua carriera, Fodor (1981, 1987) ha sostenuto l’internalismo come una strategia fattibile per integrare la psicologia intenzionale con la TCCM+TRM+CFS. Ammettendo che il contenuto esteso della mente non dovrebbe rientrare nella psicologia scientifica, secondo lui il contenuto stretto dovrebbe giocare un ruolo causale centrale.

Gli internisti radicali affermano che tutto il contenuto è stretto. Una tipica analisi di questo genere sosterrebbe che Oscar non starebbe pensando all’acqua, ma a una categoria di sostanze più generale che sussumerebbe XYZ, così che sia lui che il suo gemello avrebbero stati mentali dallo stesso contenuto. Tim Crane (1991) e Gabriel Segal (2000) condividono questa lettura. Affermano che la lettura intuitiva dei fenomeni psicologici individuerebbero sempre le attitudini proposizionali strettamente. Un internalismo meno radicale consiglia di riconoscere l’esistenza sia di un contenuto stretto che di un contenuto ampio. La psicologia ingenua individuerebbe talvolta le attitudini proposizionali dunque in maniera estesa, ma rimarrebbe possibile definire una nozione di contenuto stretto che tornerebbe utile per scopi filosofici e scientifici importanti. Diversi internisti hanno proposto diversi concetti di contenuto stretto (Block 1986; Chalmers 2002; Cummins 1989; Fodor 1987; Lewis 1994; Loar 1988; Mendola 2008). Si veda la pagina contenuto mentale ristretto per una panoramica sulle opzioni più promettenti.

Gli esternisti lamentano che le teorie sul contenuto stretto sarebbero abbozzate, implausibili, inutili alla trattazione psicologica, o comunque discutibili (Burge 2007; Sawyer 2000; Stalnaker 1999). Inoltre, si pongono in opposizione agli argomenti internisti secondo cui la psicologia scientifica necessiterebbe di un contenuto ristretto:

Argomento della causalità: gli esternisti insistono che il contenuto esteso può avere rilevanza causale. La formulazione precisa di questa tesi varia, e spesso si intreccia con questioni complesse circa la causalità, i controfattuali e la metafisica della mente. Si veda la pagina causalità mentale per un’introduzione, e Burge (2007), Rescorla (2014a) e Yablo (1997, 2003) come teorie esternaliste.

Argomento della spiegazione: gli esternisti affermano che la trattazione psicologica potrebbe legittimamente classificare gli stati mentali mediante fattori che non riguardano la neurofisiologia del soggetto (Peacocke 1993; Shea, 2018). Burge osserva che spesso le scienze all’infuori della psicologia definiscono i propri concetti in modo relazionale, rispetto a fattori esterni. Per esempio, se un oggetto conta come un cuore dipende (grossomodo) dal fatto che la sua funzione biologica nel suo ambiente normale sia quella di pompare il sangue. La fisiologia, dunque, individua gli organi in modo relazionale. Perché non potrebbe fare altrettanto la psicologia con gli stati mentali? Per una nutrita discussione su questi temi, si vedano Burge (1986, 1989, 1995) e Fodor (1987, 1991).

Gli esternisti dubitano che ci siano buone ragioni per rimpiazzare o dover integrare il contenuto esteso con il contenuto stretto. Ritengono insomma che questa ricerca non caverebbe un ragno dal buco.

Burge (2007, 2010a) difende questa visione analizzando le attuali scienze cognitive. Sostiene che molti rami della psicologia scientifica (in particolare la psicologia percettiva) individuerebbero il contenuto mentale attraverso relazioni causali con l’ambiente esterno. Conclude che la pratica scientifica incarna una prospettiva esternista. Al contrario, sostiene, il contenuto ristretto è una fantasia filosofica priva di fondamento nella scienza attuale.

Supponiamo di abbandonare la ricerca del contenuto stretto. Quali sono le prospettive per combinare la TCM+CFS con la psicologia intenzionale esternista? L’opzione piĂš promettente enfatizza i vari livelli di spiegazione. Possiamo dire che la psicologia intenzionale occupa un livello di spiegazione, mentre la psicologia computazionale formo-sintattica occupa un altro livello di spiegazione. Fodor sostiene questo approccio nelle sue opere piĂš recenti (1994, 2008). Arriva infatti a rifiutare il contenuto stretto come vizioso. Suggerisce che i meccanismi sintattici formali attuino nient’altro che leggi psicologiche esternaliste: la computazione mentale manipola le espressioni in Mentalese in accordo con le loro proprietĂ  sintattiche formali, e queste manipolazioni sintattiche formali assicurano che l’attivitĂ  mentale rispetti certi pattern regolari che vengono definiti attraverso contenuti ampi.

Alla luce della distinzione tra internalismo ed esternismo, rivediamo ora la sfida eliminativista sollevata nel §5.1: quale valore esplicativo aggiunge la descrizione intenzionale alla descrizione formale-sintattica? Gli internisti possono rispondere che adeguate manipolazioni sintattiche formali determinano e forse anche costituiscono dei contenuti stretti, cosĂŹ che la descrizione intenzionale internista sarebbe giĂ  implicita in una descrizione sintattica formale adeguata (cfr. Campo 2001: 75). Forse questa risposta implica il realismo intenzionale, forse no. Fondamentalmente, però, nessuna risposta di questo tipo è accettabile da parte degli esternisti del contenuto. La descrizione intenzionale esternista non è certamente implicita nella descrizione sintattica formale, perchĂŠ si può tenere fissa la sintassi formale mentre variando l’estensione del contenuto. Pertanto, gli esternisti del contenuto che sposano la TCM+CFS hanno l’onere di spiegare perchĂŠ integrare le descrizioni formo-sintattiche con delle descrizioni intenzionali. Una volta accettato che la computazione mentale è sensibile alla sintassi ma non alla semantica, è tutt’altro che chiaro quale sia la rilevanza esplicativa per il contenuto esteso. Fodor affronta questa questione in vari punti, offrendo il suo trattamento piĂš sistematico in The Elm and the Expert (1994). Si vedano Arjo (1996), Aydede (1998), Aydede e Robbins (2001), Wakefield (2002); Perry (1998) e Wakefield (2002) per le critiche. Si vedano Rupert (2008) e Schneider (2005) per le posizioni vicine a quelle di Fodor. Dretske (1993) e Shea (2018: 197-226) perseguono strategie alternative per rivendicare la rilevanza del contenuto esteso.

5.3 Computazione contenutistica

Il divario percepito tra descrizione computazionale e descrizione intenzionale anima molti dibattiti intorno alla TCM. Alcuni filosofi cercano di colmarlo utilizzando descrizioni computazionali che individuano gli stati computazionali in termini rappresentazionali. Queste trattazioni sono di carattere contenutistico (content-involving), per usare la terminologia di Christopher Peacocke (1994). Per questo tipo di approccio, non c’è una rigida demarcazione tra descrizione computazionale e descrizione intenzionale. In particolare, alcune descrizioni scientificamente valide dell’attivitĂ  mentale sono sia computazionali che intenzionali. Chiamiamo questa posizione computazionalismo contenutistico.

I computazionalisti contenutistici non devono necessariamente dire che tutte le descrizioni computazionali sono intenzionali. Per capire meglio, supponiamo di descrivere una semplice macchina di Turing che manipola simboli definiti dalle loro forme geometriche. La descrizione computazionale che ne risulta non è plausibilmente contenutistica; di conseguenza, i computazionalisti contenutistici di solito non avanzano la teoria del contenuto mentale come teoria computazionale generale. Sostengono solo che alcune importanti descrizioni computazionali siano contenutistiche.

Si può sviluppare un computazionalismo contenutistico in una direzione internista o esternista. I primi sostengono che alcune descrizioni computazionali identificano gli stati mentali in parte attraverso i loro contenuti stretti. Murat Aydede (2005) raccomanda una posizione simile. I secondi affermano che alcune descrizioni computazionali identificano gli stati mentali in parte attraverso i loro contenuti estesi. Tyler Burge (2010a: 95-101), Christopher Peacocke (1994, 1999), Michael Rescorla (2012) e Mark Sprevak (2010) sposano questa posizione. Oron Shagrir (2001, di prossima pubblicazione) sostiene un computazionalismo contenutistico neutrale tra internalismo ed esternismo.

I computazionalisti contenutistici esternisti citano solitamente la pratica delle scienze cognitive come fattore motivante. Per esempio, la psicologia percettiva descrive il sistema percettivo come la computazione di una stima delle dimensioni di un oggetto a partire da stimolazioni della retina e da aspettative sulla profonditĂ  dell’oggetto stesso. Queste “stime” percettive sono identificate rappresentazionalmente, immaginando specifiche dimensioni e profonditĂ  nello spazio. Abbastanza plausibilmente, queste relazioni rappresentazionali non sopravvengono sulla neurofisiologia del soggetto. Abbastanza plausibilmente, quindi, la psicologia percettiva descrive i calcoli percettivi in termini di contenuto esteso. Perciò una visione contenutistica esternista sembrerebbe armonizzarsi bene con lo stato attuale delle scienze cognitive.

Una delle sfide maggiori davanti al computazionalismo contenutistico riguarda il confronto con le formalizzazioni del computazionalismo standard, come le macchine di Turing. Come si relazionano le descrizioni contenutistiche ai modelli della logica e dell’informatica? Solitamente i filosofi assumono che non offrano infatti descrizioni intenzionali. Se questo è vero, le difficoltà per il computazionalismo contenutistico sono pesanti e forse insuperabili.

Nonostante tutto, però, molte formalizzazioni classiche del computazionalismo sono compatibili con strutture contenutistiche anziché puramente formo-sintattiche. Si consideri ancora una macchina di Turing: si possono individuare i “simboli” dell’alfabeto della macchina in maniera non-semantica, attraverso caratteristiche come la forma geometrica. Ma è necessario che il formalismo di Turing preveda uno schema non-semantico di individuazione dei simboli? In parte, magari, possiamo definirli anche in base ai loro contenuti. Ovviamente, una macchina di Turing non cita esplicitamente proprietà semantiche (per esempio, referenza o condizioni di verità). Tuttavia, è possibile programmarvi meccanicamente delle regole per descrivere come manipolare i simboli benché identificati per genere in termini contenutistici. Così facendo, la tavola della macchina prescrive delle transizioni tra stati muniti di contenuto senza menzionare esplicitamente delle proprietà semantiche. Aydede (2005) propone una versione internista di questa tesi, identificando i tipi di simboli secondo i loro contenuti stretti. [4]
Rescorla (2017a) ne sviluppa una lettura esternista, attraverso i contenuti estesi; ritiene che alcuni modelli di Turing descriverebbero operazioni di computazione attraverso simboli mentali individuati esternisticamente. [5]

Di principio, si potrebbero sostenere allo stesso tempo una visione computazionalista contenutistica ed esternista e una visione formo-sintattica. Potrebbero essere viste come prospettive a diversi livelli di spiegazione. Peacocke supporta qualcosa di analogo. Altri computazionalisti contenutistici sono più scettici nei confronti delle letture sintattiche della mente. Per esempio, Burge dubita del potere esplicativo della sintassi formale per certe aree della psicologia scientifica (tra cui la psicologia della percezione). Da questo punto di vista, l’obiezione eliminativista di cui al §5.1 si ripresenta all’inverso. Non dovremmo assumere che le descrizioni formo-sintattiche abbiano un ruolo nelle nostre spiegazioni e poi chiederci cos’altro possono offrirci delle descrizioni intenzionali: dovremmo piuttosto accettare le descrizioni intenzionali esternaliste presenti nelle scienze cognitive moderne e poi chiederci qual è il valore ulteriore di una descrizione formo-sintattica.

I sostenitori delle descrizioni sintattiche formali rispondono tirando in questione i meccanismi di implementazione. Una lettura esternista dell’attività mentale presuppone relazioni causali e temporali tra la mente e l’ambiente fisico circostante. Vogliamo però sicuramente puntare a una spiegazione “locale” che ignori relazioni esterne, al fine di rivelare i meccanismi causali insiti nella mente. Fodor (1987, 1994) motiva così il suo supporto alla visione sintattica formale. Per possibili risposte esternaliste a questo argomento, si vedano Burge (2010b), Rescorla (2017b), Shea (2013) e Sprevak (2010). Il dibattito su questa questione, e più in generale sulla relazione tra la computazione e le rappresentazioni mentali, sembrano destinate ancora a durare per molto.]

6. Teorie alternative al computazionalismo

La letteratura offre molte teorie alternative, solitamente proposte a fondamento della TCM. In molti casi, queste visioni si sovrappongono tra loro o con contributi nominati in precedenza.

6.1 Elaborazione delle informazioni

Spesso gli scienziati cognitive parlano della computazione mentale come di “elaborazione di informazioni”. È meno comune che specifichino cosa intendono per “informazioni” o per “elaborazione”. Senza essere più precisi di così, non rimane niente più che uno slogan.

Claude Shannon ha introdotto un’importante nozione di “informazione” a finalità scientifiche nel suo articolo del 1948 “A Mathematical Theory of Communication”. L’idea di fondo è che l’informazione è una misura della riduzione dell’incertezza, che si manifesta nell’alterazione della probabilità di diversi possibili stati futuri. Shannon ha impostato il suo sistema in modo rigorosamente matematico, fondando così la teoria dell’informazione (Cover and Thomas 2006). Questa disciplina, tra l’altro, è centrale per l’ingegneria moderna. Trova però anche numerose applicazioni nelle scienze cognitive, in particolare nelle neuroscienze cognitive. Questa visione rinforza la visione della computazione mentale come “elaborazione di informazioni”? Si immagini una macchina a nastro vecchio stampo per registrare messaggi radio: nel sistema di Shannon, è possibile misurare la quantità di informazioni che è stata comunicata. In un certo senso, la macchina “elabora” questa informazione ogni volta che riascoltiamo il messaggio registrato. Eppure, non sembra che il dispositivo possa rappresentare un modello computazionale non-triviale. [6]
Di certo, nÊ il formalismo della macchina di Turing nÊ una rete neurale possono analizzare con successo le operazioni di questa macchina. Se questo è vero, un sistema può elaborare informazioni di Shannon senza svolgere calcoli.

Considerando esempi simili, si può essere tentati di dare una definizione più forte di “elaborazione”, così che la macchina a nastro non “elabori” informazioni. Oppure, si può affermare che stia in realtà non-trivialmente eseguendo dei calcoli. Piccinini e Scarantino (2010) propongono una teoria astratta sulla computazione – che chiamano computazione generica (generic computation) – che finisce per sostenere quest’ultima strategia.

Una seconda nozione di informazione si trova nella teoria di Paul Grice (1989) sul significato naturale. Questo concetto richiede correlazioni solide e supportate controfattualmente. Per esempio, gli anelli del legno corrispondono all’età dell’albero, i puntini rossi alla varicella. Nella vita quotidiana, affermiamo che gli anelli del legno diano informazioni sull’età dell’albero, o i puntini rossi sulla presenza della varicella, e così via. Queste descrizioni suggeriscono in effetti una visione che legherebbe anche l’informazione a correlazioni solide e supportate controfattualmente. Fred Dretske (1981) sviluppa questa intuizione in una teoria sistematica, seguito a sua volta da vari filosofi. Questa visione dretskiana dell’informazione fornisce una plausibile analisi di computazione mentale come “elaborazione di informazioni”? Si immagini un termostato a doppia lamina metallica vecchio stampo, con due strati di diversi metalli che vengono uniti ad un’unica lamina. La loro diversa espansione fa piegare la lamina, attivando o disattivando così il riscaldamento. Lo stato della lamina corrisponde stabilmente alla temperatura dell’ambiente circostante, e così il termostato “elaborerebbe” tali informazioni gestendo di conseguenza l’impianto. Ancora, il termostato non sembra incarnare alcun modello computazionale non-triviale, e normalmente non si direbbe che stia eseguendo dei calcoli. Se questo è vero, un sistema può elaborare informazioni di Dretske senza svolgere calcoli. Ovviamente, è possibile criticare questo esempio in maniera analoga a quanto fatto nel paragrafo precedente.

Una terza nozione di informazione è l’informazione semantica, cioè il contenuto rappresentazionale. [7]
Alcuni filosofi ritengono che un sistema fisico possa eseguire calcoli se e solo se possiede proprietà rappresentazionali (Dietrich 1989; Fodor 1998: 10; Ladyman 2009; Shagrir 2006; Sprevak 2010). In questo senso, l’elaborazione delle informazioni è necessaria per la computazione. Nelle parole di Fodor: “no computation without representation” (1975: 34). Questa posizione è disputata, in ogni caso. Chalmers (2011) e Piccinini (2008a) sostengono che una macchina di Turing farebbe calcoli anche se i simboli che manipola non avessero alcuna interpretazione semantica: queste operazioni sono puramente sintattiche per loro natura e non possiedono alcuna proprietà semantica. Se questo è vero, dunque, il contenuto rappresentazionale non è condizione necessaria affinché un sistema fisico conti come computazionale.

Non è chiaro se lo slogan “la computazione mentale è elaborazione di informazioni” abbia futuro. Nonostante tutto, è ancora molto considerato dalla letteratura. Per approfondire le possibili connessioni tra il computazionalismo e l’informazione, si vedano Gallistel e King (2009: 1–26), Lizier, Flecker e Williams (2013), Milkowski (2013), Piccinini e Scarantino (2010) e Sprevak (di prossima pubblicazione).

6.2 Analisi funzionale

In un passaggio molto citato dello psicologo della percezione David Marr (1982), si distinguono tre livelli di descrizione di un “dispositivo di elaborazione di informazioni”:

Teoria computazionale: “il dispositivo mappa un tipo di informazione su un altro tipo, definendo in modo preciso le proprietà astratte dell’operazione e dimostrandone l’accuratezza e l’adeguatezza.” (p. 24).

Rappresentazione ed algoritmo: “la scelta della rappresentazione per l’input e l’output e l’algoritmo per passare dall’uno all’altro.” (pp. 24–25).

Integrazione nell’hardware: “i dettagli su come l’algoritmo e la rappresentazione sono realizzati fisicamente.” (p. 25).

I tre livelli di Marr hanno portato a intense indagini filosofiche. Ai fini di questa pagina, il punto focale è che il primo qui presentato descrive la mappatura da input ad output senza gli step intermedi. Marr illustra questo suo approccio portando letture “a livello computazionale” di vari processi percettivi, come per esempio il riconoscimento dei contorni.

La teoria di Marr suggerisce una concezione funzionale della computazione, secondo cui questa sarebbe una trasformazione da input ad output adeguati. Frances Egan elabora questa visione in una serie di articoli (1991, 1992, 1999, 2003, 2010, 2014, 2019). Allo stesso modo, ella parla di descrizione computazionale in termini di relazione input-output. Arriva anche ad affermare che i modelli computazionali incarnano funzioni puramente matematiche, cioè di mappatura tra input matematici ad output matematici. Illustra questa tesi attraverso l’esempio di un meccanismo visuale (chiamato “Visua”) che elabora la profondità dell’oggetto tramite la disparità negli stimoli alla retina; chiede poi di immaginare un doppione neurofisiologico di tale meccanismo (“Visua’”), posto nel proprio ambiente fisico in una maniera tale che non rappresenti la profondità spaziale. Nonostante tutto, secondo Egan, l’ottica tratterebbe Visua e Visua’ anche come doppioni computazionali. Infatti, entrambi eseguono la stessa funzione matematica, sebbene i loro calcoli abbiano conseguenze rappresentazionali differenti. La conclusione è che la computazione mentale implicherebbe una “descrizione matematica astratta” compatibile con diverse possibili descrizioni rappresentazionali. L’attribuzione dell’intenzionalità è unicamente una glossa euristica alla struttura computazionale di fondo.

Chalmers (2012) afferma che la concezione funzionale tralascia aspetti importanti della computazione. Secondo lui, i modelli computazionali descriverebbero di più che solamente delle relazioni input-output: descriverebbero gli step intermedi che supportano la trasformazione. Questi, che Marr stipa a livello “algoritmico”, in effetti compaiono in maniera prominente nei modelli computazionali di logici e informatici. Restringere il termine “computazione” al rapporto tra input e output non rende giustizia alla pratica standard del computazionalismo.

Un’ulteriore obiezione alle teorie funzionaliste come quella di Egan è che mettono unicamente l’accento su input e output matematici. I loro critici lamentano che la filosofa darebbe troppa importanza a funzioni matematiche a scapito delle spiegazioni intenzionali che sono da sempre offerte dalle scienze cognitive (Burge 2005; Rescorla 2015; Silverberg 2006; Sprevak 2010). Si supponga che la psicologia della percezione descriva un sistema percettivo che vede la profondità di un oggetto di 5 metri. Questa stima ha un contenuto rappresentazionale: è accurata se e solo se la profondità dell’oggetto è di 5 metri. Il numero 5 ha il compito di definire questa stima spaziale. Tuttavia, la nostra scelta di questo valore dipende dalla nostra scelta arbitraria di una certa unità di misura. Secondo i critici, è il contenuto della stima della profondità e non il numero arbitrario con cui viene specificato che risulta importante nella spiegazione psicologica del fenomeno. Il ruolo centrale, nella teoria di Egan, è rivestito dalla misura anziché da ciò che ci sta dietro; ovvero, la spiegazione computazionale dovrebbe trattare il sistema visivo come un dispositivo che calcola una particolare funzione matematica che trasforma particolari input matematici in particolari output matematici. Questi input e output matematici particolari dipendono dalla nostra scelta arbitraria dell’unità di misura, quindi c’è ragione di pensare che non abbiano il potere esplicativo che Egan attribuirebbe loro.

Bisognerebbe fare poi una distinzione tra l’approccio funzionale, come quello di Marr ed Egan, e il paradigma funzionale nella programmazione in informatica. Quest’ultimo modella l’analisi di una funzione complessa in una serie di analisi successive di funzioni più semplici. Per fare un breve esempio, f(x,y)=(x2+y)f(x,y)=(x2+y) può essere analizzata partendo prima dalla funzione quadratica e poi dalla funzione di addizione. La programmazione funzionale è qualcosa di diverso dal “livello computazionale” di spiegazione proposto da Marr, perché tratta degli stadi intermedi della computazione. Questo paradigma si rifà al lambda-computazione di Alonzo Church (1936), in continuità con linguaggi di programmazione come PCF e LISP. Gioca un ruolo importante nell’IA e nell’informatica teorica. Alcuni autori suggeriscono che questa strada sia una via privilegiata all’analisi della computazione mentale (Klein 2012; Piantadosi, Tenenbaum e Goodman 2012). In ogni caso, molte formalizzazioni computazionali non sottostanno a questo paradigma funzionale: le macchine di Turing, i linguaggi di programmazione a comandi (come C), i linguaggi di programmazione logici (Prolog), etc. Sebbene questo approccio descriva numerose importanti operazioni di computazione (magari anche la computazione mentale), non è una buona teoria della computazione in generale.

6.3 Strutturalismo

Molte proposte in filosofia utilizzano una nozione strutturalista di computazione: un modello computazionale descrive una struttura causale astratta a prescindere dai sistemi fisici particolari che possono istanziarla. Questa concezione è datata almeno quanto l’intervento originale di Putnam (1967) sull’argomento. Chalmers (1995, 1996a, 2011, 2012) la estende nel dettaglio. È lui a introdurre la formalizzazione dell’automa a stati combinatori (ASC), che include molti modelli computazionali classici (tra cui le macchine di Turing e le reti neurali). Un ASC consiste in una descrizione astratta della topologia causale di un sistema fisico: la serie di interazioni causali tra le parti del sistema stesso, indipendentemente dalla loro natura particolare o anche dai meccanismi causali attraverso cui interagiscono. Una trattazione computazionale definirebbe così una topologia causale.

Chalmers utilizza lo strutturalismo per delineare una versione molto generale di TCM. Assume la visione funzionalista che gli stati psicologici siano individuati dal loro ruolo in una serie causale. La descrizione psicologica di un fenomeno specifica dei ruoli causali, astratti dagli stati fisici che li realizzano. In altre parole, le proprietà psicologiche sono organizzativamente invarianti, sopravvenendo sulla topologia causale del sistema. Nella misura in cui una descrizione computazionale definisce una topologia causale, mostrare determinate caratteristiche computazionali basta a istanziare determinate proprietà mentali. Perciò, la trattazione psicologica è una specie di trattazione computazionale, in maniera tale che una teoria computazionale dovrebbe essere centrale alla disciplina della psicologia. In questo modo uno computazionalismo strutturalista fornirebbe una fondazione solida alle scienze cognitive. La nostra vita mentale è fondata su serie causali, che sono catturate precisamente da modelli computazionali.

Lo strutturalismo implica una teoria molto elegante sulla relazione di implementazione di un modello computazionale astratto in un sistema fisico. A che condizioni si può dire il secondo realizzi il primo? Secondo gli strutturalisti, è necessario che la struttura causale del modello sia “isomorfica” alla sua struttura formale. Un modello computazionale descrive un sistema fisico articolando una formalizzazione di una particolare topologia causale. Chalmers lavora su questa intuizione, fornendo condizioni necessarie e sufficienti molto dettagliate per realizzare un ASC nel mondo fisico. Sono poche (se ci sono) le teorie computazionali che riescono a dare una buona spiegazione di come funzioni la relazione di implementazione.

Confrontiamo ora il computazionalismo strutturale con altre prospettive analizzate in precedenza:

Funzionalismo meccanico. Il computazionalismo strutturale accetta l’idea di fondo del funzionalismo meccanico: gli stati mentali sono stati funzionali descrivibili attraverso una formalizzazione computazionale. Putnam propone la TCM come ipotesi empirica e difende il suo funzionalismo su questa base. Al contrario, Chalmers segue David Lewis (1972) nel fondare il suo funzionalismo nell’analisi concettuale della mente. Insomma, il primo difende il funzionalismo partendo dal computazionalismo, il secondo difende il computazionalismo partendo dal funzionalismo.

Computazionalismo classico, connessionismo e neuroscienze computazionali. Il computazionalismo strutturalista focalizza l’attenzione sulla descrizione di strutture organizzativamente invarianti, che possiedono realizzabilità multipla. Da questo punto di vista si distacca dalle neuroscienze cognitive. Invece, lo strutturalismo è compatibile sia col computazionalismo classico che con quello connessionista, pur separandosene nell’atteggiamento. Infatti, questi ultimi presentano le loro teorie come ipotesi sostanziali sulla natura della mente. Chalmers propone il computazionalismo strutturalista come una posizione piuttosto minimalista, tale da essere difficile da confutare.

Realismo intenzionale ed eliminativismo. Il computazionalismo strutturalista è compatibile con entrambe le posizioni. L’ASC non menziona esplicitamente proprietà semantiche come referenza, condizioni di verità, contenuto rappresentazionale, etc. I computazionalisti strutturalisti non hanno bisogno di assegnare alcun ruolo importante sotto il profilo della psicologia scientifica al contenuto rappresentazionale. D’altra parte, il computazionalismo strutturalista non si preclude nemmeno questa possibilità.

Concezione formo-sintattica della computazione. Il contenuto esteso dipende dalle relazioni causali e temporali con l’ambiente esterno, che sfuggono quindi alla topologia causale. Per tanto, il computazionalismo strutturalista è neutro sul contenuto esteso di un fenomeno. Presumibilmente, il contenuto stretto sopravviene sulla topologia causale, sebbene la descrizione di un ASC non lo menzioni esplicitamente. Dunque, il computazionalismo strutturalista dà priorità a un livello di spiegazione formale, non-semantico. Da questo punto di vista è vicino alla CFS. D’altra parte, però, non è necessario che i primi dicano, come fa la seconda prospettiva, che la computazione è “insensibile” alle proprietà semantiche.

Nonostante il computazionalismo strutturalista sia distinto dalla TCM+CFS, solleva alcune obiezioni analoghe. Per esempio, Rescorla (2012) nega che la topologia causale giochi un ruolo esplicativo centrale nelle scienze cognitive come sosterrebbe questa posizione. Suggerisce invece che la priorità è della descrizione intenzionale esternista, anzichÊ delle strutture organizzativamente invarianti. Parallelamente, i neuroscienziati computazionali raccomanderebbero dal canto loro di abbandonare queste strutture per concentrarsi su modelli computazionali piÚ fedeli alla realtà dei neuroni. Rispondendo a queste questioni, Chalmers (2012) afferma che la descrizione computazionale organizzativamente invariante ha dei vantaggi dal punto di vista esplicativo che nessuna delle due alternative offrirebbe: rivela i meccanismi insiti nella cognizione (a differenza della descrizione intenzionale) e astrae dalla realizzazione dei fenomeni psicologici a livello neurale.

6.4 Teorie meccanicistiche

La natura meccanicistica della computazione è un tema che torna spesso in logica, filosofica, e nelle scienze cognitive. Gualtiero Piccinini (2007, 2012, 2015) e Marcin Milkowski (2013) sviluppano questo argomento in una teoria meccanicistica dei sistemi computazionali. Un meccanismo funzionale è un sistema di component interconnesse in cui ciascuna di esse gioca una funzione specifica all’interno del sistema. Una spiegazione meccanicistica scompone il sistema nelle sue parti e descrive come queste siano organizzate nel tutto, isolando la funzione che caratterizza ciascuna componente. Un sistema computazionale è un tipo di meccanismo funzionale. Secondo Piccinini, in particolare, un sistema computazionale è un meccanismo funzionale organizzato per processare dei messaggi secondo certe regole. In modo simile a quanto Putnam dice sulla realizzabilità multipla, queste regole sarebbero indipendenti dal mezzo di attuazione, astraendo cioè dalle specifiche fisiche dei veicoli della rappresentazione. La descrizione computazionale scompone il sistema in parti e descrive come ciascuna contribuisce a processarne i veicoli. Se il sistema processa dei veicoli strutturati in modo discreto, allora la computazione è digitale; viceversa, è analogica. La versione di Milkowski dell’approccio meccanicistico è simile. La differenza con Piccinini è che è più vicino alla nozione di “elaborazione delle informazioni”, in modo che i meccanismi computazionali opererebbero su stati che trasportano informazione. Entrambi utilizzano questo loro approccio in sostegno del loro computazionalismo.

I computazionalisti meccanicistici solitamente individuano gli stati computazionali in maniera non-semantica. Quindi sono suscettibili alle questioni sul ruolo del contenuto rappresentazionale, come per la CFS e lo strutturalismo. CosĂŹ facendo, Shagrir (2014) lamenta come questa visione non troverebbe spazio nelle scienze cognitive le cui spiegazioni sono allo stesso tempo computazionali e rappresentazionali. Quanto queste obiezioni attecchiscano dipende dalla propria posizione sul ruolo del contenuto nel computazionalismo.

6.5 Pluralismo

Abbiamo trattato molte teorie computazionali alle volte sovrapponibili o incompatibili tra loro: computazionalismo classico, computazionalismo connessionista, neuroscienze computazionali, computazionalismo formo-sintattico, computazionalismo del contenuto, computazionalismo informazionale, computazionalismo funzionale, computazionalismo strutturalista e computazionalismo meccanicistico. Ciascuna parla in modo diverso della computazione e ha i propri pro e contro. È possibile altresÏ adottare un punto di vista pluralista che accetti diverse concezioni distinte. I pluralisti, anzichÊ elevare una teoria sopra le altre, utilizzano tranquillamente la prospettiva che sembra piÚ adattabile al contesto della spiegazione. Edelman (2008) assume un approccio pluralistico, cosÏ come ultimamente anche Chalmers (2012).

L’approccio pluralista fa sorgere alcune questioni. È possibile un’analisi generica che abbracci tutti (o quasi) i tipi ci computazione? Tutti i tipi di computazione hanno delle caratteristiche comuni? O sono forse accomunati da un’aria di famiglia? Approfondire il computazionalismo significa anche cercare una risposta a queste domande.

7. Argomenti contro il computazionalismo

La TCM ha suscitato numerose obiezioni. In molti casi, queste si applicano solo a versioni specifiche della TCM (come il computazionalismo classico o il computazionalismo connessionista). Qui sono riportate alcune obiezioni importanti. Si veda anche la voce sull’argomento della stanza cinese per un’obiezione contro il computazionalismo classico avanzata da John Searle (1980) e ampiamente discussa.

7.1 Argomenti della banalitĂ 

Una preoccupazione ricorrente è che la TCM sia banale, perché possiamo descrivere quasi tutti i sistemi fisici attraverso l’esecuzione di calcoli. Searle (1990) afferma che un muro implementa qualsiasi programma per computer, dal momento che possiamo discernere alcuni schemi di movimenti molecolari nel muro che sono isomorfi alla struttura formale del programma. Putnam (1988: 121–125) difende una forma di argomento della banalità meno estrema, ma comunque molto forte e sulla stessa linea. Gli argomenti della banalità giocano un ruolo importante nella letteratura filosofica. Gli anti-computazionalisti utilizzano gli argomenti della banalità contro il computazionalismo, mentre i computazionalisti cercano di evitarli.

I computazionalisti di solito rigettano gli argomenti della banalitĂ  insistendo sul fatto che tali argomenti trascurano i vincoli sull’implementazione computazionale, i quali impediscono che le implementazioni vengano banalizzate. I vincoli possono essere controfattuali, causali, semantici o di altro tipo, a seconda della teoria della computazione che adottiamo. Ad esempio, David Chalmers (1995, 1996a) e B. Jack Copeland (1996) sostengono che l’argomento della banalitĂ  di Putnam ignora i condizionali controfattuali che un sistema fisico deve soddisfare per implementare un modello computazionale. Altri filosofi affermano che un sistema fisico deve avere proprietĂ  rappresentazionali per implementare un modello computazionale (Fodor 1998: 11-12; Ladyman 2009; Sprevak 2010) o almeno per implementare un modello computazionale contenutistico (Rescorla 2013, 2014b). I dettagli qui variano considerevolmente e i computazionalisti discutono tra loro su quali tipi di computazione possono evitare esattamente gli argomenti della banalitĂ . Ma la maggior parte dei computazionalisti concorda sul fatto che possiamo evitare qualsiasi devastante banalitĂ  attraverso una teoria sufficientemente solida della relazione di implementazione tra modelli computazionali e sistemi fisici.

Il pan-computazionalismo sostiene che ogni sistema fisico implementa un modello computazionale. Questa tesi è plausibile, poichÊ qualsiasi sistema fisico implementa verosimilmente un modello computazionale sufficientemente banale (ad esempio, un automa finito a stati singoli). Come nota Chalmers (2011), il pan-computazionalismo non sembra preoccupare il computazionalismo. Ciò che sarebbe piÚ preoccupante è la versione piÚ forte della tesi molto piÚ forte secondo cui quasi tutti i sistemi fisici implementano quasi tutti i modelli computazionali.

Per ulteriori discussioni sugli argomenti della banalitĂ  e sull’implementazione computazionale, si veda Sprevak (2019) e la voce sulla computazione nei sistemi fisici.

7.2 L’incompletezza del teorema di Gödel

Secondo alcuni autori, i teoremi di incompletezza di GĂśdel mostrano che le capacitĂ  matematiche umane superano le capacitĂ  di qualsiasi macchina di Turing (Nagel e Newman 1958). J.R. Lucas (1961) sviluppa questa posizione in una famosa critica della TCMC. Roger Penrose persegue la critica in The Emperor’s New Mind (1989) e negli scritti successivi. Vari filosofi e logici hanno risposto a questa critica, sostenendo che le formulazioni attuali soffrono di fallacie, supposizioni che fanno petizioni di principio e persino errori matematici (Bowie 1982; Chalmers 1996b; Feferman 1996; Lewis 1969, 1979; Putnam 1975: 365-366, 1994; Shapiro 2003). C’è un ampio consenso sul fatto che questa critica alla TCMC sia priva di forza. Può risultare che alcune capacitĂ  mentali umane superino la computabilitĂ  di Turing, ma i teoremi di incompletezza di GĂśdel non forniscono alcun motivo per cantare vittoria.

7.3 Limiti del modello computazionale

Un computer può comporre la sinfonia dell’Eroica? O scoprire la relativitĂ  generale? O addirittura replicare la naturale capacitĂ  di un bambino di percepire l’ambiente, allacciarsi le scarpe e discernere le emozioni degli altri? Può sembrare che l’intuito, la creativitĂ  e le capacitĂ  umane resistano alla formalizzazione da parte di un programma per computer (Dreyfus 1972, 1992). PiĂš in generale, ci si potrebbe preoccupare che aspetti cruciali della cognizione umana sfuggano al modello computazionale, in particolare quello classico.

Ironicamente, Fodor propone una versione energica di questa critica. Già nel contesto delle sue prime riflessioni sulla TCMC, Fodor (1975: 197–205) espresse un notevole scetticismo sul fatto che essa possa rendere conto di tutti i fenomeni cognitivi importanti. Il pessimismo diventa più pronunciato nei suoi scritti successivi (1983, 2000), che si concentrano soprattutto sul ragionamento abduttivo come esempio di un fenomeno mentale che potenzialmente sfugge al modello computazionale. Il suo argomento principale può essere riassunto come segue:

(1) La computazione alla Turing è sensibile solo alle proprietĂ  “locali” di una rappresentazione mentale, che sono esaurite dall’identitĂ  e dalla disposizione dei componenti della rappresentazione.

(2) Molti processi mentali, paradigmaticamente l’abduzione, sono sensibili a proprietĂ  “non locali” come la rilevanza, la semplicitĂ  e la conservazione.

(3) Dunque, potremmo aver bisogno di abbandonare il modello alla Turing dei processi rilevanti.

(4) Sfortunatamente, al momento non abbiamo idea di quale teoria alternativa possa sostituirla in maniera appropriata.

Alcuni critici negano (1), sostenendo che adeguati calcoli alla Turing possono essere sensibili a proprietĂ  “non locali” (Schneider 2011; Wilson 2005). Qualcuno sfida (2), sostenendo che le inferenze abduttive tipiche sono sensibili solo alle proprietĂ  “locali” (Carruthers 2003; Ludwig e Schneider 2008; Sperber 2002). Alcuni ammettono (3) ma contestano (4), insistendo sul fatto che abbiamo modelli promettenti non alla Turing dei processi mentali rilevanti (Pinker 2005). Spinto in parte da tali critiche, Fodor elabora la sua argomentazione in modo molto dettagliato. Per difendere (2), critica le teorie che modellano l’abduzione utilizzando algoritmi euristici “locali” (2005: 41-46; 2008: 115-126) o ipotizzando una profusione di moduli cognitivi specifici del dominio (2005: 56-100). Per difendere (4), critica varie teorie che definiscono l’abduzione attraverso modelli non in stile Turing (2000: 46-53; 2008), come le reti connessioniste.

La portata e i limiti del modello computazionale rimangono controversi. Possiamo aspettarci che questo argomento rimanga al centro dell’attenzione dell’indagine, che verrĂ  portata avanti assieme all’IA.

7.4 Gli argomenti temporali

L’attivitĂ  mentale si svolge nel tempo. Inoltre, la mente compie compiti sofisticati (ad esempio la stima percettiva) molto rapidamente. Molti critici temono che il computazionalismo, in particolare il computazionalismo classico, non si adatti adeguatamente agli aspetti temporali della cognizione. Un modello alla Turing non fa menzione esplicita della scala temporale lungo la quale avviene la computazione. Si potrebbe implementare fisicamente la stessa macchina di Turing astratta con un dispositivo a base di silicio, o un dispositivo a valvole termoioniche piĂš lento, o un dispositivo a leve e pulegge ancora piĂš lento. I critici suggeriscono di rifiutare la TCMC a favore di un quadro alternativo che incorpori piĂš direttamente le considerazioni di carattere temporale. van Gelder e Port (1995) usano questo argomento per promuovere un framework di sistemi dinamici non computazionale per modellare l’attivitĂ  mentale. Eliasmith (2003, 2013: 12-13) lo utilizza per supportare il suo Neural Engineering Framework.

I computazionalisti rispondono che possiamo integrare un modello computazionale astratto con le considerazioni temporali (Piccinini 2010; Weiskopf 2004). Ad esempio, un modello di macchina di Turing presuppone discrete “fasi di computazione”, senza descrivere come le fasi si relazionano al tempo fisico. Ma possiamo integrare il nostro modello descrivendo la durata di ogni fase, convertendo cosĂŹ il nostro modello (una macchina di Turing non temporale) in una teoria che fornisca previsioni temporali dettagliate. Molti sostenitori della TCM integrano la teoria in questo modo per studiare le proprietĂ  temporali della cognizione (Newell 1990). Un’integrazione simile figura in modo prominente nell’informatica, i cui professionisti sono piuttosto interessati a costruire macchine con proprietĂ  temporali appropriate. I computazionalisti ne concludono che una versione adeguatamente integrata della TCM potrebbe catturare adeguatamente il modo in cui la cognizione si sviluppa nel tempo.

Una seconda obiezione temporale evidenzia il contrasto tra evoluzione temporale discreta e continua (van Gelder e Port 1995). La computazione da parte di una macchina di Turing si svolge in fasi discrete, mentre l’attivitĂ  mentale si svolge in un tempo continuo. Pertanto, vi è una fondamentale discrepanza tra le proprietĂ  temporali della computazione in stile Turing e quelle dell’attivitĂ  mentale effettiva. Abbiamo bisogno di una teoria psicologica che descriva l’evoluzione temporale continua.

I computazionalisti rispondono che questa obiezione presuppone ciò che deve essere mostrato: che l’attivitĂ  cognitiva non rientra in fasi esplicative significative discrete (Weiskopf 2004). Supponendo che il tempo fisico sia continuo, segue che l’attivitĂ  mentale si svolge in un tempo continuo. Non segue che i modelli cognitivi debbano avere una struttura temporale continua. Un personal computer opera in un tempo continuo e il suo stato fisico evolve continuamente. Una teoria fisica completa rifletterĂ  tutti quei cambiamenti fisici. Ma il nostro modello computazionale non riflette ogni cambiamento fisico del computer. Il nostro modello computazionale ha una struttura temporale discreta. PerchĂŠ dovremmo assumere che un buon modello della mente a livello cognitivo debba riflettere ogni cambiamento fisico nel cervello? Anche se esistesse un continuum di stati fisici in evoluzione, perchĂŠ dovremmo assumere un continuum di stati cognitivi in ​​evoluzione? Il semplice fatto di avere un’evoluzione temporale continua non attacca i modelli computazionali con una struttura temporale discreta.

7.5 La cognizione incorporata

La cognizione incorporata è un programma di ricerca che trae ispirazione dal filosofo continentale Maurice Merleau-Ponty, lo psicologo percettivo J.J. Gibson, e varie ulteriori influenze. È un movimento abbastanza eterogeneo, ma l’idea di base è enfatizzare i legami tra cognizione, azione corporea e ambiente circostante. Si veda Varela, Thompson e Rosch (1991) per un’influente prima teorizzazione. In molti casi, i suoi sostenitori utilizzano gli strumenti della teoria dei sistemi dinamici. I suoi fautori presentano tipicamente il loro approccio come un’alternativa radicale al computazionalismo (Chemero 2009; Kelso 1995; Thelen e Smith 1994). La TCM, lamentano, tratta l’attivitĂ  mentale come una manipolazione di simboli statici staccata dall’ambiente di incorporamento. Essa trascura una miriade di modi complessi in cui l’ambiente modella in modo causale o costitutivo l’attivitĂ  mentale. Dovremmo sostituire la TCM con un nuovo quadro teorico che enfatizzi i collegamenti continui tra mente, corpo e ambiente. La dinamica agente-ambiente, non la computazione mentale interna, è la chiave per comprendere la cognizione. Spesso, un atteggiamento ampiamente eliminativista nei confronti dell’intenzionalitĂ  muove questa critica.

I computazionalisti rispondono che la TCM riconosce il reale valore della cognizione incorporata. I modelli computazionali possono tenere conto del modo in cui mente, corpo e ambiente interagiscono continuamente tra di loro. Dopo tutto, i modelli computazionali possono incorporare input sensoriali e output motori. Non c’è un’ovvia ragione per cui un focus sulle dinamiche agente-ambiente precluderebbe una doppia enfasi sulla computazione mentale interna (Clark 2014: 140-165; Rupert 2009). I computazionalisti sostengono che TCM possa incorporare qualsiasi intuizione legittima offerta dalla teoria della cognizione incorporata. Essi insistono anche sul fatto che TCM rimane il nostro miglior quadro teorico per spiegare numerosi fenomeni psicologici fondamentali.

Bibliografia

Strumenti accademici

Altre risorse in Internet

Voci correlate

analogy and analogical reasoning | anomalous monism | causation: the metaphysics of | Chinese room argument | Church-Turing Thesis | cognitive science | computability and complexity | computation: in physical systems | computer science, philosophy of | computing: modern history of | connectionism | culture: and cognitive science | externalism about the mind | folk psychology: as mental simulation | frame problem | functionalism | GÜdel, Kurt | GÜdel, Kurt: incompleteness theorems | Hilbert, David: program in the foundations of mathematics | language of thought hypothesis | mental causation | mental content: causal theories of | mental content: narrow | mental content: teleological theories of | mental imagery | mental representation | mental representation: in medieval philosophy | mind/brain identity theory | models in science | multiple realizability | other minds | reasoning: automated | reasoning: defeasible | reduction, scientific | simulations in science | Turing, Alan | Turing machines | Turing test | zombies


Copyright Š 2020 by
Michael Rescorla <rescorla@ucla.edu>


traduzione italiana di
Filippo Pelucchi