L'argomento della Stanza Cinese

The following is the translation of George Graham’s entry on “The Chinese Room Argument” in the Stanford Encyclopedia of Philosophy. The translation follows the version of the entry in the SEP’s archives at https://plato.stanford.edu/archives/win2020/entries/chinese-room/ . This translated version may differ from the current version of the entry, which may have been updated since the time of this translation. The current version is located at https://plato.stanford.edu/entries/chinese-room/ . We’d like to thank the Editors of the Stanford Encyclopedia of Philosophy for granting permission to translate and to publish this entry on the web.


******* SEP translations *******

L’argomento ed esperimento mentale conosciuto come “l’argomento della stanza cinese” fu pubblicato per la prima volta in un articolo del 1980 del filosofo americano John Searle (1932–). L’argomento in oggetto è diventato uno dei più noti nella filosofia contemporanea. Searle si immagina da solo in una stanza ad operare un programma informatico congegnato per rispondere a caratteri cinesi che gli vengono passati da sotto la porta. Searle non capisce nulla di cinese; eppure, grazie al suddetto programma per elaborare simboli e numeri, proprio come fa un computer, rimanda da sotto la porta le stringhe appropriate di caratteri cinesi, e questo porta chi sta fuori dalla porta a supporre erroneamente che ci sia un cinese madrelingua nella stanza.

In senso stretto, l’argomento mostra che la programmazione di un computer digitale può far sembrare che il linguaggio venga capito quando in realtà non si produce una comprensione effettiva. Dunque, il “test di Turing” è inadeguato. Searle sostiene che il suo esperimento mentale mostra che i computer usano semplicemente regole sintattiche per elaborare stringhe di simboli, ma non hanno comprensione né del significato né della semantica. In senso più ampio, l’argomento evidenzia che la teoria secondo la quale le menti umane sono sistemi computazionali o di elaborazione delle informazioni simili a computer va rifiutata. Le menti sono il risultato di processi biologici; i computer possono al massimo simulare questi processi biologici. Pertanto, l’argomento ha implicazioni significative per la semantica, la filosofia del linguaggio e della mente, le teorie della coscienza, l’informatica e la scienza cognitiva in generale. Per questo ci sono state molte risposte critiche all’argomento.

1. Panoramica

Il lavoro nel campo dell’intelligenza artificiale (intelligenza artificiale) ha prodotto programmi informatici in grado di battere il campione mondiale di scacchi, controllare veicoli autonomi, completare le nostre frasi nelle e-mail e sconfiggere i migliori giocatori nel quiz televisivo Jeopardy. L’intelligenza artificiale ha anche prodotto programmi con i quali si può conversare usando il linguaggio naturale, inclusi gli “agenti virtuali” del servizio clienti, Alexa di Amazon e Siri di Apple. La nostra esperienza mostra che giocare a scacchi o a Jeopardy e portare avanti una conversazione sono attività che richiedono comprensione e intelligenza. L’abilità del computer nelle conversazioni e nei giochi dimostra quindi che i computer possono capire il linguaggio ed essere intelligenti? Un ulteriore loro sviluppo porterà a computer digitali che corrispondano pienamente o addirittura superino l’intelligenza umana? Alan Turing (1950), uno dei pionieri teorici dell’informatica, credeva che la risposta a queste domande fosse “sì”. Turing propose quello che ora è noto come “Il test di Turing”: se in una chat online sembra che si stia conversando con un essere umano, allora dovremmo ammettere che il computer è intelligente. Verso la fine degli anni ‘70 alcuni ricercatori di intelligenza artificiale affermarono che i computer capivano già almeno una parte del linguaggio naturale. Nel 1980 il filosofo dell’università di Berkeley, John Searle, introdusse un argomento breve ma che fu ampiamente discusso, volto a dimostrare una volta per tutte che è impossibile che i computer digitali comprendano davvero il linguaggio o pensino.

Searle sostiene che un buon modo per testare una teoria della mente, ossia una teoria che sostenga che la comprensione si generi facendo questo e quest’altro, è immaginare come sarebbe fare effettivamente ciò che la teoria dice che genererà comprensione. Searle (1999) ha così riassunto il suo argomento della stanza cinese (di seguito, ASC):

Immaginiamo un madrelingua inglese che non conosca il cinese e sia rinchiuso in una stanza piena di scatole di simboli cinesi (un database) insieme a un libro di istruzioni per elaborare i suddetti simboli (il programma). Immaginiamo che ci siano persone fuori dalla stanza che inviino altri simboli cinesi che, sebbene sconosciuti alla persona nella stanza, siano domande in cinese (input). E immaginiamo che, seguendo le istruzioni del programma, l’uomo nella stanza sia in grado di generare simboli cinesi che siano risposte corrette alle domande (output). Il programma consente dunque alla persona presente nella stanza di superare il test di Turing per la comprensione del cinese pur senza davvero capire una parola di cinese.

Searle prosegue dicendo: “Il punto dell’argomento è questo: se non diremmo che l’uomo nella stanza capisce il cinese esclusivamente sulla base dell’implementazione del programma appropriato per capire il cinese, allora lo stesso vale per qualsiasi altro computer digitale, perché nessun computer, in quanto computer, ha qualcosa che l’uomo non ha.”

Trent’anni dopo l’introduzione dell’argomento della stanza cinese, Searle (2010) descrive la conclusione in termini di coscienza e intenzionalità:

“Anni fa ho dimostrato con il cosiddetto argomento della stanza cinese che l’implementazione del programma informatico non è di per sé una base sufficiente per la coscienza o l’intenzionalità (Searle 1980). Il calcolo computazionale è definito in modo puramente formale o sintattico, mentre le menti hanno contenuti mentali o semantici reali, e non possiamo passare dalla sintattica alla semantica avendo a disposizione solo le operazioni sintattiche e nient’altro. Per metterla in modo più tecnico, la nozione di “stesso programma implementato” definisce una classe di equivalenza che viene specificata indipendentemente da qualsiasi realizzazione fisica specifica. Ma una tale specificazione necessariamente non può tenere conto dei poteri biologicamente specifici del cervello che causano processi cognitivi. Un sistema, io, ad esempio, non acquisirebbe una comprensione del cinese semplicemente eseguendo i passaggi di un programma informatico che simuli il comportamento di un madrelingua cinese” (p. 17).

“Intenzionalità” è un termine tecnico che individua una caratteristica degli stati mentali e di certe altre cose, vale a dire individua il fatto di vertere su qualcosa. Pertanto, desiderare un pezzo di cioccolato e i pensieri sulla vera Manhattan o sul personaggio fittizio Harry Potter mostrano tutti intenzionalità, come vedremo più approfonditamente nella sezione 5.2 di seguito.

L’argomento originale del 1980 non sostiene direttamente la connessione che Searle individua tra la comprensione legata ad una macchina computazionale e la coscienza e l’’intenzionalità. Tuttavia, la ri-descrizione della conclusione summenzionata indica la stretta connessione tra comprensione e coscienza nelle successive teorie del significato e dell’intenzionalità di Searle. Coloro che rifiutano tale connessione proposta da Searle potrebbero contro-argomentare che l’esecuzione di un programma può generare comprensione senza necessariamente generare coscienza, e viceversa, potrebbero sostenere che un robot stravagante possa avere una coscienza, i desideri e le convinzioni che avrebbe un cane senza che necessariamente comprenda il linguaggio naturale.

Nel passare alla discussione sull’intenzionalità, Searle cerca di sviluppare le implicazioni a più ampio spettro contenute nella sua argomentazione. Searle mira a confutare l’approccio funzionalista della comprensione delle menti, cioè l’approccio che sostiene che gli stati mentali sono definiti dai loro ruoli causali e non dalle cose (neuroni, transistor) che svolgono quei ruoli. L’argomento ha un suo peso soprattutto contro quella forma di funzionalismo nota come “Teoria computazionale della mente” che tratta le menti come sistemi di elaborazione di informazioni. Come risultato della sua rilevanza, così come dello stile di scrittura chiaro e deciso di Searle, l’argomento della stanza cinese è stato probabilmente l’argomento filosofico più discusso nella scienza cognitiva dopo il Test di Turing. Nel 1991 lo scienziato informatico Pat Hayes definì la scienza cognitiva come “il progetto di ricerca in corso volto a confutare l’argomento di Searle”. Lo psicologo cognitivo Steven Pinker (1997) mise in evidenza che a metà degli anni ‘90 erano stati pubblicati ben più di 100 articoli sull’esperimento mentale di Searle – e la sua discussione su internet era così pervasiva che Pinker lo trovò un motivo convincente per rimuovere il nome di Searle da tutte le possibili discussioni su internet.

L’interesse per l’argomento non è diminuito e la gamma di argomenti a cui questo può essere connesso si è ampliata. Una ricerca su Google Scholar che recita le parole chiave: “Searle Chinese Room”, limitata al periodo tra il 2010 e il 2019, ha prodotto oltre 2000 risultati, inclusi articoli che collegano l’argomento di Searle a discussioni che vanno dalla “Embodied cognition”, al teatro, alla psicoterapia della conversazione, alle visioni postmoderne della verità e del “nostro futuro post-umano” – così come discussioni di gruppo o collettive e discussioni sul ruolo delle intuizioni in filosofia. Nel 2007 una società di videogiochi si è data ironicamente il nome “The Chinese Room” in onore “… della critica di Searle all’intelligenza artificiale – ovvero del fatto che si potesse creare un sistema che desse l’impressione di intelligenza senza che questa intelligenza ci fosse davvero”. Questa vasta gamma di discussioni e implicazioni è un tributo alla chiarezza e alla centralità dell’argomento in questione.]

2. Contesto storico

2.1 Il mulino di Leibniz

L’argomento di Searle ha quattro importanti antecedenti. Il primo di questi è un argomento esposto dal filosofo e matematico Gottfried Leibniz (1646-1716). Questo argomento, spesso noto come “Il mulino di Leibniz”, appare nella sezione 17 della Monadologia di Leibniz. Proprio come l’argomento di Searle, l’argomento di Leibniz assume la forma di un esperimento mentale. Leibniz ci chiede di immaginare un sistema fisico, una macchina, che si comporti in modo tale da far sembrare che pensi e faccia esperienze (che abbia “percezioni”).

  1. Inoltre, si deve ammettere che la percezione e ciò che da essa dipende non sono spiegabili in termini meccanici, cioè per mezzo di figure e movimenti. E supponendo che esista una macchina costruita in modo da pensare, sentire e avere percezioni, si potrebbe concepire che ne si aumentino le dimensioni, pur mantenendone le stesse proporzioni, in modo che vi si possa entrare come in un mulino. Se le cose stessero così, dovremmo, esaminandone l’interno, trovare solo parti meccaniche che funzionano l’una con l’altra, e mai qualcosa tramite cui spiegare una percezione. Da ciò segue che è in una sostanza semplice, e non in un composto o in una macchina, che si deve ricercare la percezione.

 

Si noti che la strategia di Leibniz qui è quella di confrontare il comportamento evidente della macchina, che potrebbe sembrare il prodotto di un pensare cosciente, con il modo in cui la macchina opera internamente. Egli sottolinea che queste operazioni meccaniche interne sono solo parti che si muovono da un punto all’altro, quindi non c’è nulla che sia cosciente o che possa spiegare il pensare, il sentire o il percepire. Per Leibniz gli stati fisici non sono sufficienti a spiegare gli stati mentali, né sono costitutivi degli stessi.]

2.2 La macchina di Turing

Un secondo antecedente dell’argomento della stanza cinese è l’idea della cosiddetta “macchina di Turing”, ovvero un computer manovrato da un essere umano. Questa idea si trova nel lavoro di Alan Turing, ad esempio nel suo “Intelligent Machinery” (1948). Turing riporta di aver scritto un programma che faccia sì che una macchina giochi a scacchi. Questa macchina di Turing è una sorta di programma, composto da una serie di semplici passaggi come avviene per un programma informatico, ma scritti in linguaggio naturale (ad esempio, l’inglese) ed eseguiti da un essere umano. Non occorre che l’operatore umano della macchina per giocare a scacchi sappia giocare a scacchi. Ciò che l’operatore fa è semplicemente seguire le istruzioni per generare le mosse sulla scacchiera. In effetti, non occorre nemmeno che l’operatore sappia di essere coinvolto nel gioco degli scacchi: non occorre che le stringhe di input e output, quali “N – QB7”, significhino qualcosa per chi opera la macchina.

Turing aveva già scritto programmi in lingua inglese per cosiddetti “computer” umani, ovvero per operai specializzati allora conosciuti come tali, come parte del progetto della seconda guerra mondiale per decifrare la crittografia militare tedesca, e non occorreva che per poter lavorare questi computer umani sapessero cosa stavano effettivamente facendo i programmi che stavano eseguendo.

Uno dei motivi per cui l’idea di una macchina-più-essere umano è importante è che inizia già a sollevare questioni sull’agire e il comprendere, questioni simili a quelle dell’argomento della stanza cinese. Poniamo che io sia solo, in una stanza chiusa, e segua un libro di istruzioni per elaborare stringhe di simboli. In tal modo implemento una macchina che genera stringhe di simboli quali “N-KB3” che scrivo su pezzi di carta che faccio scivolare sotto la porta a qualcuno fuori dalla stanza. Supponiamo inoltre che, prima di entrare nella stanza, io non sappia giocare a scacchi, o nemmeno che esista un gioco del genere. Tuttavia, a mia insaputa, nella stanza io sto eseguendo il programma di scacchi di Turing e le stringhe di simboli che genero sono mosse di scacchi e sono percepite come mosse di scacchi da chi si trova fuori dalla stanza. Chi si trova fuori dalla stanza risponde facendo scivolare a me nella stanza da sotto la porta i simboli delle proprie mosse. Se si presta attenzione solo alla sequenza di mosse che ne risulta, visualizzata su una scacchiera fuori dalla stanza, si potrebbe pensare che chi è nella stanza sappia giocare a scacchi molto bene. Ora, so davvero come si gioca a scacchi? O è il sistema (composto da me, i manuali e la carta su cui elaboro stringhe di simboli) che sta giocando a scacchi? Se memorizzo il programma ed elaboro dei simboli nella mia testa allora so come si gioca a scacchi, per quanto attraverso una strana fenomenologia? Gli stati di coscienza sono importanti per il sapere o meno giocare a scacchi? Se un computer digitale esegue lo stesso programma, allora il computer gioca a scacchi o lo simula semplicemente?

Entro la metà del secolo Turing era ottimista sul fatto che gli stessi computer elettronici di nuova concezione sarebbero stati presto in grado di esibire un comportamento apparentemente intelligente, rispondendo alle domande poste in inglese e continuando le conversazioni. Turing (1950) propose infatti quello che oggi è noto come il test di Turing: se è possibile che un computer passi per essere umano nella chat online allora dovrebbe essere considerato intelligente.

Un terzo antecedente dell’argomentazione di Searle è dato dal lavoro del collega di Searle di Berkeley, Hubert Dreyfus. Dreyfus è stato uno dei primi critici delle affermazioni ottimistiche fatte dai ricercatori sull’intelligenza artificiale. Nel 1965, quando Dreyfus era al MIT, pubblicò un rapporto di circa cento pagine intitolato “Alchemy and Artificial Intelligence”. Dreyfus ha sostenuto che le caratteristiche chiave della vita mentale umana non potevano essere catturate da regole formali per elaborare simboli. Dreyfus si trasferì a Berkeley nel 1968 e nel 1972 pubblicò la sua estesa critica, “What Computers Can’t Do”. I principali interessi di ricerca di Dreyfus riguardavano la filosofia continentale, con attenzione alla coscienza, all’intenzionalità e al ruolo dell’intuizione e al background inarticolato nel plasmare la nostra comprensione. Dreyfus ha identificato diversi presupposti problematici nell’intelligenza artificiale, inclusa l’idea che i cervelli sono come computer digitali e, ancora una volta, l’assunto che la comprensione possa essere codificata grazie a regole esplicite.

Tuttavia, alla fine degli anni ‘70, quando i computer divennero più veloci e meno costosi, alcuni nella fiorente comunità di intelligenza artificiale iniziarono a sostenere che i loro programmi potevano capire le frasi in inglese, grazie all’uso di un database di informazioni di base. Il lavoro di uno di questi, il ricercatore di Yale Roger Schank (Schank & Abelson 1977), arrivò all’attenzione di Searle. Schank sviluppò una tecnica chiamata “rappresentazione concettuale” che utilizzava uno “script” per rappresentare relazioni concettuali (relative alla semantica del ruolo concettuale). L’argomentazione di Searle fu originariamente presentata come una risposta alla tesi secondo cui i programmi di intelligenza artificiale come quelli di Schank comprendono letteralmente le frasi a cui rispondono.

2.3 La nazione cinese

Un quarto antecedente dell’argomento della stanza cinese sono gli esperimenti mentali che coinvolgono una miriade di esseri umani che agiscono come un computer. Nel 1961 Anatoly Mickevich (noto con lo pseudonimo A. Dneprov) pubblicò “The Game”, un racconto in cui uno stadio pieno di 1400 studenti di matematica fu disposto per funzionare come un computer digitale (vedi Dneprov 1961 e la traduzione inglese elencata in Mickevich 1961 – Altre Risorse Intenet). Per 4 ore ciascuno esegue ripetutamente un po’ di calcoli sui numeri binari ricevuti da un vicino di banco, quindi passa il risultato binario ad un altro studente nelle vicinanze. Il giorno successivo gli studenti in questione apprendono che hanno tradotto collettivamente una frase dal portoghese alla loro lingua madre, il russo. Il protagonista della storia di Mickevich conclude: “Abbiamo dimostrato che anche la simulazione più perfetta del pensiero da parte di una macchina non è il processo del pensiero stesso, che è una forma superiore di movimento della materia vivente”. Apparentemente in maniera indipendentemente, una considerazione simile emerse nelle prime discussioni sulle teorie funzionaliste della mente e della cognizione (vedi ulteriore discussione nella sezione 5.3 di seguito). I funzionalisti sostengono che gli stati mentali sono definiti dal ruolo causale che svolgono in un sistema (proprio come un fermaporta è definito dalla funzione che svolge, non da ciò di cui è fatto). I critici del funzionalismo si affrettarono a volgere contro questa tesi la proclamata virtù della realizzabilità multipla degli stessi. Sebbene il funzionalismo fosse coerente con una lettura materialista o biologica degli stati mentali (probabilmente una virtù), non identificava i tipi di stati mentali (come il provare dolore o l’interrogarsi sul mago di Oz) con particolari tipi di stati neurofisiologici, come faceva invece la “teoria dell’identità tipo-tipo”. In contrasto con la teoria dell’identità tipo-tipo, il funzionalismo consentiva agli esseri senzienti con fisiologia diversa di avere gli stessi tipi di stati mentali degli esseri umani, come ad esempio stati sul dolore. Tuttavia fu sottolineato che se alieni extraterrestri, che possedessero qualche altro sistema complesso al posto del cervello, potrebbero realizzare le proprietà funzionali che costituiscono gli stati mentali, allora, presumibilmente, lo potrebbero anche i sistemi ancor meno simili al cervello umano. La forma computazionale del funzionalismo, che sostiene che il ruolo determinante di ogni stato mentale è il suo ruolo nell’elaborazione o nel calcolo delle informazioni, è particolarmente vulnerabile a questa obiezione, dato che un’ampia varietà di sistemi con componenti semplici sono computazionalmente equivalenti (vedi ad esempio Maudlin 1989 sulla discussione di un computer costruito con secchi d’acqua). I critici chiesero se fosse davvero plausibile che questi sistemi inorganici potessero avere stati mentali o provare dolore.

Daniel Dennett (1978) riferisce che nel 1974 Lawrence Davis tenne un colloquio al MIT in cui presentò una di queste implementazioni non ortodosse. Dennett riassume l’esperimento mentale di Davis come segue:

Supponiamo che una teoria funzionalista del dolore (quali che siano i suoi dettagli) sia istanziata da un sistema i cui sottoinsiemi non sono cose come le fibre C e i sistemi reticolari, ma linee telefoniche e uffici pieni di persone. Supponiamo che si tratti di un robot gigante controllato da un esercito di esseri umani che lo abitano. Quando le condizioni del dolore caratterizzate dalla teoria fossero soddisfatte dal punto di vista funzionale, dovremmo poter dire che, se la teoria è vera, il robot sta soffrendo. Vale a dire, vero dolore, tanto reale quanto il nostro, esisterebbe in virtù delle attività magari disinteressate e professionali di questi team burocratici che svolgono le loro funzioni.

In “Troubles with Functionalism”, anch’esso pubblicato nel 1978, Ned Block immagina l’intera popolazione cinese che esegue le funzioni dei neuroni nel cervello. Questo scenario è stato successivamente chiamato “nazione cinese” o “palestra cinese”. Supponiamo che a ogni cittadino cinese venga fornito un elenco di numeri di telefono e che, a un orario prestabilito il giorno dell’esecuzione, i cittadini designati come “input” avviino il processo chiamando i cittadini presenti nel loro elenco. Quando il telefono di un cittadino squilla, lui o lei telefona a quelli sulla sua lista, che a loro volta contattano altri ancora. Non è necessario che venga scambiato alcun messaggio al telefono; è sufficiente che partano le chiamate. Gli elenchi di chiamate sono costruiti in modo tale che la sequenza di chiamate esegua la stessa sequenza di attivazione che si verifica tra i neuroni nel cervello di qualcuno quando quella persona è in un certo stato mentale – di dolore, per esempio. Le telefonate svolgono lo stesso ruolo funzionale dei neuroni che si attivano a vicenda. L’interesse di Block era rivolto principalmente ai qualia e, in particolare, a se sia o meno plausibile ritenere che la popolazione cinese possa provare dolore come collettività mentre nessun singolo membro della popolazione prova alcun dolore, ma l’esperimento mentale descritto si applica a qualsiasi stato mentale e operazione, inclusa la comprensione della lingua.

Dunque l’esperimento mentale di Block, come quelli di Davis e Dennett, è costituito da un sistema di più esseri umani invece che da uno solo. Il focus è la coscienza, ma proprio nella misura in cui l’argomento di Searle coinvolge anche la coscienza, l’esperimento mentale suddetto è strettamente correlato a quello di Searle. Cole (1984) cerca di portare le intuizioni nella direzione opposta proponendo un esperimento mentale in cui ciascuno dei suoi neuroni sia cosciente e pienamente consapevole delle sue azioni, incluso il fatto di essere costituito di neurotrasmettitori, di subire potenziali d’azione e di inondare di neurotrasmettitori i suoi vicini. Cole sostiene che i suoi neuroni coscienti non troverebbero plausibile che la loro attività collettiva produca una coscienza e altre competenze cognitive che mancassero ai neuroni, inclusa la comprensione dell’inglese. Cole suggerisce dunque di non fidarsi delle intuizioni sull’esecuzione di sistemi.

3. L’argomento della stanza cinese

Nel 1980 John Searle pubblicò “Minds, Brains and Programs” per la rivista The Behavioral and Brain Sciences. In questo articolo, Searle espone l’argomento e poi risponde alla mezza dozzina di obiezioni principali sollevate durante le precedenti presentazioni dello stesso in vari campus universitari (vedere la sezione successiva). Inoltre, l’articolo di Searle per The Behavioral and Brain Sciences fu pubblicato insieme ai commenti e alle critiche di 27 ricercatori di scienze cognitive. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici.

Nei decenni successivi alla sua pubblicazione, l’argomento della stanza cinese è stato oggetto di moltissime discussioni. Nel 1984 Searle presentò l’argomento della stanza cinese nel un libro: Minds, Brains and Science. Nel gennaio 1990 il periodico popolare Scientific American portò il dibattito all’attenzione di un pubblico scientifico non specializzato. Searle ha inoltre incluso l’argomento della stanza cinese nel suo contributo: “Is the Brain’s Mind a Computer Program?”, a cui seguì un articolo in risposta: “Could a Machine Think?” scritto dai filosofi Paul e Patricia Churchland. Poco più tardi Searle pubblicò il dibattito sulla stanza cinese che ebbe con un altro importante filosofo, Jerry Fodor (in Rosenthal (ed.) 1991).

Il cuore dell’argomento è Searle che immagina di seguire un programma di elaborazione di simboli scritto in inglese (una cosiddetta “macchina di Turing”). L’inglese (Searle) seduto nella stanza segue le istruzioni in inglese per elaborare i simboli cinesi, mentre un computer “segue” (in un certo senso) un programma scritto in un linguaggio informatico. Sembra che Searle capisca il cinese grazie al fatto che segue le istruzioni di elaborazione dei simboli, quando in realtà non arriverà mai a capire il cinese. Dal momento che un computer fa semplicemente ciò che fa l’uomo nella stanza – ovvero elabora i simboli sulla base della sola sintassi – possiamo dire che nessun computer arriverà a capire veramente il cinese semplicemente seguendo un programma.

L’argomento succinto, basato strettamente sull’esperimento mentale della stanza cinese, è specificamente rivolto contro una posizione che Searle chiama “intelligenza artificiale forte”. L’intelligenza artificiale forte è l’idea che i computer opportunamente programmati (o i programmi stessi) possano comprendere il linguaggio naturale e che in realtà abbiano altre capacità mentali simili a quelle degli esseri umani di cui imitano il comportamento. Secondo l’intelligenza artificiale forte, questi computer giocano davvero a scacchi in modo intelligente, fanno mosse intelligenti o comprendono il linguaggio. Al contrario, l’“intelligenza artificiale debole” è la posizione molto più modesta secondo cui i computer sono semplicemente utili in psicologia, linguistica e altre aree, in parte perché possono simulare abilità mentali. Ma l’intelligenza artificiale debole non sostiene che i computer effettivamente capiscano o siano intelligenti. L’argomento della stanza cinese non è diretto contro l’intelligenza artificiale debole, né pretende di dimostrare che nessuna macchina possa pensare: Searle afferma che i cervelli sono macchine e i cervelli pensano. L’argomento è rivolto contro l’idea che i calcoli formali sui simboli possano generare pensiero.

Si può riassumere l’argomento nel modo seguente, come se fosse una reductio ad absurdum contro l’intelligenza artificiale forte. Sia L un linguaggio naturale, e sia un “programma per L” un programma per conversare fluentemente in L. Un sistema informatico è un qualsiasi sistema, umano o meno, che può eseguire un programma.

  1. Se l’intelligenza artificiale forte è vera, allora esiste un programma per il cinese tale che se un sistema informatico eseguisse quel programma, quel sistema arriverebbe in tal modo a comprendere il cinese.
  2. È possibile che io esegua un programma per il cinese senza che arrivi a capire il cinese.
  3. Quindi, l’intelligenza artificiale forte è falsa.

La prima premessa chiarisce la tesi dell’intelligenza artificiale forte. La seconda premessa è supportata dall’esperimento mentale della stanza cinese. La conclusione di questo argomento riassunto è che l’esecuzione di un programma non può dotare il sistema di comprensione del linguaggio. (Esistono altri modi per comprendere la struttura dell’argomento. Può essere rilevante leggere alcune delle affermazioni come controfattuali: ad esempio “esiste un programma” nella premessa 1 potrebbe voler dire che potrebbe esistere un programma, ecc. In base a questa interpretazione, l’argomento coinvolge la logica modale, la logica della possibilità e della necessità (vedi Damper 2006 e Shaffer 2009)).

Vale anche la pena notare che la prima premessa sopracitata attribuisce comprensione al “sistema”. Proprio ciò che l’intelligenza artificiale forte suppone acquisisca comprensione quando il programma verrà eseguito è cruciale per il successo o il fallimento dell’argomento della stanza cinese. Schank (1978) scrisse un articolo che afferma che un computer di gruppo, un dispositivo fisico, capisce, ma nel corpo del testo spiega che è il programma [“SAM”] quello che capisce: SAM, Schank afferma: “… capisce storie su argomenti di cui ha conoscenza” (p. 133). Come vedremo nella prossima sezione (4), questi problemi sull’identità di chi comprende (sia esso: la CPU? il programma? il sistema? qualcos’altro?) vennero alla ribalta a causa dei critici dell’argomento della stanza cinese. L’argomento di Searle in senso più ampio include la tesi per cui il suo esperimento mentale mostra più in generale che non si può ottenere la semantica (il significato) dalla sintassi (dall’elaborazione formale di simboli). Questo e altri temi relativi saranno discussi nella sezione 5: Problemi filosofici più ampi.

4. Repliche all’argomento della stanza cinese

Le critiche all’argomento della stanza cinese in senso stretto contro l’intelligenza artificiale forte seguono spesso tre filoni argomentativi, che possono essere distinti in base a quanto concedono:

(1) Alcuni critici ammettono che l’uomo nella stanza non capisca il cinese, ma sostengono che tuttavia l’esecuzione del programma possa generare comprensione del cinese da qualcosa che non sia l’operatore della stanza. Questi critici si oppongono alla tensione che sussiste tra la premessa che sostiene che l’uomo nella stanza non capisce il cinese e la conclusione che la non vi è comprensione. È possibile che vi sia comprensione da parte di un’entità più grande, più piccola, o diversa. Questa è la strategia adottata dalla cosiddetta replica dei sistemi (The Systems Reply) e dal contro-argomento della mente virtuale (The Virtual Mind Reply). Tali contro-argomenti sostengono che l’output della stanza possa riflettere un’effettiva comprensione del cinese, ma che tale comprensione non sia propria dell’operatore della stanza. Dunque, concordano con la tesi di Searle secondo cui chi opera nella stanza non capisce il cinese, ma negano la tesi secondo cui non vi sia alcuna comprensione delle domande in cinese e che il computazionalismo sia falso.

(2) Altri critici concedono a Searle la tesi secondo cui la mera esecuzione di un programma di elaborazione del linguaggio naturale, così come viene descritto nell’esperimento della stanza cinese, non generi nessuna comprensione, né per un essere umano né per un computer. Ma questi critici sostengono che una variazione del sistema del computer potrebbe effettivamente comprendere. La variante sarebbe composta da un computer integrato in un corpo robotico che abbia interazioni con il mondo fisico tramite dei sensori e dei motori (il cosiddetto “contro-argomento del robot”) o potrebbe essere un sistema che simuli nel dettaglio le operazioni di un cervello umano, neurone per neurone (la cosiddetta “replica del simulatore cerebrale”).

(3) Infine, alcuni critici non concedono nulla all’argomento contro l’intelligenza artificiale. Questi critici sostengono che l’uomo dell’esperimento originale della stanza cinese possa comprendere il cinese, nonostante Searle lo abbia negato, oppure che lo scenario descritto sia impossibile. Per esempio, alcuni critici hanno messo in discussione il fatto che le nostre intuizioni in quei casi siano affidabili. Altri invece hanno sostenuto che dipenda tutto da cosa si intende con “comprendere” – argomento discusso nella sezione “L’obiezione delle intuizioni” (The Intuition Reply). Altri (ad esempio Sprevak 2007) mettono in discussione l’assunto che qualsiasi sistema (ad esempio, il Searle della stanza) sia in grado di eseguire qualsiasi programma informatico. E infine alcuni hanno sostenuto che, se non fosse ragionevole attribuire comprensione sulla base del comportamento mostrato dalla stanza cinese, allora non sarebbe ragionevole attribuire comprensione agli esseri umani, sulla base di prove comportamentali simili (Searle definisce questa “l’obiezione del problema delle altre menti”). L’obiezione è che dovremmo voler attribuire comprensione a chi si trova nella stanza cinese basandoci su un comportamento evidente, esattamente come si fa nel caso degli esseri umani (e di alcuni animali), e come faremmo nel caso di creature extraterrestri (o di cespugli in fiamme o angeli) che parlino la nostra lingua. Questa posizione è vicina a quella di Turing quando propose il suo test comportamentale per intelligenze artificiali.

Oltre a questi contro-argomenti, pensati specificatamente per lo scenario della stanza cinese e l’argomento discusso qui, alcuni critici hanno argomentato in maniera indipendente contro la tesi di Searle nella sua forma più articolata, sostenendo che è possibile comprendere la semantica (ovvero il significato) tramite l’elaborazione di simboli sintattici, tra cui quelli adoperati dai sistemi informatici. Questo argomento è discusso nella sezione di seguito riguardante “Sintassi e semantica”.

4.1 La replica dei sistemi

Nell’articolo originale sul BBC (vedi sopra), Searle identificò e discusse molte delle repliche al suo argomento che aveva incontrato nel presentare l’argomento in vari luoghi. Come conseguenza, queste prime repliche hanno ricevuto più attenzione nella discussione successiva alla presentazione dell’argomento. Ciò che Searle nel 1980 ritenne essere “forse la replica più comune” è il contro-argomento dei sistemi.

La replica dei sistemi (che Searle sostiene essere originariamente associata a Yale, il luogo di lavoro di Schank sull’intelligenza artificiale) ammette che l’uomo nella stanza non capisca il cinese. Ma, secondo tale replica, l’uomo non è altro che una parte di un sistema più ampio, di un’unità centrale di elaborazione (una CPU). La CPU comprende un enorme database, la memoria (scratchpads) che contiene stati intermedi, e le istruzioni – è ovvero il sistema completo richiesto per rispondere alle domande in cinese. Quindi, secondo la replica dei sistemi, sebbene l’uomo che esegue il programma non capisca il cinese, il sistema come unità complessiva è in grado di farlo.

Ned Block è stato uno dei primi a sostenere il contro-argomento dei sistemi assieme ad altri tra cui Jack Copeland, Daniel Dennett, Douglas Hofstadter, Jerry Fodor, John Haugeland, Ray Kurzweil e Georges Rey. Rey (1986) sostiene che l’uomo nella stanza rappresenti semplicemente la CPU del sistema. Kurzweil (2002) ritiene invece che l’essere umano in questione sia semplicemente uno che esegue un programma e che non sia di nessun interesse (intendendo presumibilmente che le proprietà dell’esecutore son siano necessariamente quelle del sistema). Kurzweil si adegua allo spirito del test di Turing e argomenta che se il sistema dimostra apparentemente la capacità di capire il cinese “dovrebbe, appunto, comprendere il cinese”: Searle si auto-contraddice, a tutti gli effetti, quando specifica che “la macchina parla il cinese ma non lo capisce”.

Margaret Boden (1988) solleva delle considerazioni in merito. “La psicologia computazionale non attribuisce al cervello il merito di vedere germogli di fagioli o di capire l’inglese: stati intenzionali come questi sono proprietà delle persone, non del cervello” (p. 244). “In breve, la descrizione data da Searle dello pseudo-cervello di un robot (ovvero, del Searle-nel-robot) come di qualcosa che comprende l’inglese comporta un errore di categoria paragonabile a quello di trattare il cervello come ciò che detiene l’intelligenza, in contrapposizione alla base causale”. Boden sottolinea che l’operatore della stanza è un agente conscio, mentre la CPU del computer non lo è – l’esperimento mentale della stanza cinese ci chiede di assumere la prospettiva dell’esecutore, e quindi non sorprende che non riesca ad avere una visione d’insieme.

La replica di Searle al contro-argomento dei sistemi è semplice: in linea di principio, è possibile che egli (l’operatore nella stanza) internizzi l’intero sistema, memorizzandone tutte le istruzioni e i database e facendo tutti i calcoli a mente. Questi potrebbe quindi lasciare la stanza e vagare all’esterno, e magari persino conversare in cinese. Ma costui non avrebbe comunque alcuna possibilità di attribuire “alcun significato ai simboli formali”. L’uomo coinciderebbe con l’intero sistema, ma non comprenderebbe comunque il cinese. Per esempio, non saprebbe il significato della parola cinese che corrisponde ad ‘hamburger’. Non gli sarebbe possibile ricavare la semantica dalla sintassi.

In qualche modo, la replica di Searle qui anticipa quelli che più tardi saranno punti di vista sulla mente estesa (per esempio, quelli di Clark e Chalmers, 1998): se Otto, che soffre di perdita di memoria, può richiamare alla memoria le abilità perse esternalizzando alcune delle informazioni scritte sui suoi taccuini, allora presumibilmente è possibile che Searle faccia il contrario: interiorizzando le istruzioni e i taccuini acquisirebbe tutte le capacità che il sistema esteso gli consente di acquisire. E Searle termina infatti dicendo che siccome non acquisisce comprensione del cinese interiorizzando le componenti esterne dell’intero sistema (ad esempio, non sa comunque come si dica ‘hamburger’ in cinese), non ci fu mai davvero comprensione nel sistema originale della stanza cinese parzialmente esternalizzato.

Jack Copeland, nel suo articolo del 2002, “The Chinese Room from a Logical Point of View”, considera la replica di Searle al contro-argomento del sistema e controbatte che un homunculus nella testa di Searle potrebbe comprendere il cinese nonostante l’operatore della stanza non ci riesca, proprio come i moduli nelle menti risolvono le equazioni dei tensori che ci permettono di prendere al volo le palle da cricket. Copeland torna poi a considerare la palestra cinese e pare di nuovo sostenere la replica dei sistemi: “… i singoli operatori [non] capiscono il cinese. Ma non c’è nessuna implicazione tra questo e la tesi secondo cui la simulazione nel suo complesso non porti a comprendere il cinese. La fallacia coinvolta nel passare dalla parte al tutto è anche più evidente qui che nella versione originale dell’argomento della stanza cinese. Copeland nega che tale connessione implichi che una stanza con delle persone possa effettivamente simulare la mente.

John Haugeland scrive (2002) che la replica di Searle alla replica dei sistemi è fallace: “… ciò che si sta chiedendo è come sarebbe se lui, nella sua stessa mente, attuasse coscientemente le strutture formali sottostanti e le operazioni che in teoria dice siano sufficienti per implementare un’altra mente”. Secondo Haugeland, l’incapacità di Searle di comprendere il cinese è irrilevante: lui è solamente l’esecutore del programma. Il sistema più ampio implementato invece comprenderebbe – si tratta di una fallacia a livello della descrizione.

Shaffer (2009) esamina gli aspetti modali della logica dell’argomento della stanza cinese e ribatte che le versioni conosciute del contro-argomento del sistema siano petizioni di principio. Ma, secondo Shaffer, una versione modalizzata del contro-argomento del sistema è valida perché ci sono mondi possibili in cui la comprensione è una proprietà emergente di elaborazioni sintattiche complesse. Nute (2011) fornisce una replica a Shaffer.

Steven Harnald ha difeso l’argomento di Searle contro i sostenitori della replica dei sistemi in ben due articoli. In quello del 1989, Harnad scrive “Searle formula il problema in questo modo: La mente è un programma di un computer? O, più specificamente, se un programma di un computer simula o imita alcune nostre attività che sembrano richiedere la comprensione (come, ad esempio, comunicare in una lingua), si può dire che il programma stesso, facendo ciò, comprenda? (Si noti la tesi specifica: il problema riguarda se il programma stesso sia in grado di capire). Harnald conclude: “Su queste basi, l’argomento della stanza cinese sembra valido. Sicuramente funziona contro la replica più comune, la ‘replica dei sistemi…”. Harnald sembra seguire Searle nel collegare la comprensione agli stati di coscienza: Harnald (2012) (Altre Risorse Internet) sostiene che Searle mostri che il problema principale del “sentimento” conscio richieda connessioni sensoriali con il mondo reale. (Vedi la sezione “Il contro-argomento del robot” e “Intenzionalità” per un ulteriore discussione in merito).

Infine, altri hanno sostenuto che se anche l’operatore della stanza riuscisse a memorizzare le regole e facesse tutte le operazioni a mente, non potrà diventare il sistema. Cole (1984) e Block (1998) sostengono che ciò che ne risulterebbe non sarebbe l’identità di Searle con il sistema ma un qualcosa di molto più simile a un caso di personalità multipla, ovvero di distinte persone in una singola mente. Il sistema di risposta cinese non sarebbe Searle, ma una sua sotto-parte. Nel caso della stanza cinese, una persona (Searle) parla solo inglese e l’altra parla solo cinese. Il fatto che la persona che parla l’inglese non conosca il significato delle risposte in cinese non mostra che non vi sia comprensione delle stesse. Questa posizione, sostenuta da diverse persone, porta al contro-argomento della mente virtuale (The Virtual Mind Reply).

4.1.1 Il contro-argomento della mente virtuale

Il contro-argomento della mente virtuale concede, così come la replica dei sistemi, che l’operatore della stanza cinese non capisca il cinese semplicemente operando la macchina di Turing. In ogni caso, il contro-argomento della mente virtuale sostiene che l’importante è se o meno si generi comprensione, non se chi è nella stanza sia o meno l’agente che comprende. Al contrario della replica dei sistemi, l’obiezione della mente virtuale sostiene che un sistema in esecuzione potrebbe creare delle entità nuove e virtuali che sono distinte sia dal sistema nel suo complesso, sia dai sub-sistemi quali la CPU o l’operatore. In particolare, un sistema in esecuzione potrebbe creare un agente separato che comprenda il cinese. Questo agente virtuale sarebbe separato sia dall’operatore della stanza, sia dall’intero sistema. I tratti psicologici, tra cui le abilità linguistiche, di ogni mente creata da intelligenze artificiali dipenderanno interamente dal programma e dal database cinese e non saranno identici ai tratti psicologici e alle abilità della CPU o dell’operatore della macchina di Turing, cioè Searle nel caso dell’esperimento della stanza cinese. Secondo la replica della mente virtuale l’errore nell’argomento della stanza cinese è identificare la tesi dell’intelligenza artificiale forte con: “il computer capisce il cinese” o “il sistema capisce il cinese”. La tesi in questione per l’intelligenza artificiale dovrebbe essere semplicemente se o meno “il computer in esecuzione generi comprensione del cinese”.

Un modello familiare di agenti virtuali sono i personaggi dei videogames e gli assistenti digitali come Siri della Apple o Cortana di Microsoft. Questi personaggi hanno molte abilità e personalità e tali personaggi non sono identici all’hardware del sistema o del programma che li genera. Un singolo sistema in esecuzione potrebbe controllare simultaneamente due agenti diversi, o robot fisici, uno dei quali potrebbe parlare solamente in cinese e un altro solamente in inglese, robot che per il resto manifestino personalità, ricordi e abilità cognitive diverse. Quindi, la risposta della mente virtuale ci porta a scindere tra menti e sistemi che le realizzano.

Minsky (1980), Sloman e Croucher (1980) suggerirono un contro-argomento della mente virtuale quando l’argomento della stanza cinese apparve per la prima volta. Nel suo studiatissimo articolo del 1989, “Computation and Consciousness”, Tim Maudlin considera sistemi fisici minimi che possano implementare un sistema computazionale che esegua un programma. Il suo argomento ruota intorno alla sua macchina immaginaria, Olympia, ovvero un sistema di secchi che trasferiscono acqua mentre implementano una macchina di Turing. Il target principale di Maudlin è la tesi dei computazionalisti secondo cui una tale macchina potrebbe avere una coscienza fenomenica. Ciò nonostante, nel corso della sua discussione, Maudlin considera l’argomento della stanza cinese. Maudlin (citando Minsky, e Sloman e Croucher) stila un contro-argomento della mente virtuale secondo cui l’agente che comprende potrebbe essere distaccato dal sistema fisico (p. 414). Quindi “Searle non ha fatto nulla per scartare la possibilità di mentalità disgiunte che esistano simultaneamente” (pp. 414-5).

Perlis (1992), Chalmers (1996) e Block (2002) hanno anch’essi apparentemente sostenuto delle versioni del contro-argomento della mente virtuale, così come ha fatto Richard Hanley ne The Metaphysics of Star Trek (1997). Penrose (2002) critica questa strategia e Stevan Harnad rigetta sdegnosamente tali ricorsi eroici alla metafisica. Harnad difese la posizione di Searle in Virtual Symposium on Virtual Minds (1992) contro Patrick Hayes e Don Perlis. Perlis avanzò un argomento della mente virtuale derivato, a detta sua, da Maudlin. Chalmers (1996) nota che l’operatore della stanza non è che un facilitatore causale, un “demone”, e quindi i suoi stati di coscienza sono irrilevanti per le proprietà del sistema nel suo complesso. Come Maudlin, Chalmes ha sollevato la questione dell’identità: potremmo considerare la stanza cinese come “due sistemi mentali realizzati nello stesso spazio fisico. L’organizzazione che dà origine alle esperienze cinesi è piuttosto distinta dall’organizzazione che dà origine alle esperienze del demone [cioè dell’operatore della stanza]” (p. 326).

Cole (1991, 1994) sviluppa tale replica e sostiene che l’argomento di Searle richiede che colui che comprende è il computer in sé o, nello scenario della stanza cinese, la persona nella stanza. Nonostante ciò, il fatto che Searle nella stanza non riesca a capire il cinese non mostra che non vi sia comprensione. Una delle considerazioni chiave è che nella discussione di Searle la vera conversazione con la stanza cinese è sempre piuttosto ambigua. Searle stava considerando i programmi di Schank, i quali possono rispondere solo a poche domande in merito a cosa succeda in un ristorante, tutti in terza persona. Ma Searle vorrebbe che le sue conclusioni si applicassero a tutte le risposte prodotte dalle intelligenze artificiali, tra cui quelle che supererebbero il più complesso test di Turing senza condizioni, cioè che simulino proprio quel tipo di conversazioni che le persone reali hanno tra di loro. Se riportiamo la conversazione dell’esperimento mentale originale della stanza cinese in modo che includa domande in cinese quali: “Quanto sei alto?”, “Dove vivi?”, “Cosa hai mangiato per colazione?”, “Cosa ne pensi di Mao?” e così via, noteremmo immediatamente che le risposte in cinese non sono quelle di Searle. Searle non è colui che ha formulato le risposte, e le sue credenze, i suoi desideri, i ricordi e i tratti della sua personalità (tranne il suo ingegno!) non sono riflessi nelle risposte che dà e in generale i tratti di Searle sono causalmente inerti rispetto alla produzione delle risposte alle domande in cinese. Questo suggerisce che il seguente condizionale è corretto: se c’è comprensione del cinese generata dall’esecuzione del programma, la mente che comprende il cinese non è il computer, sia esso umano o elettronico. La persona che comprende il cinese sarebbe una persona separata dall’operatore della stanza, con credenze e desideri conferiti dal programma e dal suo database. Quindi, il fatto che Searle non capisca il cinese quando esegue il programma nella stanza non mostra che non si generi comprensione.

Cole (1991) offre un ulteriore argomento, secondo cui la mente che produce la comprensione non è né la mente dell’operatore nella stanza né il sistema costituito dall’operatore e dal programma: eseguire un programma informatico opportunamente strutturato potrebbe produrre risposte a domande chieste in cinese e anche a domande chieste in coreano. Eppure, le risposte in cinese potrebbero apparentemente mostrare delle conoscenze, dei ricordi, delle credenze e dei desideri completamente differenti rispetto a quanto mostrato dalle risposte formulate in coreano – senza contare che si nega che chi risponde in cinese sappia il coreano, e viceversa. Quindi, l’evidenza comportamentale farebbe risultare che sussisterebbero due menti non identiche (una che comprende solo il cinese, una che comprende solo il coreano). Siccome queste possono avere proprietà mutualmente esclusive, non possono essere identiche e, ipso facto, non possono essere identiche alla mente di chi opera nella stanza. Analogamente, un videogioco potrebbe includere un personaggio con un certo set di abilità cognitive (intelligente, che capisce il cinese), così come potrebbe includere un altro personaggio con un set di abilità totalmente incompatibili (stupido e che parla solo inglese). Questi tratti cognitivi non coerenti non possono essere i tratti di un sistema XBOX che li realizzi. Cole argomenta che ciò implica che le menti sono generalmente più astratte rispetto ai sistemi che le realizzano (vedi “Mente e Corpo” nella sezione “Questioni filosofiche più ampie”).

In breve, la replica della mente virtuale sostiene che, siccome le prove che Searle porta circa il fatto che non ci sia comprensione del cinese consiste nel dire che lui (ossia, chi opera nella stanza) non capisce il cinese, l’argomento della stanza cinese non può confutare una tesi dell’intelligenza artificiale che sia ugualmente forte anche se formulata diversamente e che affermi la possibilità che la comprensione venga generata se si usa un computer digitale debitamente programmato. Maudlin (1989) sostiene che Searle non abbia adeguatamente risposto a questa critica.

Altri, tra cui Stevan Haenad e il matematico e fisico Roger Penrose, hanno comunque sia ribattuto contro la replica della mente virtuale. Penrose è tendenzialmente simpatetico nei confronti dei punti che Searle mette in luce nell’argomento della stanza cinese, e ha avanzato un argomento contro la replica della mente virtuale. Penrose non crede che i processi computazionali possano giustificare il possesso di coscienza, sia sulla base dell’argomento della stanza cinese, sia a causa delle limitazioni dei sistemi formali rivelate dal teorema di completezza di Kurt Gödel (Penrose ha scritto dei libri sulla mente e la coscienza; Chalmers e altri hanno risposto al riferimento a Gödel). Nel suo articolo del 2002 “Consciousness, Computation, and the Chinese Room”, che si riferisce specificatamente all’argomento della stanza cinese, Penrose sostiene che la variante della palestra cinese – cioè quella in cui si immagina una stanza che abbia le dimensioni dell’India, con degli indiani che eseguano il programma – mostra che è davvero poco plausibile sostenere che ci sia “un qualche tipo di ‘comprensione’ scorporata associata alla persona che sta eseguendo quell’algoritmo e la cui presenza non impatti in nessun modo sulla sua stessa coscienza” (pp. 230-1). Penrose conclude che l’argomento della stanza cinese confuti la tesi dell’intelligenza artificiale forte. Christiaan Kaernbach (2005) riporta di aver sottoposto la teoria della mente virtuale a un test empirico, che ha avuto esiti negativi.

4.2 Il contro argomento del robot

Il contro-argomento del robot ammette che Searle abbia ragione riguardo allo scenario della stanza cinese: mostra che un computer intrappolato in una sala computer non possa comprendere la lingua, o cosa le parole significhino. Il contro-argomento del robot risponde al problema che concerne il conoscere il significato della parola cinese che corrisponde ad ‘hamburger’ – l’esempio di Searle che riguarda qualcosa che l’operatore nella stanza non conosce. Sembra ragionevole sostenere che molti di noi sappiano cosa sia un hamburger perché ne hanno visto uno, e forse ne abbiano anche cucinato o assaggiato uno, o almeno ne abbiano sentito parlare e abbiano capito cosa siano mettendoli in relazione con cose che conoscono attraverso la vista, il tatto e il gusto. Ammesso che sia così che qualcuno impara cosa siano gli hamburger, il contro-argomento del robot suggerisce di mettere un computer digitale nel corpo di un robot che possieda sensori, quali videocamere e microfoni, e di aggiungervi degli effettori, quali ruote per muoversi in giro e braccia con cui interagire con le cose nel mondo. Un robot di questo tipo, un robot con un corpo, potrebbe fare ciò che fa un bambino, ossia imparare vedendo e facendo. Il contro-argomento del robot sostiene che se un computer digitale di quel genere in un corpo da robot fosse liberato dalla stanza potrebbe collegare i significati ai simboli e capire davvero il linguaggio naturale. Margaret Boden, Tim Crane, Daniel Dennett, Jerry Fodor, Stevan Harnad, Hans Moravec e Georges Rey sono coloro che hanno sostenuto delle versioni di questa contro-argomentazione, sebbene in tempi diversi. Il contro-argomento del robot si appella in effetti al “contenuto ampio” o alla “semantica esternista”. Questo può trovarsi d’accordo con la tesi di Searle secondo cui la sintassi e le connessioni interne in isolamento dal mondo sono insufficienti per comprendere la semantica, mantenendo allo stesso tempo che adeguate connessioni causali con il mondo possano fornire un contenuto ai simboli interni.

Mentre Searle avanzava l’argomento della stanza cinese molti filosofi della mente e del linguaggio iniziavano a riconoscere l’importanza che hanno le connessioni causali con il mondo come principale fonte di significato o riferimento per parole e concetti. Hilary Putnam (1981) argomentò che un cervello in una vasca, isolato dal mondo, potrebbe parlare o pensare in una lingua che suoni come l’inglese, ma che tuttavia non sia inglese – dunque, un cervello in una vasca non potrebbe chiedersi se è un cervello in una vasca (perché, a causa del suo isolamento sensoriale, le parole ‘cervello’ e ‘vasca’ non si riferiscono a cervelli e vasche). La posizione per cui il significato è determinato dalle relazioni tra parole e mondo divenne piuttosto diffusa. Searle resistette a questa svolta verso l’esternismo e continuò a pensare al significato come soggettivo e connesso alla coscienza.

Una posizione correlata, secondo cui le menti si possono meglio comprendere quando contenute o incorporate nel mondo, ha guadagnato molti sostenitori dagli anni ‘90, in contrapposizione con le intuizioni solipsistiche cartesiane. Gli organismi si affidano alle caratteristiche ambientali per affermare il loro comportamento. Quindi, sia che si veda la mente come sistema di elaborazione di simboli, i cui simboli ottengono il loro contenuto dalle connessioni sensoriali con il mondo, o come sistema non simbolico che si afferma perché incorporato in un particolare ambiente, viene fuori l’importanza delle cose “fuori dalla testa” (ovvero delle cose nel mondo). Perciò, molti sono simpatetici nei confronti di qualche forma del contro-argomento del robot: è possibile che un sistema computazionale capisca, purché agisca nel mondo. Ad esempio, Carter (2007), in un libro di testo su filosofia e intelligenza artificiale, conclude: “La lezione da trarre dall’esperimento mentale della stanza cinese è che l’esperienza incorporata è necessaria per lo sviluppo della semantica”.

Nonostante ciò, Searle non pensa che l’obiezione del robot all’argomento della stanza cinese sia più forte della replica dei sistemi. Tutto quello che i sensori possono fare è dare degli input in più al computer, che saranno solo di tipo sintattico. Questo si vede se facciamo un cambio parallelo nello scenario della stanza cinese. Si immagini che l’uomo nella stanza cinese riceva, oltre ai caratteri cinesi passati da sotto la porta, una sequenza di cifre binarie che compaiono, per esempio, su una teletrascrivente in un angolo della stanza. Il libretto d’istruzioni è aggiornato per usare i numeri del nastro come imput, assieme ai caratteri cinesi. All’insaputa dell’uomo nella stanza, i simboli sul nastro sono l’output digitalizzato di una videocamera (e forse anche di altri sensori). Searle sostiene che ulteriori imput sintattici non faranno alcuna differenza per l’associazione tra significati e caratteri cinesi. È solo lavoro in più per l’uomo della stanza.

Jerry Fodor, Hilary Putnam e David Lewis sono stati i principali autori della teoria della mente computazionale, conto cui si scaglia l’argomento esteso di Searle. Nella sua risposta originale del 1980 a Searle, Fodor ammette che Searle abbia certamente ragione nel dire che “istanziare lo stesso programma di un cervello non è, di per sé, sufficiente per avere quegli atteggiamenti proposizionali caratteristici dell’organismo che ha un cervello”. Tuttavia, Fodor sostiene che Searle non abbia ragione riguardo l’obiezione del robot. Un computer potrebbe avere atteggiamenti proposizionali se possedesse le connessioni causali corrette al mondo – ma queste non sono quelle mediate da un uomo seduto nella testa di un robot. Non sappiamo quali siano tali connessioni causali corrette. Searle commette l’errore di dedurre da “l’omino non è la connessione causale corretta” la conclusione che nessun collegamento causale avrebbe successo. Abbiamo considerevoli evidenze empiriche che i processi mentali coinvolgono la “manipolazione di simboli”; Searle non ci dà alcuna spiegazione alternativa (questo è talvolta definito l’argomento di Fodor de “Only Game in Town” per gli approcci computazionali). Negli anni ‘80 e ’90 Fodor scrisse molto su quali debbano essere le connessioni tra uno stato cerebrale e il mondo perché lo stato abbia proprietà intenzionali (rappresentazionali), sottolineando anche che il computazionalismo ha dei limiti perché le computazioni sono intrinsecamente locali e quindi non possono spiegare il ragionamento abduttivo.

In un articolo successivo, “Yin and Yang in the Chinese Room” (in Rosenthal 1991 pp. 524-525), Fodor rivede considerevolmente la sua posizione del 1980. Prende le distanze dalla sua precedente versione del contro-argomento del robot, e sostiene invece che l’“istanziazione” dovrebbe essere definita in modo tale che il simbolo sia la causa prossima dell’effetto – senza l’ingerenza di nessun tizio in una stanza. Quindi, Searle nella stanza non è un’istanziazione di una macchina di Turing e “la configurazione di Searle non istanzia la macchina che istanzia il cervello”. E conclude: “… lo schema di Searle è irrilevante ai fini della tesi per cui l’equivalenza forte con il cervello di un parlante cinese è ipso facto sufficiente per parlare cinese”. Searle dice della mossa di Fodor: “Di tutte i milioni di critiche all’argomento della stanza cinese, quella di Fodor è forse la più disperata. Egli sostiene che proprio perché l’uomo nella stanza cinese si propone di implementare i passaggi di un programma informatico, egli non sta implementando i passaggi di un programma informatico. Non offre alcuna argomentazione per questa affermazione incredibile” (in Rosenthal 1991, p. 525).

Nell’articolo del 1986, Geroges Ray sostenne un argomento che è la combinazione tra l’obiezione del robot e quella del sistema, dopo aver notato che il testo originale di Turing era insufficiente per misurare l’intelligenza e la comprensione e che il sistema isolato che Searle descrive nella stanza è certamente impari a livello funzionale rispetto a un vero parlante cinese che percepisce tramite i sensi e agisce nel mondo. In una seconda rivisitazione del 2002, “Searle’s Misunderstanding of functionalism and strong AI”, Ray difende il funzionalismo contro Searle, nella particolare forma che Ray chiama “teoria del pensiero computazionale-rappresentazionale” (computational-representational theory of thought) o CRTT. La CRTT non si impegna ad attribuire pensiero a ogni singolo sistema che passi il test di Turing (a differenza dell’argomento della stanza cinese). Né difende un modello manuale di conversazione per la comprensione del linguaggio naturale. Piuttosto, la CRTT concerne l’intenzionalità, naturale e artificiale (le rappresentazioni nel sistema sono semanticamente valutabili: sono vere o false, quindi hanno un riferimento). Searle attribuisce al funzionalismo il carattere di “scatola nera” del comportamentismo, ma al funzionalismo interessa come si fanno le cose. Rey abbozza l’idea di “una mente modesta”: un sistema CRTT che ha percezione, può fare inferenze deduttive e induttive, prende decisioni sulla base di obiettivi e rappresentazioni di come è il mondo e può elaborare il linguaggio naturale convertendo da e verso le sue rappresentazioni originarie. Per spiegare il comportamento di un tale sistema avremmo bisogno di usare le stesse attribuzioni necessarie per spiegare il comportamento di un normale parlante cinese.

Se valutassimo la conversazione cinese nel contesto del contro-argomento del robot verrebbe fuori che l’entità che comprende non è l’operatore nella stanza. Supponendo di chiedere al robot la traduzione cinese di: “cosa vedi?”, si potrebbero ottenere come risposte: “Il mio vecchio amico Shakey” o “Vedo te!”. Mentre se chiamiamo Searle nella stanza e gli chiediamo le stesse domande in inglese potremmo sentirci rispondere: “Le stesse quattro mura” o “questi maledetti, infiniti libretti di istruzioni e taccuini”. Di nuovo, questa è una prova del fatto che siano due persone diverse che rispondono, un parlante inglese e uno cinese, che vedono e fanno cose diverse. Se il robot gigante avesse uno scatto d’ira e distruggesse mezza Tokyo e nello stesso momento Searle, ignaro, continuasse a seguire il programma sui suoi taccuini nella stanza, non sarebbe né colpevole dell’omicidio né del caos, perché non è l’agente che ha commesso quegli atti.

Tim Crane discute l’argomento della stanza cinese nel suo libro del 1991, The Mechanical Mind. Crane cita l’analogia della stanza luminosa di Churchland, ma poi prosegue sostenendo che nell’eseguire le operazioni nella stanza Searle avrebbe imparato il significato del cinese: “…se Searle non avesse solo memorizzato le regole e i dati, ma avesse anche iniziato ad agire nel mondo dei cinesi, allora è plausibile che in breve tempo sarebbe arrivato a capire cosa significano questi simboli” (p. 127). (Rapaport, 2006, propone un’analogia tra Helen Keller e l’argomento della stanza cinese). Crane sembra terminare con una versione del contro-argomento del robot: “L’argomento di Searle in sé si pone la domanda (in effetti) tramite la sola negazione della tesi centrale dell’intelligenza artificiale – ovvero che pensare sia un’elaborazione formale di simboli. Ma l’ipotesi di Searle, nonostante ciò, mi sembra corretta… la risposta corretta all’argomento di Searle è: certo, Searle-nella-stanza, o la stanza da sola, non possono capire il cinese. Ma se si lascia che il mondo esterno abbia una certa influenza sulla stanza, il significato o la ‘semantica’ potrebbe iniziare a prendere piede. Ma, naturalmente, questo comporta che il pensiero non possa essere semplicemente un’elaborazione di simboli” (p. 129). L’idea che la comprensione si fondi sull’apprendimento ha portato a studi nello sviluppo della robotica (quali le robotiche epigenetiche). Quest’area di ricerca dell’intelligenza artificiale cerca di replicare le principali abilità di apprendimento umane, quali i robot a cui si mostra un oggetto da varie angolature mentre gli viene detto, nel linguaggio naturale, il nome dell’oggetto.

Margaret Boden (1988) ha anche lei argomentato che Searle suppone erroneamente che i programmi siano pura sintassi. Ma i programmi realizzano l’attività di certe macchine: “Le conseguenze procedurali inerenti di ogni programma informatico hanno un punto d’appoggio nella semantica, dove la semantica in questione non è denotativa, ma causale” (250). Quindi un robot potrebbe avere dei poteri causali che gli permettono di riferirsi agli hamburger.

Anche Stevan Harnad ritiene importanti le nostre capacità motorie e sensoriali: “Chi può dire che il test di Turing, sia esso condotto in cinese o in qualsiasi altra lingua, può essere superato con successo senza operazioni che attingano anche alle nostre capacità sensoriali, motorie e ad altre capacità cognitive superiori? Dove inizia la capacità di comprendere il cinese e dove finisce il resto delle nostre competenze mentali?”. Harnad ritiene che le funzioni simboliche debbano essere basate sulle funzioni “robotiche” che collegano un sistema al mondo. E pensa che questo conti contro rappresentazioni simboliche della mente, come quella di Jerry Fodor, e, si sospetta, l’approccio di Roger Schank, che era il bersaglio originale di Searle. Harnad, (2012) (Altre risorse internet), sostiene che l’argomento della stanza cinese mostra che quando si ha un robot i cui simboli hanno base nel mondo esterno c’è sempre qualcosa che si perde: le sensazioni, come ad esempio la sensazione di comprendere.

Comunque sia, Ziemke (2016) argomenta che un’incarnazione robotica con sistemi stratificati di regolazione corporale potrebbe fornire le basi per emozioni e significati, e Seligman (2019) afferma che gli approcci “fondati sulla percezione” fino al processo naturale del linguaggio (NLP) abbiano “il potenziale di mostrare intenzionalità, e quindi, dopo tutto, promuovere una semantica veramente significativa che, per la visione di Searle e altri scettici, sia intrinsecamente oltre le “capacità” dei computer”.

4.3 La replica del simulatore cerebrale

Si consideri un computer che lavora in modo diverso dal solito programma di intelligenza artificiale con script e operazioni sotto forma di stringhe di simboli simili a frasi. La replica del simulatore cerebrale ci chiede invece di supporre che il programma simuli effettivamente le scariche nervose che si verificano nel cervello di una persona madrelingua cinese quando capisce la propria lingua – ogni nervo, ogni scossa. Visto che il computer lavorerà nello stesso identico modo di un madrelingua cinese, elaborando le informazioni nello stesso modo, capirà il cinese. Paul e Patricia Churchland hanno elaborato una risposta seguendo tali linee, discussa qui di seguito.

In risposta a ciò, Searle sostiene che non fa nessuna differenza. Searle suggerisce una variazione nello scenario del simulatore cerebrale: supponete che nella stanza l’uomo abbia una grande quantità di valvole e tubi dell’acqua, nella stessa sistemazione dei neuroni nel cervello di un madrelingua cinese. Il programma ora indica all’uomo quali valvole aprire in riposta all’input. Searle sostiene che è ovvio che non ci sarebbe comprensione del cinese. (Si noti che questa affermazione non è più basata solamente sul fatto che Searle non capisca il cinese – sembra chiaro che ora sta solo facilitando il funzionamento causale del sistema e quindi ci affidiamo alla nostra intuizione leibniziana che gli acquedotti non capiscono (vedi anche Maudlin 1989).) Searle conclude dicendo che una simulazione dell’attività cerebrale non è reale.

Tuttavia, seguendo Pylyshyn (1980), Cole e Foelber (1984), Chalmers (1996), potremmo interrogarci sui sistemi ibridi. Pylyshyn scrive:

Se sempre più cellule nel tuo cervello venissero sostituite da chip a circuiti integrati, programmati in modo da mantenere la funzione input-output di ogni unità identica a quella dell’unità sostituita, con ogni probabilità continueresti a parlare esattamente come stai facendo ora, tranne che alla fine smetteresti di dargli un significato. Quelle che noi osservatori esterni potremmo prendere per parole, diventerebbero per voi solo certi rumori che i circuiti vi fanno fare.

Questi esperimenti di cyborghizzazione possono essere collegati alla stanza cinese. Supponiamo che Otto abbia una malattia dei neuroni che porta uno dei miei neuroni a non funzionare, e che i chirurghi istallino un minuscolo neurone artificiale controllato a distanza, un synron, attaccato al suo neurone disattivato. John Searle nella stanza cinese controlla il neurone di Otto, all’insaputa sia di Searle che di Otto. Minuscoli fili collegano il neurone artificiale alle sinapsi sul corpo cellulare del suo neurone disattivato. Quando il suo neurone artificiale viene stimolato dai neuroni che creano sinapsi sul suo neurone disattivato, una luce si accende nella stanza cinese. Searle manipola delle valvole e degli interruttori seguendo un programma. Questo, attraverso il collegamento radio, causa il neurone artificiale di Otto a rilasciare dei neuro-trasmettitori dalle sue minuscole vescicole artificiali. Se le attività programmate da Searle portano il neurone artificiale di Otto a comportarsi come faceva il suo neurone naturale disattivato, il modo di comportarsi del resto del suo sistema nervoso resterà invariato. Ahimè, la malattia di Otto prosegue; sempre più neuroni sono sostituiti da synron controllati da Searle. In base all’ipotesi formulata il resto del mondo non noterebbe la differenza; la noterebbe Otto? Se sì, quando? E perché?

Nella rubrica “La replica della combinazione” (“The combination reply”), Searle considera anche un sistema che abbia le caratteristiche di tutti e tre i precedenti: un robot con un computer che simuli un cervello digitale nel suo cranio, tale che il sistema nel suo insieme si comporti in maniera indistinguibile rispetto ad un umano. Poiché l’input normale al cervello proviene dagli organi di senso, è naturale supporre che molti dei sostenitori della replica del simulatore cerebrale abbiano in mente una tale combinazione tra le repliche della simulazione cerebrale, del robot e dei sistemi. Alcuni (ad esempio Rey 1986) sostengono che sia ragionevole attribuire intenzionalità a un tale sistema nel suo insieme. Searle concorda sul fatto che sarebbe ragionevole attribuire comprensione ad un tale sistema androide, ma solo finché non si sappia come funziona. Non appena si conoscesse la verità – che si tratta di un computer, che manipola in maniera incomprensibile dei simboli sulla base della sintassi, non del significato – si cesserebbe di attribuirgli intenzionalità.

(Si presume che questo sarebbe vero anche se fosse il proprio coniuge, con il quale si è costruita una relazione che dura da una vita, ad essere smascherato di nascondere un tale segreto industriale. I racconti di fantascienza, compresi gli episodi della serie televisiva The Twilight Zone di Rod Serling, sono basati su tali possibilità (la faccia dell’amato si stacca solo per rivelare la orribile verità androide); tuttavia, Steven Pinker (1997) menziona un episodio in cui il segreto dell’androide si conosceva sin dall’inizio, ma il protagonista sviluppa comunque una relazione romantica con l’androide).

Per il suo decimo anniversario, l’argomento della stanza cinese venne inserito nel periodico scientifico Scientific American. In quel numero a guidare la critica all’articolo principale di Searle erano i filosofi Paul e Patricia Churchland. I Churchland concordano con Searle nel sostenere che la stanza cinese non comprende il cinese, ma sostengono che l’argomento in sé metta in luce la nostra ignoranza sui fenomeni cognitivi e semantici. Riprendono il caso parallelo del “la stanza luminosa” in cui qualcuno sventola un magnete e spiega che l’assenza di una luce visibile che risulti da quel gesto mostra che la teoria elettromagnetica di Maxwell è falsa. I Churchland portano avanti una visione della mente come sistema di connessioni, un trasformatore vettoriale, non come sistema che manipola simboli a seconda delle regole sensibili alle strutture. Il sistema della stanza cinese usa le strategie computazionali sbagliate. Sono quindi contro l’intelligenza artificiale come Searle, ma presumibilmente sosterebbero quella che Searle chiama “la replica del simulatore cerebrale”, argomentando che, come nella stanza luminosa, le nostre intuizioni ci ingannano quando consideriamo sistemi di tale complessità, una fallacia che va dalla parte al tutto: “… nessun neurone nel mio cervello comprende l’inglese, sebbene il mio intero cervello ne sia in grado”.

Nel suo libro del 1991, Microcognition, Andy Clark sostiene che Searle abbia ragione a dire che il computer che esegue il programma di Schank non sappia nulla in fatto di ristoranti, “almeno, se con ‘sapere’ intendiamo dire ‘comprendere’. Ma Searle pensa che questo si possa applicare a qualsiasi modello computazionale, mentre Clark, come i Churchland, sostengono che Searle sbagli riguardo i modelli connessionisti. L’interesse di Clark è dunque rivolto alla replica del simulatore del cervello. Il cervello pensa in virtù delle sue proprietà fisiche. Quali proprietà fisiche del cervello sono importanti? Clark risponde sostenendo che ciò che del cervello è importante sono “le strutture flessibili e variabili” che le intelligenze artificiali convenzionali non hanno. Ma ciò non significa che il computazionalismo e il funzionalismo non siano corretti.

Dipende dal livello in cui vengono considerate le unità funzionali. Clark difende il “micro-funzionalismo”: si dovrebbe guardare ad una descrizione funzionale molto specifica, ad esempio a livello di reti neurali. Clark cita William Lycan approvando l’obiezione dei qualia assenti di Block: sì, ci possono essere qualia assenti se le unità funzionali vengono allargate. Ma questo non costituisce una confutazione del funzionalismo in generale. Quindi il punto di vista di Clark non è diverso da quello dei Churchland, che ammettono che Searle abbia ragione su Schank e sui sistemi di elaborazione a livello simbolico, ma ritengono che si sbagli sui sistemi connessionisti.

Analogamente, Ray Kurzweil (2002) sostiene che si potrebbe ribaltare l’argomento di Searle al fine di mostrare che il cervello umano non può comprendere: il cervello ci riesce elaborando le concertazioni di neurotrasmettitori e altri meccanismi che di per sé sono insignificanti. Nella critica alla risposta di Searle alla replica del simulatore cerebrale Kurtzweil dice: “Quindi, se ingrandiamo la stanza cinese di Searle fino a farla diventare l’enorme stanza che dovrebbe essere, chi dice che l’intero sistema di centomila miliardi di persone, che simula un cervello cinese e che conosce il cinese, non sia cosciente? Certamente sarebbe corretto dire che un sistema di questo tipo conosca il cinese. E non possiamo dire che non sia cosciente più di quanto possiamo dirlo di qualsiasi altro processo. Non possiamo conoscere l’esperienza soggettiva di un’altra entità…”.

4.4 L’obiezione del problema delle altre menti

Collegata alla precedente è l’obiezione del problema delle altre menti: “Come si fa a sapere che le altre persone capiscono il cinese o qualsiasi altra cosa? Solo dal loro comportamento. Ora, il computer può superare i test comportamentali nel miglior modo possibile (in linea di principio), quindi se si intende attribuire cognizione ad altre persone si deve in linea di principio attribuirla anche ai computer”.

La risposta di Searle (1980) è molto breve:

Il problema in questa discussione non riguarda il modo in cui so che altre persone hanno stati cognitivi, ma piuttosto riguarda quello che sto attribuendo loro quando attribuisco loro stati cognitivi. Il punto dell’argomento è che non si potrebbe trattare solo dei processi computazionali e del loro output, perché i processi computazionali e il loro output possono esistere senza che esista uno stato cognitivo. Non è una risposta a questo argomento mostrarsi inerti. Nelle “scienze cognitive” si presuppone la realtà e la conoscibilità del mentale nello stesso modo in cui nelle scienze fisiche si deve presupporre la realtà e la conoscibilità degli oggetti fisici.

I critici sostengono che se i fatti riguardanti la comprensione degli esseri umani sono gli stessi che potremmo avere di un alieno extraterrestre che visitasse la Terra, che sono gli stessi elementi che abbiamo del fatto che un robot comprende, le presupposizioni che possiamo avanzare nel caso della nostra specie non sono rilevanti, poiché a volte tali presupposizioni risultano false. Per ragioni simili, Turing, nel proporre il suo test di Turing, è particolarmente preoccupato delle nostre presupposizioni e del nostro sciovinismo. Se le ragioni delle presupposizioni riguardanti gli esseri umani sono pragmatiche, in quanto ci consentono di prevedere il comportamento degli esseri umani e di interagire con loro in maniera efficace, forse tale presupposizione potrebbe applicarsi allo stesso modo ai computer (considerazioni simili sono esposte da Dennett nelle sue discussioni su ciò che definisce “posizione intenzionale”).

Searle si chiede cosa stiamo facendo quando attribuiamo la comprensione ad altre menti – fa notare che ciò è più che attribuire complesse disposizioni comportamentali. Per Searle ciò che ne resta fuori sembrano essere determinati stati di coscienza, come si vede nel suo riassunto del 2010 delle conclusioni dell’argomento della stanza cinese. Terry Horgan (2013) approva quest’idea: “la vera morale dell’esperimento mentale della stanza cinese di Searle è che l’intenzionalità richiede la presenza di stati interni con un carattere fenomenico intrinseco che è intrinsecamente intenzionale …” Ma questo collegamento dalla comprensione alla coscienza fenomenica solleva un una miriade di problemi.

Attribuiamo una comprensione limitata del linguaggio a bambini piccoli, cani e altri animali, ma non è chiaro se stiamo attribuendo ipso facto stati invisibili di coscienza soggettiva: cosa sappiamo degli stati nascosti di creature non comuni? Ludwig Wittgenstein (con l’argomento contro il linguaggio privato) e i suoi seguaci hanno insistito su punti simili. Si presentano possibilità di qualia alterati, analoghe allo spettro invertito: supponiamo che io chieda: “qual è la somma di 5 e 7?” e tu risponda: “la somma di 5 e 7 è 12”, ma, supponiamo anche che, non appena tua abbia sentito la mia domanda abbia avuto l’esperienza cosciente di sentire e capire: “qual è la somma di 10 e 14?”, nonostante ti trovassi negli stati computazionali appropriati per produrre la somma corretta, e avessi dunque risposto: “12”. Esistono stati coscienti che sono “corretti” per certi stati funzionali? Le considerazioni di Wittgenstein sembrano dire che lo stato soggettivo è irrilevante (nel migliore dei casi è epifenomenico) nel caso in cui un parlante della lingua mostri un comportamento linguistico appropriato. Dopotutto, ci viene insegnato il linguaggio sulla base delle nostre risposte di fatto, non sulla base dei nostri qualia. Il matematico esperto Daniel Tammet riferisce che quando egli considera l’espansione decimale di Pi greco a migliaia di cifre, egli stesso ha l’esperienza di colori che rivelano la cifra successiva – ma anche qui può darsi che la performance di Tennant non sia probabilmente prodotta dai colori che gli si presentano fenomenicamente, ma piuttosto da un calcolo neurale inconscio. L’importanza possibile degli stati soggettivi verrà ulteriormente esaminata nella sezione sull’intenzionalità, di seguito.

Nei trent’anni trascorsi dall’argomento della stanza cinese si è sviluppato un interesse filosofico per gli zombi: creature che assomigliano e si comportano come normali esseri umani, compreso il fatto di mostrare lo stesso comportamento linguistico ma che non hanno coscienza soggettiva. In questi casi di qualia assenti sorgeranno difficoltà nell’affermare che gli stati di coscienza soggettivi sono cruciali per la comprensione del significato: se non possiamo individuare la differenza tra zombi e non zombi nell’esperimento mentale di Searle non possiamo capire la differenza tra quelli che comprendono veramente l’inglese e quelli che lo comprendono. E se tu ed io non siamo in grado di distinguere tra coloro che capiscono il linguaggio e gli zombi che si comportano come se lo capissero quando in realtà non è così, allora non vi è alcun fattore di selezione nella storia dell’evoluzione che possa farlo – predatori, prede e simili, zombie e veri parlanti che capiscono, che abbiano la “giusta” esperienza cosciente, sono indistinguibili. Ma allora sembra esserci una distinzione senza reali differenze. In ogni caso, la breve risposta di Searle alla replica del problema delle altre menti potrebbe essere troppo frettolosa.

Cartesio ha sostenuto notoriamente che la parola è sufficiente per attribuire ad altri mente e coscienza, e ha sostenuto, altrettanto notoriamente, che questo fosse anche necessario. Turing sostenne in effetti la condizione di sufficienza di Cartesio, almeno per l’intelligenza, mentre sostituì la scrittura al comportamento linguistico orale. Poiché la maggior parte di noi usa la verbalizzazione come condizione sufficiente per attribuire comprensione, l’argomento di Searle, che sostiene che la parola è una condizione sufficiente per attribuire la comprensione agli esseri umani ma non a tutto ciò che non condivide la nostra biologia, sembrerebbe necessario un argomento riguardo a cosa viene attribuito in aggiunta e cosa può giustificare tale attribuzione aggiuntiva. Inoltre, se per Searle è fondamentale appartenere alla stessa specie, sorge spontanea una domanda su quali circostanze giustificherebbero l’attribuzione di comprensione (o di coscienza) ad alieni extraterrestri che non condividessero la nostra biologia. Offendere gli extraterrestri negandogli attribuzioni di comprensione fino al momento successivo ad una loro autopsia potrebbe essere rischioso.

Hans Moravec, direttore del laboratorio di robotica presso la Carnegie Mellon University e autore di Robot: Mere Machine to Transcendent Mind, sostiene che la posizione di Searle riflette semplicemente le intuizioni della filosofia della mente tradizionale che non sono al passo con la nuova scienza cognitiva. Moravec concorda con una versione dell’obiezione delle altre menti. Ha senso attribuire intenzionalità alle macchine per le stesse ragioni per cui ha senso attribuirla agli umani; la sua “posizione interpretativa” è simile alle opinioni di Daniel Dennett. Moravec prosegue facendo notare che una delle cose che attribuiamo agli altri è la capacità di fare attribuzioni di intenzionalità, e poi facciamo le stesse attribuzioni a noi stessi. È questa rappresentazione di sé che è al centro della coscienza. Queste capacità sembrano essere indipendenti dall’implementazione, e quindi possibili per alieni e computer opportunamente programmati.

Come abbiamo visto, la ragione per cui Searle pensa che possiamo ignorare i fatti nel caso di robot e computer è che sappiamo che l’elaborazione da parte loro è sintattica, e questo fatto batte tutte le altre considerazioni. In effetti, Searle crede che questo sia il punto più generale che la stanza cinese si limita solo ad illustrare. Questo punto più generale è affrontato nella sezione “Sintassi e semantica” di seguito.

4.5 L’obiezione delle intuizioni

Molte repliche all’argomento della stanza cinese hanno messo in luce che, come accade con il mulino di Leibniz, l’argomento sembra essere basato su un’intuizione: l’intuizione che un computer (o l’uomo nella stanza) non può pensare né comprendere. Ad esempio, Ned Block (1980) nel suo commentario originale al The Behavioral and Brain Sciences afferma: “L’argomento di Searle dipende per la sua efficacia dall’intuizione che certe entità non pensano”. Ma, sostiene Block, (1) le intuizioni a volte possono e devono essere tralasciate e (2) forse abbiamo bisogno di allineare il nostro concetto di comprensione ad una realtà in cui alcuni robot informatici appartengono allo stesso genere naturale a cui appartengono gli umani. Allo stesso modo Margaret Boden (1988) sottolinea che non possiamo fidarci delle nostre intuizioni non istruite su come la mente dipende dalla materia; l’evoluzione della scienza può cambiare le nostre intuizioni. In effetti, l’eliminazione dei pregiudizi dalle nostre intuizioni fu precisamente ciò che spinse Turing (1950) a proporre il test di Turing, un test che non teneva conto del carattere fisico del sistema che risponde alle domande. Alcuni dei critici di Searle in effetti sostengono che Searle abbia semplicemente ricacciato l’idea di affidarsi alle intuizioni dentro nella stanza.

Ad esempio, si può sostenere che, nonostante Searle creda intuitivamente di non capire il cinese mentre si trova nella stanza forse si sbaglia e in realtà lo capisce, sebbene inconsciamente. Hauser (2002) accusa Searle di pregiudizi cartesiani quando inferisce da “mi sembra abbastanza ovvio che non capisco niente” la conclusione che non capisco davvero nulla. Normalmente, se si capisce l’inglese o il cinese si sa che lo si fa, ma non è necessario che lo si sappia. A Searle manca la normale consapevolezza introspettiva della comprensione, ma questo, sebbene anormale, non è decisivo.

I critici dell’argomento della stanza cinese notano che le nostre intuizioni su intelligenza, comprensione e significato potrebbero essere tutte inaffidabili. Per quanto riguarda il significato, Wakefield (2003), in seguito a Block (1998), difende quella che chiama “l’obiezione essenzialista” all’argomento della stanza cinese, vale a dire che un resoconto computazionale del significato non è un’analisi dei concetti ordinari e delle relative intuizioni. Piuttosto si sta costruendo una teoria scientifica del significato che potrebbe richiedere la revisione delle nostre intuizioni. Come teoria ottiene la sua verifica dal suo potere esplicativo, non dal suo accordo con le intuizioni pre-teoretiche (tuttavia lo stesso Wakefield sostiene che i resoconti computazionali del significato sono affetti da una perniciosa indeterminatezza (pp. 308ss)).

Altri critici che si concentrano sul ruolo delle intuizioni nell’argomento della stanza cinese sostengono che anche le nostre intuizioni riguardanti sia l’intelligenza che la comprensione possono essere inaffidabili e forse addirittura incompatibili con la scienza contemporanea. Riguardo alla comprensione, Steven Pinker, in How the Mind Works (1997), sostiene che “… Searle sta semplicemente esaminando fatti sulla parola inglese ‘capire’…. Le persone sono riluttanti a usare tale parola a meno che non si applichino determinate condizioni stereotipiche …” Ma, afferma Pinker, non c’è nulla in gioco scientificamente parlando. Pinker si oppone all’appello di Searle ai “poteri causali cerebrali” osservando che il luogo apparente dei poteri causali sono i “modelli di interconnettività che eseguono la corretta elaborazione delle informazioni”. Pinker conclude la sua discussione citando un racconto di fantascienza in cui gli alieni, anatomicamente del tutto diversi dagli umani, non riescono a credere che gli umani pensino una volta scoperto cheobje le nostre teste sono piene di carne. Le intuizioni degli alieni sono inaffidabili – dunque, presumibilmente, anche le nostre potrebbero esserlo.

Chiaramente l’argomento della stanza cinese attiva ciò che è necessario per comprendere la lingua. Schank (1978) chiarisce la sua affermazione su ciò che pensa possano fare i suoi programmi: “Con ‘capire’, intendiamo che SAM [uno dei suoi programmi] può creare una catena causale collegata di concettualizzazioni che rappresentano ciò che è avvenuto in ogni racconto”.

Questa è una lettura sfumata del termine ‘comprensione’, mentre l’esperimento mentale della stanza cinese non riguarda una lettura tecnica di ‘comprensione’, ma piuttosto riguarda le intuizioni sulla nostra competenza ordinaria quando capiamo una parola come ‘hamburger’. Infatti, entro il 2015 Schank prenderà le distanze dalle interpretazioni deboli di ‘comprensione’, sostenendo che nessun computer può “capire quando gli dici qualcosa” e che il WATSON di IBM “non sa cosa sta dicendo”. Il programma di Schank può fare collegamenti corretti, ma probabilmente non sa quali sono le entità collegate. A proposito del fatto di se questo dipende o meno da cosa sono i concetti, vedere la sezione 5.1. Inoltre, è possibile che quando si tratta di attribuire comprensione del linguaggio abbiamo standard diversi per cose diverse: più rilassati per cani e bambini piccoli. Alcune cose capiscono un linguaggio “un poco”. Searle (1980) ammette che ci sono livelli di comprensione, ma dice che ciò che conta è che ci sono casi chiari di non comprensione, e che i programmi di intelligenza artificiale ne sono un esempio: “La comprensione del computer non è solo (come la mia comprensione del tedesco) parziale o incompleta; è nulla.”

Alcuni difensori dell’intelligenza artificiale si preoccupano anche di valutare come la nostra interpretazione della comprensione influisca sull’argomento della stanza cinese. Nel loro articolo “A Chinese Room that Understands” i ricercatori sull’intelligenza artificiale Simon ed Eisenstadt (2002) sostengono che, mentre Searle confuta “l’intelligenza artificiale logica forte”, ovvero la tesi che un programma che supera il test di Turing capisca necessariamente, l’argomento di Searle non mette in dubbio “l’intelligenza artificiale empirica forte”, ossia la tesi secondo cui è possibile programmare un computer che soddisfi in modo convincente i normali criteri di comprensione. Gli autori sostengono tuttavia che è impossibile risolvere queste questioni “senza utilizzare una definizione del termine ‘capire’ che sia in grado di fornire un test che possa valutare se l’ipotesi è vera o falsa”. Citano World and Object di W.V.O. Quine mostrando che sussiste sempre un’incertezza empirica quando si attribuisce comprensione agli esseri umani. La stanza cinese è un trucco di Clever Hans (Clever Hans era un cavallo che sembrava dare risposte a semplici domande aritmetiche, ma si è scoperto che Hans era in grado di individuare segnali inconsci inviati dal suo allenatore). Allo stesso modo, l’uomo nella stanza non capisce il cinese, il che potrebbe essere rivelato se lo si guarda da vicino. (Simon ed Eisenstadt non spiegano esattamente come si possa rivelare ciò, o come questo influenzi l’argomento.) Citando il lavoro di Rudolf Carnap, Simon ed Eisenstadt sostengono che capire non è solo esibire un certo comportamento, ma usare “intensioni” che determinano estensioni, e che è possibile di fatto vedere nei programmi se usano le intensioni appropriate. Simon ed Eisenstadt discutono di tre programmi di intelligenza artificiale e difendono varie attribuzioni di proprietà mentali a questi, inclusa la comprensione, e concludono che i computer capiscono; apprendono “le intensità associando parole e altre strutture linguistiche alle rispettive denotazioni, rilevate attraverso stimoli sensoriali”. E poiché possiamo vedere esattamente come funzionano le macchine, “è, infatti, più facile stabilire che una macchina mostra comprensione che stabilire che un essere umano mostra comprensione …” Quindi, concludono, le prove dell’esistenza di un’intelligenza artificiale empirica forte sono schiaccianti.

Allo stesso modo, Daniel Dennett nella sua replica originale del 1980 all’argomentazione di Searle ha definito l’argomento “pompa dell’intuizione”, un termine venuto fuori discutendo l’argomento della stanza cinese con Hofstader. Sharvy (1983) fa eco a questa lamentela. La posizione ponderata di Dennett (2013) è che l’argomento della stanza cinese sia “chiaramente un argomento fallace e fuorviante …” (p. 320). Paul Thagard (2013) propone l’idea secondo cui per ogni esperimento mentale in filosofia esiste un esperimento mentale uguale e contrario. Thagard sostiene che le intuizioni non siano affidabili e che l’argomento della stanza cinese ne sia un esempio (e che di fatto l’argomento della stanza cinese sia stato ora smentito dalla tecnologia dei veicoli autonomi). Dennett ha elaborato le preoccupazioni sulle nostre intuizioni riguardo all’intelligenza. Dennett nel suo “Fast Thinking” (1987) ha espresso preoccupazione per la lentezza con cui opererebbe la stanza cinese ed è stato in questo sostenuto da molti altri commentatori sull’argomento, tra cui Tim Maudlin, David Chalmers e Steven Pinker. È possibile che l’operatore della stanza cinese fornisca infine risposte adeguate alle domande in cinese. Ma i pensatori lenti sono stupidi, non intelligenti – e in natura potrebbero estinguersi. Dennett sostiene che “la velocità … è ‘l’essenza’ dell’intelligenza. Se non riesci a capire ciò che conta nell’ambiente in evoluzione abbastanza velocemente da cavartela da solo, non sei praticamente intelligente, per quanto complesso tu sia” (p. 326). Quindi Dennett lega l’intelligenza alla velocità di elaborazione dei dati nell’ambiente circostante.

Tim Maudlin (1989) non è d’accordo. Maudlin considera il problema della scala temporale indicato da altri autori e conclude, contro Dennett, che l’estrema lentezza di un sistema computazionale non viola alcuna condizione necessaria per l’esistenza di pensiero o coscienza. Inoltre, la tesi principale di Searle riguarda la comprensione, non l’intelligenza o l’arguzia. Se dovessimo incontrare extraterrestri in grado di elaborare le informazioni mille volte più rapidamente di noi, non diremmo che questo dimostri nulla sulla nostra rallentata capacità di comprendere le lingue che parliamo.

Anche Steven Pinker (1997) sostiene che Searle si affidi ad intuizioni non indirizzate. Pinker propone il controesempio di Churchland (1990) che riguarda un analogo esperimento mentale in cui un magnete viene sventolato senza che si generi luce, osservando che questo risultato non smentirebbe la teoria di Maxwell secondo cui la luce è costituita da onde elettromagnetiche. Pinker sostiene che la questione chiave sia la velocità: “L’esperimento mentale rallenta le onde fino ad un intervallo in cui noi umani non le vediamo più come luce. Facendo affidamento sulle nostre intuizioni a proposito dell’esperimento mentale concludiamo erroneamente che neanche le onde rapide possono essere luce. Allo stesso modo, Searle ha rallentato i calcoli mentali fino ad un livello in cui noi umani non pensiamo più si tratti di comprensione (poiché la comprensione è normalmente molto più veloce)” (pp. 94-95). Howard Gardiner, un sostenitore delle conclusioni di Searle sulla stanza cinese, avanza un punto simile sulla comprensione. Gardiner affronta l’argomento della stanza cinese nel suo libro The Mind’s New Science (1985, pp. 171-177). Gardiner considera tutte le repliche standard all’argomento della stanza cinese e conclude che Searle ha ragione: “… la parola ‘capire’ è stata estesa eccessivamente nel caso della stanza cinese …” (p. 175).

Dunque, molti in questo gruppo di critici sostengono che la velocità influisce sulla nostra volontà di attribuire intelligenza e comprensione a un sistema lento, come quello della stanza cinese. Il risultato potrebbe essere semplicemente che le nostre intuizioni riguardo alla stanza cinese non sono affidabili, e quindi che l’uomo nella stanza, nell’eseguire il programma, può capire il cinese nonostante le intuizioni contrarie (Maudlin e Pinker). Oppure può essere che la lentezza segni una differenza cruciale tra la simulazione nella stanza e ciò che fa un computer veloce, cosicché l’uomo non è intelligente mentre il sistema informatico lo è (Dennett).

5. Questioni filosofiche più ampie

5.1 Sintassi e semantica

Searle ritiene che l’argomento della stanza cinese supporti una tesi più ampia, che spiega perché la stanza cinese non produce comprensione. Searle ha affermato che i programmi implementati dai computer sono solo sintattici. Le operazioni del computer sono “formali”, in quanto rispondono solo alla forma fisica delle stringhe di simboli, non al significato dei simboli. Le menti invece possiedono stati con significato, hanno contenuti mentali. Associamo significati alle parole o ai segni nel linguaggio. Rispondiamo ai segni per il loro significato, non solo per il loro aspetto fisico. In breve, capiamo. Ma, e secondo Searle questo è il punto chiave, “la sintassi non è di per sé sufficiente, né è costitutiva della semantica”. Quindi, sebbene i computer possano essere in grado di manipolare la sintassi per produrre risposte appropriate all’input nel linguaggio naturale, non capiscono le frasi che ricevono o emettono, poiché non possono associare significati alle parole.

Searle (1984) presenta un argomento con tre premesse secondo cui, poiché la sintassi non è sufficiente per la semantica, i programmi non possono generare menti:

  1. I programmi sono puramente formali (sintattici).
  2. Le menti umane hanno contenuti mentali (semantica).
  3. La sintassi di per sé non è né costitutiva de, né sufficiente per, il contenuto semantico.
  4. Pertanto, i programmi da soli non sono costitutivi de, né sufficienti per, le menti.

Lo stesso esperimento mentale della stanza cinese va a supporto della terza premessa. La tesi secondo cui l’elaborazione sintattica non è sufficiente per il significato o il pensiero è una questione notevole, con implicazioni più ampie rispetto all’intelligenza artificiale o alle attribuzioni di comprensione. Importanti teorie della mente sostengono che la cognizione umana generalmente è computazionale. In una formulazione di queste si ritiene che il pensiero implichi operazioni sui simboli in virtù delle loro proprietà fisiche. Secondo una posizione connessionista alternativa i calcoli sono su stati “sub-simbolici”. Se Searle ha ragione, non solo l’intelligenza artificiale forte ma anche questi principali approcci alla comprensione della cognizione umana sono fuorvianti.

Come abbiamo visto, Searle sostiene che lo scenario della stanza cinese mostra che non è possibile ottenere la semantica dalla sola sintassi. In un sistema logico simbolico, una sorta di linguaggio artificiale, vengono fornite regole per la sintassi. La semantica di questo sistema, se esiste, viene dopo. Il logico specifica il set di simboli di base e alcune regole per elaborare le stringhe al fine di produrne di nuove. Queste regole sono puramente sintattiche: vengono applicate a stringhe di simboli esclusivamente in virtù della loro sintassi o forma. Una semantica per il sistema di simboli, se presente, deve essere fornita separatamente. E se si desidera dimostrare che esistono relazioni aggiuntive interessanti tra le operazioni sintattiche e la semantica, come il fatto che le manipolazioni dei simboli preservano la verità, è necessario fornirne meta-prove a volte complesse per dimostrarlo. Quindi, a prima vista, la semantica è abbastanza indipendente dalla sintassi per i linguaggi artificiali e non si può ottenere la semantica dalla sola sintassi. “I simboli formali da soli non sono mai sufficienti per i contenuti mentali, perché i simboli, per definizione, non hanno significato (o interpretazione, o semantica) se non nella misura in cui qualcuno al di fuori del sistema glielo attribuisce” (Searle 1989, p. 45).

L’identificazione del significato con l’interpretazione che Searle adotta in questo passaggio è importante. Il punto di Searle è chiaramente vero per i sistemi formali causalmente inerti dei logici. A questi simboli deve essere data un’interpretazione semantica da parte di un logico. Quando si passa da sistemi formali a sistemi computazionali, la situazione è più complessa. Come hanno notato molti dei critici di Searle (ad esempio Cole 1984, Dennett 1987, Boden 1988 e Chalmers 1996), un computer che esegue un programma non è la stessa cosa della “semplice sintassi”. Un computer è un sistema causale elettronico enormemente complesso. I cambiamenti di stato nel sistema sono fisici. Si possono interpsretare gli stati fisici, ad es. tensioni voltaiche, come sintattici 1 e 0, ma la realtà intrinseca è elettronica e la sintassi è “derivata”, è un prodotto dell’interpretazione. Gli stati sono sintatticamente specificati dai programmatori, ma quando vengono implementati in una macchina in funzione divengono stati elettronici di un complesso sistema causale incorporato nel mondo reale. Questo è abbastanza diverso rispetto ai sistemi formali astratti studiati dai logici. Dennett osserva che nessun “programma per computer di per sé” (linguaggio di Searle) – ad es. un programma che giace su uno scaffale – può causare qualcosa, anche semplici aggiunte, figuriamoci stati mentali. Il programma deve essere in esecuzione. Chalmers (1996) offre una parodia il cui ragionamento è: le ricette sono sintattiche, la sintassi non è sufficiente per la friabilità, le torte sono friabili, quindi l’esecuzione di una ricetta non è sufficiente per fare una torta. L’implementazione fa la differenza; un’entità astratta (es. ricetta, programma) determina i poteri causali di un sistema fisico incorporato nel più ampio nesso causale del mondo.

Dennett (1987) riassume la questione: “Il punto di vista di Searle, quindi, arriva a questo: si prenda un oggetto materiale (qualsiasi oggetto materiale) che non abbia il potere di provocare fenomeni mentali; non è possibile trasformarlo in un oggetto che ha il potere di produrre fenomeni mentali semplicemente programmandolo – riorganizzando le dipendenze condizionali delle transizioni tra i suoi stati.” Il punto di vista di Dennett è opposto: la programmazione “è esattamente ciò che potrebbe dare una mente a qualcosa”. Ma Dennett afferma che in realtà è “empiricamente improbabile che i giusti tipi di programmi possano essere eseguiti su qualsiasi cosa tranne il cervello organico umano” (pp. 325-6).

Un’ulteriore complicazione riguarda il fatto che non è chiaro se i computer eseguano operazioni sintattiche nello stesso senso di un essere umano: non è chiaro se un computer capisca la sintassi o le operazioni sintattiche. Un computer non sa che sta manipolando 1 e 0. Un computer non riconosce che le sue stringhe di dati binarie hanno una certa forma, e quindi che certe regole sintattiche possono essere applicate ad esse, a differenza dell’uomo all’interno della stanza cinese. All’interno di un computer, non c’è nulla che legga letteralmente i dati di input o che “sappia” cosa sono i simboli. Invece ci sono milioni di transistor che cambiano stato. Una sequenza di tensioni voltaiche determina l’esecuzione delle operazioni. Noi umani possiamo scegliere di interpretare queste tensioni voltaiche come numeri binari e le variazioni di tensione come operazioni sintattiche, ma un computer non interpreta le sue operazioni come sintattiche né in qualsiasi altro modo. Quindi forse un computer non ha bisogno di passare dalla sintassi alla semantica, che è ciò a cui Searle si oppone; deve passare da complesse connessioni causali alla semantica. Inoltre, forse qualsiasi sistema causale è descrivibile come esecuzione di operazioni sintattiche – se interpretiamo un quadrato chiaro come “0” logico e un quadrato scuro come “1” logico, allora un tostapane da cucina potrebbe essere descritto come un dispositivo che riscrive gli “0” logici come “1” logici. Ma non c’è alcun problema filosofico nel passare dalla sintassi alla colazione.

Negli anni ‘90, Searle iniziò a utilizzare considerazioni simili per sostenere che le opinioni computazionali non sono solo false, ma mancano di un senso chiaro. Il calcolo, o sintassi, è “relativo all’osservatore”, non una caratteristica intrinseca della realtà: “… si può assegnare un’interpretazione computazionale a qualsiasi cosa” (Searle 2002b, p. 17), anche alle molecole di pittura sul muro. Poiché nulla è intrinsecamente computazionale, non si può avere una teoria scientifica che riduca il mentale, che non sia relativa all’osservatore, al calcolo. “Il calcolo esiste solo rispetto a qualche agente o osservatore che impone un’interpretazione computazionale a qualche fenomeno. Questo è un punto ovvio. Avrei dovuto vederlo dieci anni fa, ma non l’ho visto”. (Searle 2002b, p. 17, pubblicato originariamente nel 1993).

I critici notano che i muri non sono computer; a differenza di un muro, un computer attraversa transizioni di stato che sono descritte in maniera controfattuale da un programma (Chalmers 1996, Block 2002, Haugeland 2002). Nel suo articolo del 2002, Block affronta la questione se un muro sia un computer (in risposta all’accusa di Searle secondo cui tutto ciò che mappa su un sistema formale è un sistema formale, mentre le menti sono abbastanza diverse). Block nega che il fatto che qualcosa sia o meno un computer dipenda interamente dalla nostra interpretazione. Block osserva che Searle ignora i controfattuali che devono essere veri di un sistema di implementazione. Haugeland (2002) afferma che un’implementazione è un processo causale che esegue in modo affidabile le operazioni – ma devono essere coinvolti i giusti poteri causali. Block conclude che gli argomenti di Searle falliscono, ma ammette che “riescono ad affinare la nostra comprensione della natura dell’intenzionalità e della sua relazione con il calcolo e la rappresentazione” (p. 78).

Rey (2002) affronta anche gli argomenti di Searle secondo cui sintassi e simboli sono proprietà relative all’osservatore, non fisiche. Searle lo deduce dal fatto che le proprietà sintattiche (es. essere un “1” logico) non sono definite in fisica; tuttavia, Rey sostiene che non ne consegue che siano relative all’osservatore. Rey sostiene che anche Searle fraintende cosa significhi realizzare un programma. Rey approva la risposta di Chalmers a Putnam: una realizzazione non è solo una mappatura strutturale, ma coinvolge la causalità, sostenendo i controfattuali. “Questo punto viene tralasciato così spesso che vale la pena ripeterlo: gli oggetti sintatticamente specificabili su cui sono definiti i calcoli possono avere e normalmente di fatto possiedono una semantica; è solo che la semantica non è coinvolta nella specifica. “Gli stati di una persona ottengono la loro semantica in virtù dell’organizzazione computazionale e delle loro relazioni causali con il mondo. Rey conclude: Searle “semplicemente non considera le risorse sostanziali del funzionalismo e dell’intelligenza artificiale forte” (p. 222). Un racconto dettagliato in maniera plausibile disinnescherebbe le conclusioni negative tratte dalla schematizzazione superficiale del sistema della stanza cinese.

John Haugeland (2002) sostiene che c’è un senso per cui un processore deve comprendere intrinsecamente i comandi nei programmi che esegue: li esegue in accordo con le specifiche. “L’unico modo in cui possiamo dare un senso all’esecuzione di un programma da parte di un computer è comprendere che il suo processore risponde alle prescrizioni del programma come se fossero dotate di significato” (p. 385). Quindi i simboli di operazione hanno un significato per un sistema. Haugeland continua tracciando una distinzione tra sistema stretto e ampio. Sostiene che i dati possono avere significato nel sistema ampio che include rappresentazioni di oggetti esterni prodotti dai trasduttori. Per inciso, Haugeland sostiene una tesi insolita, difesa altrove, secondo cui l’intelligenza genuina e la semantica presuppongono “la capacità di un certo genere di impegno nel modo in cui si vive” che non è proposizionale – cioè, l’amore (vedasi il film del 2001 di Steven Spielberg, Artificial Intelligence: AI).

Contro la tesi di Searle secondo cui la sintassi è relativa all’osservatore e le molecole in un muro potrebbero essere interpretate come implementazioni del programma Wordstar (un primo programma di elaborazione testi) perché “c’è qualche modello nei movimenti delle molecole che è isomorfo alla struttura formale di Wordstar “(Searle 1990b, p. 27), Haugeland ribatte che: “l’idea stessa di un segno sintattico complesso … presuppone processi specifici di scrittura e lettura …”. I token devono essere sistematicamente producibili e recuperabili. Quindi nessun isomorfismo casuale o pattern da qualche parte (ad esempio su qualche muro) conterà, e quindi la sintassi non è relativa all’osservatore.

Riguardo alla questione se si possa ottenere la semantica dalla sintassi, William Rapaport ha difeso per molti anni la tesi della “semantica sintattica”, una posizione per cui la comprensione è una forma speciale di struttura sintattica in cui i simboli (come le parole cinesi) sono collegati ai concetti, essi stessi rappresentati sintatticamente. Altri credono che non ci siamo ancora arrivati. Il futurista dell’intelligenza artificiale Ray Kurzweil (The Age of Spiritual Machines) sostiene, in un libro follow-up del 2002, che è fuorviante concentrarsi sui computer tradizionali che elaborano simboli. Kurzweil concorda con Searle sul fatto che i computer esistenti non capiscono il linguaggio, come dimostra il fatto che non possono impegnarsi in un dialogo convincente. Ma tale falsa pista non riguarda la capacità dei futuri computer basati su tecnologie diverse. Kurzweil afferma che Searle non riesce a capire che le macchine future utilizzeranno “metodi emergenti caotici che sono massicciamente paralleli”. Questa affermazione sembra essere simile a quella dei connessionisti, come Andy Clark, e alla posizione assunta dai Churchland nel loro articolo sul Scientific American del 1990.

Oltre che sulla tesi di Haugeland secondo cui i processori capiscono le istruzioni dei programmi, i critici di Searle possono concordare sul fatto che i computer non comprendano la sintassi più di quanto capiscano la semantica, sebbene, come tutti i motori causali, un computer sia dotato di descrizioni sintattiche. E mentre è spesso utile ai programmatori trattare la macchina come se eseguisse operazioni sintattiche, non è sempre così: a volte i caratteri che i programmatori usano sono solo interruttori che fanno fare qualcosa alla macchina, ad esempio, far diventare rosso un dato pixel sul display di un computer o far cambiare marcia alla trasmissione di un’auto. Quindi non è chiaro se Searle abbia ragione quando afferma che un computer digitale è solo “un dispositivo che elabora simboli”. I computer sono motori causali complessi e le descrizioni sintattiche sono utili per strutturare le interconnessioni causali nella macchina. I programmatori di intelligenza artificiale devono affrontare molti problemi difficili, ma si può sostenere che non devono ottenere la semantica dalla sintassi. Se vogliono ottenere la semantica, devono ottenerla dalla causalità.

Sono stati sviluppati due approcci principali che spiegano il significato in termini di connessioni causali. Gli approcci internisti, come quelli di rappresentazione concettuale di Schank e Rapaport, e anche la teoria della semantica del ruolo concettuale, sostengono che uno stato di un sistema fisico ottiene la sua semantica da connessioni causali con altri stati dello stesso sistema. Quindi uno stato di un computer potrebbe rappresentare il termine ‘kiwi’ perché è connesso ai nodi “uccello” e “incapace di volare”, e forse anche a immagini di kiwi prototipici. Lo stato che rappresenta la proprietà di essere “incapace di volare” potrebbe ottenere il suo contenuto da un operatore di negazione che modifica la rappresentazione di “capace di propulsione aerea”, e così via, fino a formare una vasta rete concettuale connessa, una sorta di dizionario mentale.

Gli approcci esternisti sviluppati da Dennis Stampe, Fred Dretske, Hilary Putnam, Jerry Fodor, Ruth Millikan e altri, sostengono che gli stati di un sistema fisico ottengono il loro contenuto attraverso connessioni causali con la realtà esterna che rappresentano. Quindi, più o meno, un sistema con un concetto KIWI è un sistema che ha uno stato che utilizza per rappresentare la presenza di kiwi nell’ambiente esterno. Questo stato che rappresenta i kiwi può essere qualsiasi stato che sia opportunamente connesso causalmente alla presenza di kiwi. A seconda del sistema, lo stato che rappresenta i kiwi potrebbe essere uno stato di un cervello, o di un dispositivo elettrico come un computer o anche di un sistema idraulico. Lo stato rappresentativo interno può quindi a sua volta svolgere un ruolo causale nel determinare il comportamento del sistema. Ad esempio, Rey (1986) propone una semantica-indicatore sulla falsariga del lavoro di Dennis Stampe (1977) e  Psychosemantics di Fodor. Queste teorie semantiche che individuano il contenuto o il significato in appropriate relazioni causali con il mondo si adattano bene all’obiezione del robot. Un computer in un corpo robotico potrebbe solo dotato di connessioni causali che potrebbero consentire ai suoi stati sintattici interni di avere la proprietà semantica di rappresentare stati delle cose nel suo ambiente.

Quindi ci sono almeno due famiglie di teorie (e unioni delle due, come in Block 1986) su come la semantica potrebbe dipendere da connessioni causali. Entrambe tentano di fornire resoconti che siano sostanzialmente neutri: gli stati di sistemi causali adeguatamente organizzati possono avere un contenuto, indipendentemente da cosa siano fatti tali sistemi. Secondo queste teorie un computer potrebbe avere stati che hanno significato. Non è necessario che il computer sia consapevole dei propri stati e sappia che hanno significato, né che nessuno al di fuori apprezzi il significato degli stati. In entrambi i casi il significato dipende da connessioni causali (possibilmente complesse) e i computer digitali sono sistemi progettati per avere stati che hanno solo tali dipendenze causali complesse. Va notato che Searle non sottoscrive queste teorie della semantica. Al contrario, le discussioni di Searle sul significato linguistico si sono spesso incentrate sulla nozione di intenzionalità.

5.2 Intenzionalità

L’intenzionalità è la proprietà di vertere su qualcosa, di avere un contenuto. Nel XIX secolo, lo psicologo Franz Brentano reintrodusse questo termine dalla filosofia medievale e sostenne che l’intenzionalità fosse il “marchio del mentale”. Credenze e desideri sono stati intenzionali: hanno un contenuto proposizionale (si crede che p, si desidera che p, dove le frasi che rappresentano le proposizioni sostituiscono la ‘p’). Le opinioni di Searle sull’intenzionalità sono complesse; importante qui è il fatto che distingua tra intenzionalità originale o intrinseca di stati mentali genuini e intenzionalità derivata del linguaggio. Una frase scritta o parlata ha intenzionalità derivata solo nella misura in cui è interpretata da qualcuno. Sembra che, secondo Searle, l’intenzionalità originale possa almeno potenzialmente essere cosciente. Searle sostiene poi che la distinzione tra intenzionalità originale e derivata si applica ai computer. Possiamo interpretare gli stati di un computer come aventi contenuto, ma gli stati stessi non possiedono intenzionalità originale. Molti filosofi sostengono questo dualismo dell’intenzionalità, tra cui Sayre (1986) e persino Fodor (2009), nonostante le molte differenze tra Fodor e Searle.

In una sezione del suo libro del 1988, Computer Models of the Mind, Margaret Boden osserva che l’intenzionalità non è ben compresa, motivo per non dare troppo peso agli argomenti che ruotano sull’intenzionalità. Inoltre, nella misura in cui comprendiamo il cervello, ci concentriamo sulle funzioni informative, non sui poteri causali cerebrali non specificati: “… dal punto di vista psicologico, non è la biochimica in quanto tale che conta, ma le funzioni portatrici di informazioni che vi sono radicate” (p. 241). Searle vede l’intenzionalità come un potere causale del cervello, prodotto unicamente da processi biologici. Dale Jacquette (1989) si oppone ad una riduzione dell’intenzionalità: l’intenzionalità, afferma, è un “concetto primitivo ineliminabile e irriducibile”. Tuttavia, la maggior parte dei simpatizzanti dell’intelligenza artificiale ha visto l’intenzionalità, il vertere su qualcosa, come legati alle informazioni, e gli stati non biologici possono condividere informazioni così come gli stati cerebrali. Quindi, molti degli oppositori di Searle hanno sostenuto che Searle mostra sostanziale sciovinismo nel sostenere che i cervelli capiscono ma che i sistemi fatti di silicio con comparabili capacità di elaborazione delle informazioni non ne sono in grado, nemmeno in linea di principio. Apparvero articoli su entrambi i lati della questione, quali l’articolo di J. Maloney del 1987, “The Right Stuff”, in difesa di Searle, e la critica di R. Sharvy del 1983, “It Ain’t the Meat, it’s the Motion”. I sostenitori dell’intelligenza artificiale come Kurzweil (1999, vedi anche Richards 2002) hanno continuato a sostenere che i sistemi di intelligenza artificiale potenzialmente possono avere proprietà mentali come la comprensione, l’intelligenza, la coscienza e l’intenzionalità e supereranno le capacità umane in queste aree.

Altri critici della posizione di Searle prendono l’intenzionalità più seriamente di Boden, ma negano la distinzione dualista tra intenzionalità originale e derivata. Dennett (1987, ad esempio) sostiene che tutta l’intenzionalità è derivata, in quanto le attribuzioni di intenzionalità – ad animali, altre persone e persino a noi stessi – sono strumentali e ci consentono di prevedere il comportamento, ma non sono descrizioni di proprietà intrinseche. Come abbiamo visto, Dennett è preoccupato per la lentezza dei processi nella stanza cinese, ma sostiene che una volta che un sistema funzioni alla perfezione, è dotato di tutto ciò che è necessario per l’intelligenza e l’intenzionalità derivata – e l’intenzionalità derivata è l’unico genere di intenzionalità che esista, secondo Dennett. Una macchina può essere un sistema intenzionale perché le spiegazioni intenzionali funzionano nel prevedere il comportamento della macchina. Dennett suggerisce anche che Searle confonda l’intenzionalità con la consapevolezza dell’intenzionalità. Nei suoi argomenti sintattico-semantici, “Searle ha apparentemente confuso una tesi sulla non derivabilità della semantica dalla sintassi con una tesi sulla non derivabilità della coscienza della semantica dalla sintassi” (p. 336). L’enfasi sulla coscienza ci costringe a pensare alle cose dal punto di vista della prima persona, ma Dennett (2017) continua a insistere sulla tesi che questo è un errore fondamentale se vogliamo capire il mentale.

Potremmo anche preoccuparci che Searle confonda significato e interpretazione, e che l’intenzionalità originale o sottostimata di Searle sia solo intenzionalità di secondo ordine, una rappresentazione di ciò che un oggetto intenzionale rappresenta o significa. Dretske e altri hanno guardato all’intenzionalità come basata sull’informazione. Uno stato del mondo, incluso uno stato di un computer, può contenere informazioni su altri stati del mondo, e questa disponibilità informativa è una caratteristica degli stati indipendente dalla mente. Quindi è un errore ritenere che le attribuzioni coscienti di significato siano la fonte dell’intenzionalità.

Altri hanno notato che la discussione di Searle ha mostrato nel tempo uno slittamento da questioni di intenzionalità e comprensione verso questioni di coscienza. Searle collega l’intenzionalità alla consapevolezza dell’intenzionalità, sostenendo che gli stati intenzionali sono almeno potenzialmente coscienti. Nel suo libro del 1996, The Conscious Mind, David Chalmers osserva che, sebbene Searle abbia originariamente diretto la sua argomentazione contro l’intenzionalità della macchina, è chiaro dagli scritti successivi che il vero problema è la coscienza, che Searle ritiene sia una condizione necessaria per l’intenzionalità. È la consapevolezza che manca nei computer digitali. Chalmers si serve di alcuni esperimenti mentali per sostenere che non è plausibile che un sistema abbia alcune proprietà mentali di base (come avere qualia) che un altro sistema non ha, nel caso sia possibile immaginare di trasformare un sistema nell’altro gradualmente (attraverso la sostituzione di neuroni uno ad uno grazie a circuiti digitali) oppure tutto in una volta, andando avanti e indietro tra carne e silicio.

Una seconda strategia riguardante l’attribuzione dell’intenzionalità è adottata dai critici che di fatto sostengono che l’intenzionalità è una caratteristica intrinseca degli stati dei sistemi fisici che sono causalmente connessi con il mondo nel modo giusto, indipendentemente dalla loro interpretazione (vedere la precedente sezione “Sintassi e semantica”). L’esternismo semantico di Fodor è influenzato da Fred Dretske, anche se i due giungono a conclusioni diverse per quanto riguarda la semantica degli stati dei computer. Per un lungo periodo Dretske ha sviluppato un resoconto storico del significato o del contenuto mentale che precludesse l’attribuzione di credenze e comprensione alla maggior parte delle macchine. Dretske (1985) concorda con Searle sul fatto che le macchine per fare somme non sommano letteralmente; siamo noi che sommiamo, usando le macchine. Dretske sottolinea il ruolo cruciale della selezione naturale e dell’apprendimento nella produzione di stati che hanno contenuti genuini. I sistemi costruiti dall’uomo saranno, nella migliore delle ipotesi, come gli uomini di palude (esseri creati da un fulmine che cade in una palude e che per caso risultano essere la copia di un essere umano molecola per molecola, per esempio, la tua copia) – sembrano avere intenzionalità o stati, ma non è così, perché tali stati richiedono si sia vissuta una certa storia. Gli stati dell’intelligenza artificiale saranno generalmente contraffazioni di stati mentali reali; come le monete contraffatte, possono sembrare perfettamente identiche ma non hanno la corretta genealogia. Ma la teoria della credenza di Dretske sembra distinguere il credere dalla consapevolezza cosciente del credere o dello stato intenzionale (se si ritiene che ciò richieda un pensiero di ordine superiore), e quindi consentirebbe apparentemente l’attribuzione di intenzionalità a sistemi artificiali che possano accedere alla corretta storia genealogica apprendendola.

Howard Gardiner si schiera a favore delle critiche di Zenon Pylyshyn contro la visione di Searle della relazione tra cervello e intenzionalità, supponendo che l’intenzionalità sia in qualche modo una cosa “prodotta dal cervello”, e a favore del contro esperimento mentale dello stesso Pylyshyn in cui i neuroni vengono sostituiti uno per uno con circuiti simili integrati (vedere anche Cole e Foelber (1984) e Chalmers (1996) per l’esame degli esperimenti mentali sulle sostituzioni di neuroni). Gardiner sostiene che Searle ci deve un resoconto più preciso dell’intenzionalità rispetto a quanto abbia fornito finora, e fino ad allora rimane aperta la questione se l’intelligenza artificiale possa produrre intenzionalità o se ciò vada al di là delle sue capacità. Gardiner conclude affermando che è possibile che la disputa tra Searle e i suoi critici non sia scientifica ma (quasi?) religiosa.

5.3 Mente e corpo

Diversi critici hanno notato che ci sono questioni metafisiche in gioco nell’argomento originale. L’obiezione dei sistemi richiama l’attenzione sul problema metafisico della relazione tra mente e corpo. Lo fa sostenendo che la comprensione è una proprietà del sistema nel suo insieme, non il suo implementatore fisico. La replica della mente individuale sostiene che le menti o le persone – le entità che comprendono e sono coscienti – sono più astratte di qualsiasi sistema fisico e che potrebbe esserci una relazione molti-a-uno tra menti e sistemi fisici. (Anche se tutto è fisico, in linea di principio un singolo corpo potrebbe essere condiviso da più menti e una singola mente potrebbe avere una sequenza di corpi nel tempo.) Pertanto sono in gioco questioni più ampie sull’identità personale e sulla relazione tra mente e corpo nel dibattito tra Searle e alcuni dei suoi critici.

Il punto di vista di Searle è che il problema della relazione tra mente e corpo “ha una soluzione piuttosto semplice. Eccola: gli stati di coscienza sono causati da processi neurobiologici di livello inferiore nel cervello e sono essi stessi caratteristiche di livello superiore del cervello” (Searle 2002b, p. 9). Nella sua prima discussione sull’argomento della stanza cinese, Searle ha parlato dei poteri causali del cervello. Quindi la sua opinione sembra essere che gli stati cerebrali causano coscienza e comprensione, e “la coscienza è solo una caratteristica del cervello” (ibid.). Tuttavia, come abbiamo visto, se anche se fosse vero, si solleva la questione di quale coscienza sia creata dal cervello. Gli esperimenti sul cervello diviso di Roger Sperry suggeriscono che forse possono esserci due centri di coscienza, e quindi in questo senso due menti, implementate da un unico cervello. Mentre entrambi gli stati mostrano almeno una certa comprensione del linguaggio, solo uno (tipicamente creato dall’emisfero sinistro) controlla la produzione del linguaggio. Pertanto, molti approcci contemporanei per comprendere la relazione tra cervello e coscienza enfatizzano la connessione e il flusso di informazioni (vedi ad esempio Dehaene 2014).

Coscienza e comprensione sono caratteristiche delle persone, quindi sembra che Searle accetti una metafisica in cui io, il mio sé cosciente, sono identico al mio cervello – una forma di teoria dell’identità mente-cervello. Questa metafisica molto concreta si riflette nella presentazione originale di Searle dell’argomento della stanza cinese, in cui l’intelligenza artificiale forte era da lui descritta come la tesi secondo cui “il computer adeguatamente programmato è davvero una mente” (Searle 1980). Questa è una rivendicazione di identità e ha strane conseguenze. Se A e B sono identici, qualsiasi proprietà di A è una proprietà di B. I computer sono oggetti fisici. Alcuni computer pesano sei libbre e hanno altoparlanti stereo. Quindi, la tesi che Searle ha definito intelligenza artificiale forte implicherebbe che alcune menti pesino sei libbre e abbiano altoparlanti stereo. Tuttavia, sembra chiaro che mentre gli esseri umani possono pesare 150 libbre, le menti umane non pesano 150 libbre. Ciò suggerisce che né i corpi né le macchine possono essere letteralmente menti. Tali considerazioni supportano l’idea che le menti siano più astratte del cervello e, se è così, che almeno una versione della tesi che Searle definisce intelligenza artificiale forte, la versione secondo cui i computer sono letteralmente menti, è a prima vista metafisicamente insostenibile, a meno di non ricorrere a qualche esperimento mentale.

L’argomento della stanza cinese di Searle era quindi diretto contro la tesi secondo cui un computer è una mente, secondo cui o un computer digitale opportunamente programmato capisce il linguaggio oppure lo capisce il suo programma. L’esperimento mentale di Searle fa appello alla nostra forte intuizione che qualcuno che abbia fatto esattamente ciò che fa il computer non sarebbe arrivato in quel modo a capire il cinese. Come notato sopra, molti critici hanno sostenuto che Searle ha perfettamente ragione su questo punto: non importa come si programma un computer, il computer non sarà letteralmente una mente e il computer non capirà il linguaggio naturale. Ma se le menti non sono oggetti fisici, tale incapacità di un computer di essere una mente non mostra che l’esecuzione di un programma di intelligenza artificiale non possa produrre comprensione del linguaggio naturale attraverso qualcosa che non sia un computer (vedasi la sezione 4.1 sopra).

Il funzionalismo è una teoria del rapporto tra menti e corpi che è stata sviluppata nei due decenni precedenti all’argomento della stanza cinese di Searle. Il funzionalismo è un’alternativa alla teoria dell’identità implicita in gran parte della discussione di Searle, così come al comportamentismo dominante della metà del XX secolo. Se ha ragione il funzionalismo, non sembra esserci alcuna ragione intrinseca per cui un computer non possa avere stati mentali. Quindi la conclusione dell’argomento della stanza cinese secondo cui un computer è intrinsecamente incapace di stati mentali è una considerazione importante contro il funzionalismo. Julian Baggini (2009, p. 37) scrive che Searle “ha inventato forse il contro-esempio più famoso della storia – l’argomento della stanza cinese – e con un solo colpo intellettuale ha inflitto così tanti danni all’allora dominante teoria del funzionalismo che molti pensano non si sia mai ripresa”.

I funzionalisti http://www.sifa.unige.it/?page_id=3716  sostengono che uno stato mentale è ciò che esso svolge – il ruolo causale (o “funzionale”) che lo stato gioca determina che tipo di stato è. Un funzionalista potrebbe sostenere che il dolore, ad esempio, è uno stato tipicamente causato da un danno al corpo, si trova in un’immagine corporea ed è avversivo. I funzionalisti prendono le distanze sia dai comportamentisti che dai teorici dell’identità. A differenza dei primi, i funzionalisti ritengono che i processi causali interni siano importanti per il possesso degli stati mentali. Così i funzionalisti possono concordare con Searle nel rifiutare il test di Turing in quanto troppo comportamentistico. A differenza dei teorici dell’identità (che potrebbero sostenere, ad esempio, che “il dolore è identico all’attivazione delle fibre C”), i funzionalisti sostengono che gli stati mentali potrebbero essere ottenuti da una varietà di sistemi fisici (o non fisici, come in Cole e Foelber 1984, secondo cui una mente cambia da un’implementazione materiale ad una immateriale, neurone per neurone). Così, mentre un teorico dell’identità identificherà il dolore con determinate attivazioni neuronali, un funzionalista identificherà il dolore con qualcosa di più astratto e di livello superiore, un ruolo funzionale che potrebbe essere svolto da diversi tipi di sistema soggiacente.

I funzionalisti accusano i teorici dell’identità di sostanziale sciovinismo. Tuttavia, il funzionalismo rimane controverso: il funzionalismo è vulnerabile alle obiezioni simili a quelle della “nazione cinese” discusse sopra, e notoriamente i funzionalisti hanno difficoltà a spiegare i qualia, un problema evidenziato dall’apparente possibilità di uno spettro invertito, dove stati qualitativamente diversi potrebbero avere lo stesso ruolo funzionale (es. Block 1978, Maudlin 1989, Cole 1990).

Il computazionalismo http://www.sifa.unige.it/?page_id=4105 è una sotto-teoria del funzionalismo che sostiene che l’importanza del ruolo causale dei processi cerebrali è data dall’elaborazione di informazioni. Milkowski (2017) fa notare che gli approcci computazionali sono stati fruttuosi nella scienza cognitiva; esamina le obiezioni al computazionalismo e conclude che la maggioranza ha come obiettivo una versione debole. Tuttavia, Jerry Fodor, uno dei primi sostenitori degli approcci computazionali, sostiene (in Fodor 2005) che i processi mentali chiave, quali l’inferenza alla migliore spiegazione, che dipendono dalle proprietà non locali delle rappresentazioni, non possono essere spiegati dai moduli computazionali del cervello. Se Fodor ha ragione, la comprensione del linguaggio e dell’interpretazione sembra coinvolgere considerazioni globali come il contesto linguistico e non linguistico e la teoria della mente e quindi potrebbe resistere alla spiegazione computazionale. In tal caso, si giunge alla conclusione di Searle sulla base di diverse considerazioni.

La dichiarazione di Searle del 2010 sulla conclusione dell’argomento della stanza cinese mostra che le teorie computazionali non possono spiegare la coscienza. C’è stato un notevole interesse nei decenni a partire dal 1980 nel determinare cosa spieghi la coscienza, e questa è stata un’area di ricerca estremamente attiva in tutte le discipline. Un particolare interesse si è avuto per i correlati neurali della coscienza. Ciò è direttamente correlato alla tesi di Searle per cui la coscienza è intrinsecamente biologica e non computazionale oppure è elaborazione di informazioni. Non vi è ancora una risposta definitiva, sebbene alcuni lavori recenti sull’anestesia suggeriscano che la coscienza si perde quando le connessioni corticali (e cortico-talamiche) e il flusso di informazioni vengono interrotti (ad esempio Hudetz 2012, versione rivista).

In generale, se si conferma che la base della coscienza si trova al livello relativamente astratto del flusso di informazioni attraverso le reti neurali, questo sarà favorevole al funzionalismo, mentre se risulta essere inferiore e più biologica (o sub-neuronale), questo andrà a favore della posizione di Searle.

Queste controverse questioni biologiche e metafisiche riguardano l’inferenza centrale nell’argomento della stanza cinese. Dall’intuizione che nell’esperimento mentale della stanza cinese chi è nella stanza non avrebbe capito il cinese meramente eseguendo un programma, Searle deduce che non si genera comprensione nell’esecuzione di un programma. Chiaramente, se tale inferenza sia valida o meno pone una questione metafisica sull’identità tra persone e menti. Se la persona che capisce non è identica all’operatore della sala, l’inferenza non è corretta.

5.4 Simulazione, duplicazione ed evoluzione

Nel discutere l’argomento della stanza cinese, Searle sostiene che esiste un’importante distinzione tra simulazione e duplicazione. Nessuno confonderebbe una simulazione informatica del tempo con il tempo, o una simulazione informatica della digestione per vera digestione. Searle conclude che è un errore altrettanto grave confondere una simulazione informatica di comprensione con la comprensione.

Da questo punto di vista, vi è generalmente un’importante distinzione tra una simulazione e la cosa reale. Ma emergono due problemi. Non è chiaro se la distinzione possa sempre essere fatta. I cuori sono biologici solo se qualcosa lo è. I cuori artificiali sono simulazioni di cuori? O sono duplicati funzionali di cuori, cuori realizzati con materiali diversi? La deambulazione è normalmente un fenomeno biologico eseguito utilizzando gli arti. Quelli con arti artificiali camminano? Oppure simulano il camminare? I robot camminano? Se le proprietà necessarie per essere un certo tipo di cose sono proprietà di alto livello, qualsiasi cosa condivida quelle proprietà sarà una cosa di quel tipo, anche se si differenzia per le sue proprietà di livello inferiore. Chalmers (1996) propone un principio che stabilisce quando la simulazione è replicazione. Chalmers suggerisce, contro Searle e Harnad (1989), che una simulazione di X può essere un X, cioè che quando la proprietà di essere un X è un invariante organizzativa, ossia una proprietà che dipende solo dall’organizzazione funzionale del sistema sottostante e non da qualsiasi altro dettaglio.

Copeland (2002) sostiene che la tesi di Church-Turing non implica che il cervello (o qualsiasi macchina) possa essere simulato da una macchina di Turing universale, poiché il cervello (o un’altra macchina) potrebbe eseguire operazioni primitive che non sono semplici “routine clericali” che possono essere eseguite a mano. (Un esempio potrebbe essere che i cervelli umani probabilmente mostrano un’autentica casualità di basso livello, mentre i computer sono progettati con cura per non farlo, e quindi i computer ricorrono a numeri pseudo-casuali quando sia necessaria un’apparente casualità). Sprevak 2007 solleva un punto correlato. La tesi di Princeton di Turing del 1938 descriveva tali macchine (le “O-machines”). Le macchine O sono macchine che includono funzioni di numeri naturali che non sono calcolabili dalla macchina di Turing. Se il cervello è una macchina del genere, allora, afferma Sprevak: “Non c’è possibilità che l’argomento della stanza cinese di Searle venga dispiegato con successo contro l’ipotesi funzionalista che il cervello istanzi una macchina O …”. (p. 120).

Copeland discute la distinzione tra simulazione e duplicazione in connessione con la replica del simulatore cerebrale. Egli sostiene che Searle osserva correttamente che non si può inferire da X simula Y, e da Y ha la proprietà P, la conclusione che quindi X ha la proprietà P di Y per un P arbitrario. Ma Copeland afferma che Searle stesso commette l’errore di simulazione nell’estendere l’argomento della stanza cinese dall’intelligenza artificiale tradizionale all’applicazione contro il computazionalismo. La contrapposizione dell’inferenza è logicamente equivalente: X simula Y, X non ha P, quindi neanche Y ha P – dove P è la proprietà di capire il cinese. Il passaggio fallace è: l’operatore della stanza cinese S simula una rete neurale N, non si dà il caso che S capisca il cinese, quindi non si dà il caso che N capisca il cinese. Copeland nota anche i risultati di Siegelmann e Sontag (1994) che mostrano che alcune reti connessioniste non possono essere simulate da una macchina di Turing universale (in particolare, dove i pesi delle connessioni sono numeri reali).

Si ha un altro problema con la distinzione simulazione-duplicazione, derivante dal processo di evoluzione. Searle desidera vedere l’intenzionalità originale e la comprensione genuina come proprietà solo di certi sistemi biologici, presumibilmente come prodotto dell’evoluzione. I computer simulano semplicemente queste proprietà. Allo stesso tempo, nello scenario della stanza cinese, Searle sostiene che un sistema può esibire un comportamento altrettanto complesso quanto il comportamento umano, simulando ogni grado di intelligenza e comprensione del linguaggio che si possa immaginare e simulando ogni capacità di affrontare il mondo, e tuttavia non capire niente. Dice anche che tali sistemi, complessi a livello comportamentale, potrebbero essere implementati con materiali molto ordinari, ad esempio con tubi dell’acqua e valvole.

Questo crea un problema biologico, al di là del problema delle altre menti notato dai primi critici dell’argomento della stanza cinese. Anche se possiamo supporre che gli altri abbiano una mente, l’evoluzione non fa tali presupposizioni. Le forze selettive che guidano l’evoluzione biologica selezionano sulla base del comportamento. L’evoluzione può scegliere in base alla capacità di utilizzare le informazioni sull’ambiente circostante in modo creativo e intelligente, purché questo si manifesti nel comportamento dell’organismo. Se non vi è alcuna differenza evidente nel comportamento, in nessuna serie di circostanze, tra un sistema che comprende e uno che non lo fa, l’evoluzione non può selezionare quella che è comprensione genuina. E così sembra che, nella teoria di Searle, le menti che comprendono veramente il significato non abbiano alcun vantaggio (evolutivo) rispetto alle creature che semplicemente elaborano informazioni, utilizzando processi puramente computazionali. Quindi una posizione che implichi che simulazioni di comprensione possano essere biologicamente adattative quanto la comprensione reale, ci lascia con un enigma sul come e il perché i sistemi con una comprensione “genuina” possano evolversi. L’intenzionalità originale e la comprensione genuina diventano epifenomeniche.

6. Conclusione

Come abbiamo visto, sin dalla sua comparsa nel 1980, l’argomento della stanza cinese ha suscitato discussioni tra le discipline. Nonostante l’ampio dibattito, non vi è ancora consenso sul fatto che l’argomento sia valido. A un’estremità abbiamo la valutazione di Julian Baggini (2009) secondo cui Searle “ha inventato forse il controesempio più famoso della storia – l’argomento della stanza cinese – e con un solo colpo intellettuale ha inflitto così tanti danni all’allora dominante teoria del funzionalismo che molti direbbero che non si è mai ripresa”. Mentre il filosofo Daniel Dennett (2013, p. 320) conclude che l’argomento della stanza cinese è “chiaramente un argomento fallace e fuorviante”. Quindi non c’è consenso sul fatto che l’argomento sia una prova che limita le aspirazioni dell’intelligenza artificiale o le teorie computazionali della mente.

Nel frattempo è proseguito il lavoro sull’intelligenza artificiale e sull’elaborazione del linguaggio naturale. L’argomento della stanza cinese ha guidato Stevan Harnad e altri verso la ricerca del “grounding dei simboli” nell’intelligenza artificiale. Molti in filosofia (Dretske, Fodor, Millikan) hanno lavorato su teorie naturalistiche del contenuto mentale. La speculazione sulla natura della coscienza continua in molte discipline e i computer sono passati dal laboratorio, alla tasca e al polso.

Al momento della costruzione dell’argomento da parte di Searle, i personal computer erano dispositivi molto limitati per hobbisti. “Eliza” di Weizenbaum e alcuni giochi di “avventura” testuali sono stati giocati sui computer DEC; questi includevano parser limitati. L’analisi più avanzata del linguaggio era limitata ai ricercatori informatici come Schank. Molto cambiò nel successivo quarto di secolo; miliardi ora usano il linguaggio naturale per interrogare e comandare agenti virtuali tramite computer che portano in tasca. L’argomento della stanza cinese ha moderato le affermazioni di coloro che producono intelligenze artificiali e sistemi di linguaggio naturale? Alcuni produttori che collegano i dispositivi all’“internet of things” fanno affermazioni modeste: il produttore di elettrodomestici LG afferma che il secondo decennio del XXI secolo porta “l’esperienza di conversare” con i principali elettrodomestici. Potrebbe essere o non essere la stessa cosa di conversare. Apple è meno cauta di LG nel descrivere le capacità della sua applicazione “assistente personale virtuale” chiamata “Siri”: Apple dice di Siri che “capisce quello che dici. Sa cosa intendi”. IBM controbatte che il suo sistema “Watson” molto più grande è superiore in termini di capacità linguistiche rispetto a Siri. Nel 2011 Watson ha battuto i campioni umani nel programma televisivo “Jeopardy”, un’impresa che si basa molto sulle capacità linguistiche e sull’inferenza. IBM prosegue affermando che ciò che distingue Watson è che “sa ciò che sa e sa ciò che non sa”. Questo sembra rivendicare una forma di autoconsapevolezza riflessiva o coscienza per il sistema informatico Watson. Quindi le tesi dell’intelligenza artificiale forte ora sono difficilmente confutate e, semmai, alcune sono più forti ed esuberanti. Allo stesso tempo, come abbiamo visto, molti altri credono che l’argomento della stanza cinese abbia dimostrato una volta per tutte che nel migliore dei casi i computer possono simulare cognizione umana.

Sebbene separati da tre secoli, Leibniz e Searle ebbero intuizioni simili sui sistemi che considerano nei loro rispettivi esperimenti mentali: il mulino di Leibniz e la stanza cinese. In entrambi i casi considerano un sistema complesso composto da operazioni relativamente semplici e notano che è impossibile vedere come potrebbe risultare la comprensione o la coscienza. Questi semplici argomenti ci servono per evidenziare i gravi problemi che affrontiamo nella comprensione del significato e delle menti. Le molte questioni sollevate dall’argomento della stanza cinese non possono essere risolte fino a quando non vi sia consenso sulla natura del significato, sulla sua relazione con la sintassi e sulle basi biologiche della coscienza. Continua ad esserci un disaccordo significativo su quali processi creano significato, comprensione e coscienza, nonché su ciò che può essere dimostrato a priori da esperimenti mentali.

 

Bibliografia

Strumenti accademici

Altre risorse in Internet

Voci correlate

computation: in physical systems | consciousness: and intentionality | consciousness: representational theories of | emergent properties | epiphenomenalism | externalism about the mind | functionalism | information: biological | information: semantic conceptions of | intentionality | mental content: causal theories of | mental content: teleological theories of | mental representation | mind: computational theory of | multiple realizability | neuroscience, philosophy of | other minds | thought experiments | Turing, Alan | Turing test | zombies

Copyright © 2020 by
David Cole <dcole@d.umn.edu

 

Traduzione italiana di Irene Olivero ed Edoardo Piccaluga