arrow_upward

#4 ESPERIMENTI MENTALI: LA STANZA CINESE

In un articolo del 1980, il filosofo statunitense John Searle ha proposto un esperimento mentale per confutare la possibilità, da parte delle Intelligenze Artificiali (IA), di apprendere e comprendere le cose del mondo allo stesso modo degli esseri umani. Pensiamoci.

#4 ESPERIMENTI MENTALI: LA STANZA CINESE

Questo articolo riguarda quell’esperimento mentale passato alla storia come ‘la stanza cinese[1], ma prima di capire il perché di questo bizzarro appellativo, e di che cosa si tratta, sarà meglio fare un passo indietro.

Siamo nel 1950: Alan Turing[2] pubblica un articolo dal titolo “Computing Machinery and Intelligence[3] sulla rivista Mind. La tesi che Turing propone in questo paper è passata alla storia con il nome di Imitation Game: in poche parole, se un calcolatore riesce a mostrare di avere una certa capacità cognitiva in modo tale che non siamo in grado di distinguere il suo comportamento da quello di un essere umano, allora il calcolatore possiede questa capacità. Faccio un mio esempio: se un robot riuscisse a mimare perfettamente una risata, diremmo di esso che sta ridendo davvero, cioè nella stessa maniera in cui un* nostr* amic* ride per una nostra battuta; del resto, anche il modo in cui giudichiamo che un altro essere umano ci ha capiti si basa sul fatto che una data reazione vada incontro alle nostre aspettative. In tal modo, è stata sancita una storica equivalenza tra il coding di una IA in grado di simulare perfettamente una nostra capacità mentale e la stessa mente umana, e per queste IA ipotetiche è stato introdotto il nome di Intelligenze Artificiali Forti – insomma, non stiamo parlando di Alexa e Siri. Tuttavia, la possibilità di ritenere che dal punto di vista “cerebrale” una IA forte sia pari a un essere umano ha generato, com’è ovvio, un dibattito lungo quasi un secolo: ultimamente, si è tornati a parlare proprio di questo problema in seguito alla clamorosa (e ancora parzialmente avvolta nel mistero) denuncia di un ex-ingegnere di Google, secondo il quale una IA dell’azienda americana avrebbe sviluppato una coscienza[4].

Una tappa fondamentale di questo dibattito è rappresentata dall’articolo “Minds, brains, and programs”, scritto dal filosofo statunitense John Searle[5] [pronuncia: sà(r)l] e pubblicato nel 1980 dalla rivista The behavioral and brain sciences[6]. Proprio in questa sede, Searle propone un controesempio alla teoria delle IA forti, passato alla storia come l’esperimento mentale della stanza cinese. Esponiamone, allora, il contenuto: innanzitutto, il soggetto dell’esperimento (che chiameremo John) è una persona che non conosce la lingua cinese. John si trova in una stanza dove, oltre a lui, ci sono solo delle scatole piene di ideogrammi cinesi, e in aggiunta un manuale di regole. Fuori dalla stanza, invece, si trova un madrelingua mandarino che introduce nella stanza dei fogli scritti in ideogrammi cinesi. Il manuale di regole di John indica chiaramente, in base agli ideogrammi che arrivano, quali ideogrammi lui dovrà pescare dalle scatole per rispondere. Facciamo un esempio: se a John arriva una frase, che per lui non è più di uno scarabocchio ma che in cinese significa “come è andata la giornata?”, John risponde, in base al suo manuale, prendendo dalle scatole alcuni ideogrammi che mette in successione. In tal modo, John forma quello che per lui è ancora uno scarabocchio, ma che in lingua cinese è una frase che dice “tutto bene, grazie, e a te?”. Grazie a questo escamotage la conversazione va avanti perfettamente, al punto che il madrelingua cinese che sta fuori dalla stanza, alla fine, è convinto di aver parlato con un altro madrelingua. Eppure non è così: anzi, alla fine del nostro esperimento John potrebbe non essere nient’altro che una intelligenza artificiale.

A parere di Searle, questo esperimento mentale dimostra che se io non capisco il cinese, l’eseguire una serie di istruzioni che simulano una conversazione in lingua, seppur con successo, non modifica il fatto che io non conosca il cinese. A tal proposito, lo studioso sancisce una netta distinzione tra riproduzione e simulazione: la prima è la capacità di capire la cosa che si sta facendo; la seconda indica il semplice atto di copiare tale cosa, senza che nella mente avvengano i fondamentali processi biologici connessi all’atto della comprensione. Dunque, se per IA forti intendiamo quelle in grado di riprodurre la mente umana, va da sé che esse non esistono.

Searle prosegue, schematizzando il suo ragionamento in tre assiomi ed una conclusione:

A 1. I programmi di un calcolatore [che nell’esperimento coincidono con il manuale delle regole] sono formali (sintattici).

A 2. La mente umana ha contenuti mentali (una semantica).

A 3. La sintassi di per sé non è condizione essenziale, né sufficiente, per la determinazione della semantica.

C: I programmi [il manuale] non sono condizione necessaria né sufficiente perché sia data una mente.

In altre parole, il corretto utilizzo di una sintassi, cioè di una disposizione di elementi, non coincide con la comprensione semantica di essi, cioè del loro significato; anche perché la semantica non è un concetto astratto, bensì corrisponde a precisi eventi biologici all’interno del nostro cervello.

Su questo punto conviene riflettere: in effetti, le posizioni di Searle sono logiche e resistenti, ma le sue argomentazioni hanno davvero risposto al problema di Turing? Facciamo ancora un passo indietro.

Secondo il filosofo austriaco Ludwig Wittgenstein[7], la semantica di una parola non coincide con il suo “significato” in senso classico, ovvero con una seconda parola che spieghi la prima, ma che a sua volta è passibile di essere spiegata da una terza, dando origine a processo infinito. Piuttosto, il significato di una parola corrisponde all’uso che ne facciamo nel linguaggio[8]. Pertanto, la semantica viene vista alla luce della pragmatica. Ad esempio, per chiarire il significato della parola “ciao”, non basta la definizione “espressione di saluto”: per capire cosa significa davvero questa parola devo vedere che cosa ne faccio. Se qualcuno mi dice: “Gioco dei numeri del superenalotto stasera, perché sento che vincerò e diventerò miliardario!”, con tutta probabilità io risponderò: “seh, ciao!”. In questo caso non sto certo salutando: è un modo per dire “non penso proprio”, “ti piacerebbe!”: ovvero, a chiarire il significato della parola è il suo utilizzo. Pertanto, se io mi trovassi nella stessa conversazione e fossi una IA istruita a rispondere “seh, ciao!”, nonché istruita a dire “ciao!” anche quando incontro qualcuno per strada, starei perfettamente copiando i contesti di utilizzo della parola e nessuno potrebbe mettere in dubbio che io ne conosca il significato.

Alla luce di tali considerazioni, si potrebbe dire che, dentro alla stanza, John sta utilizzando gli ideogrammi in maniera corretta grazie al suo manuale e perciò non ha bisogno di altro: che nella stanza ci sia un connazionale cinese, John con il suo manuale o una IA adeguatamente programmata, per la persona cinese all’esterno non fa nessuna differenza. Per questo, si potrebbe anche essere d’accordo con Searle nel dire che una IA forte non può esistere, ma è lecito chiedersi: dal momento che una IA “debole”, o John in possesso di quel manuale, sanno intrattenere una conversazione e ingannare chiunque sulla natura della propria “comprensione”, a cosa serve davvero la distinzione tra IA forte e IA debole? Che cosa cambia tra riprodurre e simulare? Da un punto di vista pragmatico, niente. «Allora, è assolutamente necessario concludere che il più esperto di una cosa è colui che se ne serve»: lo afferma Platone tra le ultime pagine della Repubblica[9].

In conclusione, car* lettor*, che cos'è che distingue l'uomo dalla macchina? Non è la stessa domanda che "che cosa distingue l'uomo dalla macchina, agli occhi di un altro uomo". Per il pragmatista, basterà considerare valida soltanto la seconda domanda; chi volesse salvare anche la prima, invece, avrà l'onere di trovare una risposta. E per adempiere a questo compito, una volta abbandonato il linguaggio, dovrà guardare da un'altra parte.


  1. Per un approfondito status quaestionis su questo esperimento mentale, rimando alla pagina dedicata nell’Enciclopedia filosofica Stanford: https://plato.stanford.edu/entries/chinese-room/ ↩︎

  2. Sulla poliedrica figura di questo matematico, informatico, teorico dell’IA e filosofo inglese, rimando alla biografia Alan Turing. Storia di un enigma (https://www.amazon.it/dp/8833926575/?tag=cosmiolistatitolo-21) e ad un celebre film che da essa è stato tratto: The Imitation Game (2014). ↩︎

  3. https://web.archive.org/web/20080702224846/http://loebner.net/Prizef/TuringArticle.html ↩︎

  4. Ne abbiamo parlato, ad agosto 2022, qui su Melainsana: https://magazine.melainsana.it/tra-blake-lemoine-e-chomsky/ ↩︎

  5. Filosofo del linguaggio e della mente, ha insegnato a Berkley. https://www.britannica.com/biography/John-Searle ↩︎

  6. https://web-archive.southampton.ac.uk/cogprints.org/7150/1/10.1.1.83.5248.pdf. Un successivo articolo è stato tradotto in italiano per Le Scienze nel 1990: http://download.kataweb.it/mediaweb/pdf/espresso/scienze/1990_259_1.pdf ↩︎

  7. Wittgenstein nacque nel 1889 e morì nel 1951; dal 1929 insegnò all’università di Cambridge, dove uno dei suoi corsi – quello del 1939 sui Fondamenti della Matematica – fu frequentato dallo stesso Turing. ↩︎

  8. L.W., Ricerche Filosofiche, n.43. ↩︎

  9. Πολλὴ ἄρα ανάγκη τὸν χρώμενον ἑκάστῳ ἐμπειρότατόν τε εἶναι. Repubblica X, 601d. ↩︎