Camera cinese – Wikipedia

before-content-x4

IL Stanza cinese è un’esperienza di pensiero immaginato da John Searle intorno al 1980 [ Primo . Searle si chiedeva se un programma per computer, per quanto complesso, sarebbe sufficiente per dare uno spirito a un sistema. Questa esperienza di pensiero mira a dimostrare che un’intelligenza artificiale può essere solo un’intelligenza artificiale debole e può solo simulare la coscienza, piuttosto che avere autentici stati mentali di coscienza e intenzionalità. Mira anche a dimostrare che il test di Turing è insufficiente per determinare se un’intelligenza artificiale ha questi stati mentali.

after-content-x4

In questa esperienza di pensiero, Searle immagina una persona che non ha alcuna conoscenza del cinese (in questo caso, lui stesso) bloccato in un
camera da letto. Questa persona è resa disponibile a questa persona un catalogo di regole per rispondere alle frasi in cinese. Queste regole sono perfettamente chiare per l’operatore. La loro applicazione si basa esclusivamente sulla sintassi delle frasi. Una frase di una certa forma sintattica in cinese è correlata a una frase di un’altra forma sintattica. L’operatore racchiuso nella stanza riceve quindi frasi scritte in cinese e, applicando le regole che ha, produce altre frasi in cinese che in realtà costituiscono risposte alle domande poste da un vero sinofono situato all’esterno della stanza. Dal punto di vista dell’oratore che pone le domande, la persona bloccata nella stanza si comporta come un individuo che parlava davvero cinese. Ma, in questo caso, quest’ultimo non ha alcuna comprensione del significato delle frasi cinesi che trasforma. Segue solo regole predeterminate.

Inseguendo ironicamente la procedura di test di Turing, il test si suppone di dimostrare che un sofisticato programma per computer può essere qualificato come intelligente, Searle immagina che il programma che determina le risposte fornite all’interlocutore Sinofono diventa così sofisticato e la persona non sinofono diventa abile nella manipolazione dei simboli, che alla fine dell’esperienza, le risposte che dà alle domande non possono essere distinte da quelle che un vero oratore cinese della lingua madre darebbe, sebbene, secondo Searle, la persona che immaginiamo Bloccato nella stanza non capisce ancora una parola di cinese.

Questa esperienza di pensiero suggerisce che non è sufficiente essere in grado di riprodurre esattamente il comportamento linguistico di un oratore cinese per parlare cinese, perché parlare di cinese o di qualsiasi altra lingua, che non è solo per dire che le cose buone al momento giuste sono Anche per significare o voler dire ciò che diciamo: un uso padroneggiato del linguaggio è quindi raddoppiato da una coscienza del significato di ciò che viene detto (coscienza intenzionale) e riproduzione artificiale, anche un comportamento linguistico perfetto, non è sufficiente per produrre tale coscienza.

John Searle nel dicembre 2005.

Searle riassume le motivazioni che lo hanno portato a concepire la sua esperienza di pensiero come segue:

“Non sapevo nulla [nel 1971] con intelligenza artificiale. Ho comprato un manuale casuale, il cui approccio argomentativo mi ha stupito dalla sua debolezza. Non sapevo che questo libro avrebbe segnato una svolta nella mia vita. Ha spiegato come un computer potesse capire la lingua. L’argomento era che una storia poteva essere raccontata a un computer e che era quindi in grado di rispondere alle domande relative a questa storia, sebbene le risposte non siano espressamente fornite nella storia. La storia era la seguente: un uomo va al ristorante, comanda un hamburger, viene servito un hamburger carbonizzato, l’uomo se ne va senza pagare. Chiediamo al computer: “Ha mangiato l’hamburger?”. Risponde in negativo. Gli autori erano molto contenti di questo risultato, che avrebbe dovuto dimostrare che il computer aveva le stesse capacità di comprensione di noi. Fu allora che ho progettato l’argomento della stanza cinese [ 2 . »

Un argomento contro le concezioni funzionaliste dello Spirito [ modificatore | Modificatore e codice

Searle si oppone alla sua esperienza di pensiero prima ai difensori della tesi di “forte” intelligenza artificiale, la tesi ha difeso la prima volta negli anni ’50 da Alan Turing (cfr. macchina) sulla base del suo comportamento linguistico da solo.

after-content-x4

L’approccio filosofico di Searle consiste nel trarre le conclusioni da quattro osservazioni che sta cercando di stabilire [ 3 :

  1. I programmi IT sono sistemi formali la cui struttura è chiamata “sintattica”;
  2. Gli spiriti umani hanno stati mentali e contenuto di natura “semantica”;
  3. La sintassi non è né costituente né sufficiente per la semantica;
  4. I cervelli producono la mente.

Lo scopo dell’esperienza di pensiero della camera cinese è convincere intuitivamente che l’osservazione 3 è corretta, gli altri sono dal suo punto di vista più ovvio. La quarta osservazione non dice che solo i cervelli producono la mente, ma indica che un sistema in grado di produrre uno spirito deve essere indistinguibile nel funzionamento di un cervello. Secondo Searle, se accettiamo queste quattro osservazioni, allora ne consegue che i programmi IT non sono sufficienti per produrre uno spirito [ 3 .

Più in generale, Searle si oppone alle concezioni funzionaliste della mente che la definiscono in termini di funzioni biologiche o fisiche senza tener conto degli aspetti soggettivi dell’esperienza. Queste funzioni sono generalmente progettate dai funzionalisti (specialmente in H. Putnam e J. Fodor) in modo astratto, indipendentemente dal supporto fisico su cui sono realizzati. Di conseguenza, così come è possibile riprodurre artificialmente le funzioni di un cuore, sarebbe possibile secondo loro riprodurre artificialmente le funzioni intellettuali e sensoriali del cervello usando qualsiasi mezzo adatto. Nella versione computazionalista del funzionalismo, la produzione di pensiero è persino perfettamente possibile con un programma per computer appropriato. Tuttavia, l’esperienza della stanza cinese mostra che puoi immaginare un sistema automatico per definizione senza spirito e tuttavia indistinguibile, da un punto di vista funzionale, di un essere umano con intenzionalità. La riproduzione artificiale di un comportamento che potrebbe essere descritto come intenzionale non sarebbe quindi sufficiente per produrre uno spirito, vale a dire una coscienza intenzionale.

L’obiezione più frequentemente avanzata contro l’argomento della camera cinese è quella che Searle ha nominato, in anticipo “la risposta del sistema” [ 4 . Secondo questo, il sistema di cui la persona segue le istruzioni manuali fa parte dei cinesi, nonostante il fatto che la persona stessa non capisca questa lingua. Nel sistema della stanza cinese, la persona svolge quindi il ruolo dell’unità centrale (o processore) di un computer. Ma il processore è solo uno dei tanti componenti di un computer. Nel caso di un computer abbastanza sofisticato da pensare, non è il processore assunto in isolamento che pensa ma piuttosto l’intero sistema di cui fa parte, perché è l’intero sistema che consente di fornire le risposte appropriate.

Per Searle, questa obiezione non è ammissibile perché implica l’idea secondo lui assurdo che ci sarebbe una coscienza della camera cinese che non esisterebbe a livello della persona che fornisce le risposte, anche se è presupposto che questa persona è l’unico essere consapevole di questa stanza. Tuttavia, si può notare che il manuale è il prodotto di una coscienza. È stato necessariamente scritto da qualcuno che capisce la lingua cinese. [Interpretazione personale?] .

Zenon Pylshyn (In) sottolinea per la sua parte il vuoto del concetto di intenzionalità, o “Poteri causali” del cervello, avanzato da Searle per differenziare un’autentica comprensione, dall’apparente comprensione di una stanza cinese [ 5 . Per illustrare questo problema, immagina di sostituire, a poco a poco, in un cervello umano, cellule cerebrali con equivalenti elettronici con esattamente le stesse proprietà. La persona continuerebbe a discutere e avere la stessa apparente comprensione, ma secondo le concezioni di Searle, perderebbe gradualmente la facoltà di reale comprensione. Ma la posizione di Searle non spiega chiaramente quando, perché e come è cambiata la facoltà di comprensione della persona [ 5 .

Un’altra obiezione, sviluppata in particolare da Douglas Hofstadter [ 6 [Fonte insufficiente] , proviene dalla linguistica (ad esempio dalla semiologia o dallo studio della funzione perlocutoria) e afferma che l’esperienza di pensiero di Searle è in realtà impossibile, perché non possiamo produrre risposte adattate all’aiuto di sole regole sintattiche; una Conoscenza del mondo è necessario, ad esempio in inglese, distinguere correttamente le funzioni grammaticali nel famoso esempio Il tempo vola come una freccia; vola di frutta come una banana (In) [ 7 .

Possiamo finalmente notare (questa analisi è sviluppata ad esempio da Zach Weiner [ 8 [Fonte insufficiente] ) Che in linea di principio esiste una petizione: la quantità di possibili dialoghi in una lingua infinita, questi stessi dialoghi non sono ancora stati prodotti, quindi non sappiamo nemmeno se un tale elenco di regole può esistere.

Inoltre, Alan Turing, dall’articolo che ha descritto per la prima volta questo test di intelligenza [ 9 , aveva dimostrato dal calcolo (nella sezione 7 di questo articolo) che anche la versione più incomprimibile di questo catalogo di regole sintattiche sarebbe di tale lunghezza che la sua creazione è fuori portata di qualsiasi intelligenza già costituita, o almeno umana. È proprio questa obiezione, certamente di un ordine tecnico piuttosto che filosofico, che aveva portato Alan Turing a supporre che il suo sufficiente test di intelligenza, poiché secondo questa ipotesi, non si può imitare un’intelligenza se non da un’altra intelligenza.

Va anche notato che Searle si basa sull’intuizione per la sua dimostrazione e non sull’evidenza, chiedendosi dove sia la mente nella stanza. Ma questo argomento funziona anche nel caso del cervello: dov’è lo spirito in questa raccolta di cellule che opera cieche secondo le leggi della biochimica [ dieci ?

  1. J. R. Searle, “Menti, cervelli e programmi”, Le scienze comportamentali e cerebrali , volo. 3, Cambridge University Press, 1980, TR. Fr. “Spiriti, cervelli e programmi”, in D. Hofstadter, D. Dennett, Opinioni dello spirito , Parigi, Interéditions, 1987, pp. 354-373
  2. Intervista alla recensione Discussione , Marte 2000, n. 109
  3. A ET B. Stuart Russel, Peter Norvig Intelligenza artificiale, un approccio moderno 3d ed. Prencice Hall, 2010, chap. 26 p. 1032
  4. Vedi in particolare D. Dennett, La coscienza ha spiegato (1991), ed. Odile Jacob, 1993, P. 540-546 A S. Pinker, Come funziona la mente (1997), ed. Odile Jacob, 2000, P. 104-105
  5. A ET B. (In) Douglas Hofstadter et Daniel Dennett, The Mind’s I: Fantasies and Reflections on Self & Soul , Libri di base, , 512 P. (ISBN 978-0-465-03091-0) , P. 374 Voir et modifier les données sur Wikidata
  6. Douglas Hofstadter, Opinioni dello spirito
  7. Un esempio in cinese, forse ancora più rilevante, è Il poeta di mangiatore di leoni nella sua tana di pietra .
  8. (In) La stanza cinese , Zach Weinersmith, SMBC.
  9. Alan Turing, « Macchinari e intelligenza informatica », Mind, Oxford University Press, vol. 59, n. 236 ,
  10. Stuart Russell E Peter Norvig ( trad. dall’inglese), Intelligenza artificiale , Parigi, Pearson Education, , 1199 P. (ISBN 978-2-7440-7455-4 E 2744074551 , OCLC 708384789 ) , P. 1088

Articoli Correlati [ modificatore | Modificatore e codice

link esterno [ modificatore | Modificatore e codice

after-content-x4