9
104 MENTES, CEREBROS Y PROGRAMAS Pylyshyn, Z. W. (1980), "Cornputation and Cognition: Issues in the Foundation of Cognitive Science", Behavioral and Brain Sciences, 3, pp. 111-132. Schank, R. C. y Abelson, R. P. (1977), Scripts, Plans, Coals, and Understanding, Hillsdale, N. J., Erlbaum. Searle, J. R. (1979a), "Intentionality and the Use of Language", en A. Margolit (ed.), Meaning and Use, Dordrecht, Reidel. -- (1979b), "What is an Intentional State?", Mind, 88, pp. 74-92. Varios autores (1978), "Cognition and Consciousness in Non-Human Species", Behavioral and Brain Sciences, vol. 1. núm. 4, número completo. Weizenbaum, J. (1965), "ELIZA-A Computer Program for the Study of Natural Language Communication Between Man and Machine", Commun. ACM, 9, pp. 36-45. --- (1976), Computer Power and Human Reason, San Francisco, W. H. Free- mano Winograd, T. (1973), "A Procedural Model of Language Understanding", en R. C. Schank y K. M. Colby (eds.), Computer Models of Thought and Language, San Francisco, W. H. Freeman, pp. 152-186. IV. ESCAPE DE LA HABITACIÓN CHINA * MARGARET A. BODEN EN SU ARTÍCULO "Mentes, cerebros y programas" (1980), John Searle alega que las teorías de computación en psicología son esencialmente inútiles. Hace al respecto dos afirmaciones importantes: las teorías de computa- ción, de naturaleza puramente formal, no pueden ayudamos en modo alguno a comprender los procesos mentales; y el hardware de la com pu tadora, a diferencia de la neuroproteína, carece obviamente de los poderes causales adecuados para generar procesos mentales. Demostraré aqu í que ambas afirmaciones están equivocadas. ,..•. La primera afirmación de Searle da por sentada la suposición (forma- lista), ampliamente aceptada de que los "cómputos" que se estudian en la ciencia de la computación son puramente sintácticos y que pueden defi- nirse (en términos igualmente adecuados para la lógica simbólica) como el manejo formal de símbolos abstractos mediante la aplicación de reglas [ormales . Según este autor, de ahí se deduce que las explicaciones forma- listas, aunque adecuadas para explicar el procesamiento de "información" sin sentido o el manejo de "símbolos" en las computadoras, son incapaces de explicar cómo utilizan las mentes humanas la información o los símbo- los, propiamente así llamados. El significado o la intencionalidad no pue- den explicarse en términos computacionales. Searle no quiere decir con eso que ninguna máquina pueda pensar. Los seres humanos pueden pensar y c:,tos, concede, son máquinas; incluso adopta el credo materialista de que sólo las máquinas pueden pensar. Tam- poco dice que los seres humanos y los programas sean totalmente incon- mensurables. Acepta que, en cierto nivel sumamente abstracto de descrip- ción, las personas (como todo lo demás) son ejemplificaciones concretas de cornputadoras digitales. Más bien argumenta que nada puede pensar, significar o comprender exclusivamente en virtud de su ejemplificación Concreta de un programa de computadora. Para convencemos de esto, Searle recurre a un ingenioso experimento de pensamiento. Se imagina a sí mismo encerrado en una habitación donde hay una serie de fajas de papeles que contienen garabatos; una ventana a * Margaret A. Boden, "Escaping from the Chinese Room", tomado del capítulo 8 de Com- puter Models o[ Mind (1988). Reproducido con permiso de Cambridge University Press. 105

Boden, Margaret - Escape de La Habitacion China

Embed Size (px)

DESCRIPTION

Artículo en torno a la inteligencia artificial

Citation preview

104 MENTES, CEREBROS Y PROGRAMAS

Pylyshyn, Z. W. (1980), "Cornputation and Cognition: Issues in the Foundation ofCognitive Science", Behavioral and Brain Sciences, 3, pp. 111-132.

Schank, R. C. y Abelson, R. P. (1977), Scripts, Plans, Coals, and Understanding,Hillsdale, N. J., Erlbaum.

Searle, J. R. (1979a), "Intentionality and the Use of Language", en A. Margolit (ed.),Meaning and Use, Dordrecht, Reidel.

-- (1979b), "What is an Intentional State?", Mind, 88, pp. 74-92.Varios autores (1978), "Cognition and Consciousness in Non-Human Species",

Behavioral and Brain Sciences, vol. 1. núm. 4, número completo.Weizenbaum, J. (1965), "ELIZA-A Computer Program for the Study of Natural

Language Communication Between Man and Machine", Commun. ACM, 9,pp. 36-45.

--- (1976), Computer Power and Human Reason, San Francisco, W. H. Free-mano

Winograd, T. (1973), "A Procedural Model of Language Understanding", en R. C.Schank y K. M. Colby (eds.), Computer Models of Thought and Language, SanFrancisco, W. H. Freeman, pp. 152-186.

IV. ESCAPE DE LA HABITACIÓN CHINA *

MARGARET A. BODEN

EN SU ARTÍCULO "Mentes, cerebros y programas" (1980), John Searle alegaque las teorías de computación en psicología son esencialmente inútiles.Hace al respecto dos afirmaciones importantes: las teorías de computa-ción, de naturaleza puramente formal, no pueden ayudamos en modoalguno a comprender los procesos mentales; y el hardware de lacom pu tadora, a diferencia de la neuroproteína, carece obviamente de lospoderes causales adecuados para generar procesos mentales. Demostraréaqu í que ambas afirmaciones están equivocadas. ,..•.

La primera afirmación de Searle da por sentada la suposición (forma-lista), ampliamente aceptada de que los "cómputos" que se estudian en laciencia de la computación son puramente sintácticos y que pueden defi-nirse (en términos igualmente adecuados para la lógica simbólica) comoel manejo formal de símbolos abstractos mediante la aplicación de reglas[ormales . Según este autor, de ahí se deduce que las explicaciones forma-listas, aunque adecuadas para explicar el procesamiento de "información"sin sentido o el manejo de "símbolos" en las computadoras, son incapacesde explicar cómo utilizan las mentes humanas la información o los símbo-los, propiamente así llamados. El significado o la intencionalidad no pue-den explicarse en términos computacionales.

Searle no quiere decir con eso que ninguna máquina pueda pensar. Losseres humanos pueden pensar y c:,tos, concede, son máquinas; inclusoadopta el credo materialista de que sólo las máquinas pueden pensar. Tam-poco dice que los seres humanos y los programas sean totalmente incon-mensurables. Acepta que, en cierto nivel sumamente abstracto de descrip-ción, las personas (como todo lo demás) son ejemplificaciones concretasde cornputadoras digitales. Más bien argumenta que nada puede pensar,significar o comprender exclusivamente en virtud de su ejemplificaciónConcreta de un programa de computadora.

Para convencemos de esto, Searle recurre a un ingenioso experimentode pensamiento. Se imagina a sí mismo encerrado en una habitación dondehay una serie de fajas de papeles que contienen garabatos; una ventana a

* Margaret A. Boden, "Escaping from the Chinese Room", tomado del capítulo 8 de Com-puter Models o[ Mind (1988). Reproducido con permiso de Cambridge University Press.

105

106 ESCAPE DE LA HABITACIÓN CHINA

través de la cual la gente puede pasarle más papeles con garabatos y porla que él puede entregar papeles; y un libro de reglas (en inglés) que leindican cómo aparejar los garabatos, que siempre pueden identificarse porsu forma o figura. Searle pasa el tiempo dentro de la habitación manipu-lando los garabatos de acuerdo con las reglas.

Una de estas reglas le indica, por ejemplo, que cuando le pasen guiriguiri entregue guara guara. El libro de reglas también contiene secuenciasmás complejas de pares de garabatos, donde sólo el primero y el últimopasos mencionan la transferencia de papel hacia adentro o afuera de lahabitación. Antes de que encuentre alguna regla que le ordene directamenteentregar una tira de papel, deberá localizar el garabato plonque y cornpa-rarlo con un garabato plonque, en cuyo caso el resultado de la comparaciónes lo que determina la naturaleza del garabato que entregue. Algunas vecestendrá que hacer muchas de estas comparaciones de un garabato con otroy las consiguientes selecciones de garabatos, antes de encontrar la regla<¡ue le permita transferir algo hacia afuera.

En lo a que concierne a "Searle en la habitación", estos güiris y guarasno son más que garabatos sin sentido. Sin embargo, aunque él no lo sabe,se trata de caracteres chinos. Las personas que se encuentran fuera de lahabitación, que son chinas, los interpretan como tales. Más aún, los mo-delos que entran y salen por la ventana son interpretados por ellos comopreguntas y respuestas respectivamente: las reglas son tales que la mayoríade las preguntas tienen su contraparte, ya sea directa o indirectamente, enlo que ellos reconocen como una respuesta sensata. No obstante, el propioSearIe (dentro de la habitación) ignora todo esto.

La cuestión, dice Searle, es que "Searle en la habitación" es claramentela representación concreta de un programa de computadora. Es decir, haceun manejo puramente formal de modelos no interpretados: todo en él essintaxis y nada de semántica.

Las reglas para aparear garabatos son equivalentes a las reglas "si ...entonces" que suelen utilizarse (por ejemplo) en los sistemas expertos. Al-gunas de las comparaciones internas entre garabatos podrían equivaler alo que los estudiosos de la lA en el área de procesamiento de lenguajesnaturales llaman guión, por ejemplo, el guión del restaurante descrito porR.e. Schanky R.P. Abelson (1977). En ese caso, el proceso de transferenciade papeles de "Searle en la habitación" podría compararse en esencia conla ejecución del programa de análisis de textos de Schank de "preguntas yrespuestas". Sin embargo, este proceso de preguntas y respuestas no con-siste en responder las preguntas. "Searle en la habitación" no está realmenterespondiendo. ¿Cómo podría hacerla si no comprende las preguntas? Lapráctica en realidad no sirve de nada (excepto, quizá, para aparear másrápido los garabatos), ya que si "Searle en la habitación" escapara algún

ESCAPE DE LA HABITACIÓN CHINA 107

día, seguiría siendo tan ignorante del chino como lo era cuando lo ence-

rraron.No cabe duda de que los chinos de afuera encontrarían útil mantener

bien alimentado a "Searle en la habitación", de la misma manera en queen la vida real estamos dispuestos a invertir grandes sumas de dinero ensistemas de "asesoría" por computadora. Mas el hecho de que la gente querealmente entiende pueda utilizar un sistema de cómputo formalista e in-trínsecamente carente de sentido, para proporcionar lo que ellos interpre-ten (sic) como preguntas, respuestas, designaciones, interpretaciones osímbolos, resulta irrelevante. Sólo lo pueden hacer si logran especificarexternamente una correspondencia entre el formalismo y los asuntos queles interesan. En principio, uno y el mismo formalismo puede hacersecorresponder con varios dominios distintos a fin de ser utilizado (por gen te)para responder preguntas acerca de cualquiera de esos dominios. Sin em-bargo, esto carecería por sí mismo de sentido, al igual que.los símboloschinos, desde el punto de vista de "Searle en la habitación".

De aquí se deduce, de acuerdo con Searle, que ningún sistema puedeentender nada exclusivamente en virtud de su representación concreta deun programa de computadora, puesto que, si pudiera hacerla, entonces"Searle en la habitación" entendería chino. Por consiguiente, la psicologíateórica no puede fundamentarse apropiadamente en conceptos computa-cionales.

La segunda afirmación de Searle se refiere a cuál sería una explicaciónadecuada de comprensión. Según él, ésta certificaría que los símbolos sig-nificantes deben encontrarse incorporados en algo que cuente con los "po-deres causales correctos" para generar comprensión o intencionalidad. Esobvio, dice, que mientras que los cerebros sí tienen estos poderes causales,las computadoras no. Más precisamente (puesto que la organización delcerebro podría ser comparada con la de una computadora), la neuropro-teína tiene estos poderes, mientras que el metal y el silicón, no: las propie-dades bioquímicas de la materia cerebral son fundamentales.

Searle rechaza la definición ampliamente citada de A. Newell (1980)para "sistemas de símbolos físicos", porque ésta exige únicamente que lossímbolos se incorporen en algún material capaz de ejecutar cómputos for-malistas, cosa que las computadoras -como es evidente- sí pueden hacer.Desde el punto de vista de Searle, ninguna computadora electrónica puedede verdad manipular símbolos, ni designar o interpretar realmente nadaen lo absoluto, independiente de cualesquiera dependencias causales quevinculen sus modelos físicos internos con su comportamiento. (Esta opi-nión tan realista de la intencionalidad contrasta con el instrumentalismode D.e. Dennett [1971]. Para este autor un sistema intencional es aquelcuyo comportamiento se puede explicar, predecir y controlar con sólo atri-

108ESCAPE DE LA HABITACIÓN CHINA

buirle creencias, propósitos y racionalidad. Conforme a este criterio, algu_nos de los programas de computadora existentes Sonsistemas intencionalesy los hipotéticos humanoides tan socorridos en la ciencia ficción serían a[ortiori sistemas intencionales.)

Searle declara que la intencionalidad es un fenómeno biológico. Comotal, es tan dependiente de su bioquímica implícita como lo son la fotosín-tesis y la lactancia. Searle concede que tal vez la neuroproteína no sea laúnica sustancia en el universo capaz de dar sustento a la vida mental, delmismo modo en que muchas otras sustancias, además de la clorofila, po-drían catalizar (en Marte, tal vez) la síntesis de los carbohidratos, perorechaza el metal o el silicón como alternativas potenciales, incluso en Mar-te. También se pregunta si una computadora fabricada con viejas latas decerveza podría comprender, pregunta retórica cuya respuesta esperada se-ría un rotundo "[No!", En resumen, para Searle resulta intuitivamente ob-\íÍo que las sustancias inorgánicas con las que (en la actualidad) se cons-truyen las computadoras son, en esencia, incapaces de dar soporte a lasfunciones mentales.

Para valorar la crítica de doble punta que hace Searle de la psicologíacomputacional, consideremos primero su opinión de que la intencionali-dad debe tener fundamentos biológicos. Podríamos caer en la tentaciónde considerar ésta como una declaración positiva, en contraste con su de-claración (negativa) de que las teorías puramente formalistas no puedenexplicar la mentalidad. Sin embargo, al hacerlo le concederíamos más im-portancia de la que merece, ya que su poder explicativo es ilusorio. Lasanalogías biológicas que Searle menciona son engañosas, y las intuicionesa las que alude no son confiables.

La intencionalidad que produce el cerebro, se nos dice, es comparablecon la fotosíntesis, pero ¿lo es en realidad? Podemos definir los productosde la fotosíntesis, distinguir claramente diversos azúcares y almidones quese encuentran dentro del grupo general de los carbohidratos y mostrar dequé manera difieren de otros productos bioquímicos como las proteínas.Más aún, no sólo sabemos que la clorofila es la base de la fotosíntesis, sinoque tarn bién entendemos cómo lo hace (ypor qué otras sustancias químicasno pueden hacerlo). Sabemos que es más un catalizador que materia primay podemos especificar el proceso subatómico mediante el cual ejerce sufunción catalítica y el momento en el que lo hace. Con respecto al cerebroy al entendimiento, el caso es muy distinto.

Nuestra teoría de qué es la intencionalidad (sin importar cómo se genera)no admite comparación con nuestro conocimiento sobre los carbohidratos,ya que la intencionalidad sigue siendo una controversia filosófica. Ni si-quiera tenemos la certeza de poder reconocerla cuando la vemos. Por logeneral se acepta que las actitudes proposicionales son intencionales y que

ESCAPE DE LA HABITACIÓN CHINA 109

los sentimientos y las sensaciones no lo son, pero no existe un consensoclaro acerca de la intencionalidad de las emociones.

Se han realizado varios intentos de caracterizar la intencionalidad ydistinguir sus subespecies como estados intencionales diferentes (creen-cias u opiniones, deseos, esperanzas, intenciones y similares). El propioSearle ha hecho al respecto varias aportaciones importantes desde susprimeros estudios sobre actos del habla (1969) hasta sus aportaciones másrecientes (1983) acerca de la intencionalidad en general. Un criterio co-múnmente utilizado (adoptado por Brentano en el siglo XIX y también porSearle) es elpsicológico. En palabras de Brentano, los estados intencionalesdirigen la mente hacia un objeto; en las de Searle, poseen una capacidadde representación intrínseca o "respectividad": en ambos casos los autoresrelacionan la mente con el mundo y con otros posibles mundos. No obs-tante, algunos escritores definen la intencionalidad en términos lógicos(Chisholm, 1967), aunque todavía no está claro si las definiciones lógicasy psicológicas son precisamente coextensivas (Boden, 1970). En pocas pa-labras, a diferencia de la química de los carbohidratos, ninguna teoría dela intencionalidad es aceptada sin reparos.

En cuanto a la "síntesis" bioquímica de la intencionalidad realizada porel cerebro, ésta es aún más misteriosa. Tenemos buenas razones para creerque esa neuroproteína respalde la intencionalidad, pero no tenemos la másmínima idea de cómo (qua neuroproteína) lo hace.

Hasta que comprendemos del todo estos asuntos, centraremos nuestraatención en la base neuroquímica de ciertas funciones informativas (comola transmisión, activación e inhibición de rnensajes).incorporadas en lasneuronas y sinapsis. Por ejemplo, cómo permite la bomba de sodio de lamembrana celular que un potencial de acción se propague a lo largo delaxón; cómo causan los cambios electroquímicos que una neurona entreen su periodo refractario y se recupere de él, o cómo pueden alterarse losumbrales neuronales con neurotransmisores como la acetilcolina.

Respecto a la célula visual, por ejemplo, una pregunta psicológica fun-damental podría ser, si puede funcionar la célula para detectar sus gradientesde intensidad. Si el neurofisiólogo logra decimos qué moléculas puedenhacerlo, mucho mejor. No obstante, desde el punto de vista de la psicología,no es la bioquímica como talla que importa, sino las funciones que trans-portan información basadas en ella. (Searle admite esto aparentementecuando afirma: "El tipo de realizaciones que los estados intencionalestienen en el cerebro pueden describirse en un nivel funcional mucho másalto que el de la bioquímica específica de las neuronas involucradas" [1983,p.272].)

Como ha mostrado el trabajo en "visión computarizada", el metal y elsilicón son, sin duda, capaces de respaldar algunas de las funciones nece-

110 ESCAPE DE LA HABITACIÓN CHINA

sarias para el mapeo de dos a tres dimensiones que entraña la visión. Ade-más, pueden incorporar funciones matemáticas específicas para reconocergradientes de intensidad (a saber, los "detectores DOG" que computan ladiferencia de gausses), que parecen intervenir en muchos sistemas visualesbiológicos. También podría ser cierto que el metal y el silicón no puedenrespaldar todas las funciones que entraña la visión normal, o el entendi-miento en general. Quizá sólo la neuroproteína puede hacerla, así, sólo lascriaturas con una biología "terrestre" pueden gozar de intencionalidad.Mas hasta el momento no tenemos ninguna razón específica para pensarasí. Lo más importante en este contexto es que cualesquiera razones quepodamos tener en el futuro deben basarse en descubrimientos empíricos,es decir, de nada sirven las intuiciones.

Si alguien se pregunta qué dependencias de la materia mental son in-tuitivamente plausibles, la respuesta debe ser ninguna. Ninguno de los quehan buscado una solución a la intencionalidad (en oposición a los pote n-•ciales de acción) ha exclamado nunca: "El sodio ¡por supuesto!" Las bom-bas de sodio no son "obviamente" menos absurdas que los chips de silicón;la polaridad eléctrica no es "obviamente" menos irrelevante que las latasviejas de cerveza y la acetilcolina difícilmente sería menos sorprendenteque la cerveza. El hecho de que el primer miembro de cada uno de estostres binomios resulte científicamente apremiante no los hacen intuitiva-mente inteligibles; nuestra sorpresa inicial persiste.

Nuestras intuiciones podrían cambiar con el avance de la ciencia. Esposible que con el tiempo consideremos a la neuroproteína (y quizá tam-bién al silicón) como obviamente capaz de englobar a la mente, tanto comoahora consideramos que las sustancias bioquímicas en general (la clorofilaentre ellas) son obviamente capaces de producir otras sustancias: intuiciónque no fue ni obvia ni siquiera para los químicos antes de que se sintetizarala urea. No obstante, en la actualidad nuestras intenciones no tienen nadaútil que decir acerca de la base material de la intencionalidad. La declara-ción "positiva" de Searle, su explicación alterna putativa de la intenciona-lidad, constituye, en el mejor de los casos, un "pagaré", y en el peor, unmero embaucamiento.

No obstante, su declaración negativa -que las teorías computacionalesformales no pueden explicar el entendimiento- se rebate menos rápida-mente. Mi impugnación, por tanto, tiene dos partes: la primera abordarádirectamente su ejemplo de la habitación china y la segunda versará sobresu suposición de fondo (de la que depende su ejemplo) de que los programasde computadora son sólo sintaxis.

El ejemplo de la habitación china ha suscitado un gran debate, tantodentro como fuera de las ciencias cognoscitivas. El propio Searle anticipóalgunas de las críticas en su artículo original, otras aparecieron acornpa-

ESCAPE DE LA HABITACIÓN CHINA 111

ñando a los comentarios de sus colegas (junto con su réplica) y a partir deentonces se han publicado algunas más. Sólo me referiré aquí a dos puntos:lo que Searle llama la réplica del robot y lo que yo denominaré la réplicadel inglés.

La réplica del robot acepta que la única comprensión del chino que existeen el ejemplo de Searle es la de los chinos que se encuentran afuera de lahabitación. La incapacidad de "Searle en la habitación" para relacionarlos caracteres chinos con los sucesos del mundo exterior indican que él noentiende el chino. Asimismo, una computadora con teletipo de Schank,que no puede reconocer un restaurante, dar dinero a un mesero ni mascarun bocado, nada entiende de restaurantes, aun cuando pueda "responder"adecuadamente preguntas acerca de ellos. Algo totalmente distinto seríaun robot, provisto no sólo con un guión sobre restaurantes, sino tambiéncon programas visuales alimentados a través de cámaras y c,9Pextremida-des capaces de caminar y recoger cosas. Si el comportamiento de entraday de salida de información de un robot de este tipo fuera idéntico al de losseres humanos, entonces podría demostrarse que entiende tanto de res-taurantes como la lengua natural-el chino, tal vez- que utilizan las per-sonas para comunicarse con él.

La primera respuesta de Searle a la réplica del robot pregona ya unavictoria, pues concede que la cognición no es exclusivamente una cuestiónde manipulación de símbolos formales, sino que además requiere un con-junto de relaciones causales con el mundo exterior. En segundo lugar,Searle insiste en que añadir habilidades perceptivomotoras a un sistemade computación no le agrega intencionalidad o entendimiento.

Discute este punto imaginando un robot que, en lugar de contar con unprograma de computadora que lo haga funcionar, tiene un Searle miriia-turizado en su interior, en su cráneo tal vez. Con ayuda de un libro de reglas(nuevo), "Searle dentro del robot" ordena los papeles y recibe y entregagüiris y guaras casi de igual manera como antes lo hizo "Searle en la habi-tación". Mas ahora no son chinos quienes manejan algunos o todos loscaracteres en chino, sino procesos causales activados en las cámaras yenel equipo de audio que se encuentran en los ojos y en los oídos del robot.y no son manos chinas las que reciben los caracteres de salida, sino motoresy palancas integrados a las extremidades del robot, que se mueven en con-secuencia. En pocas palabras, al parecer este robot no sólo es capaz deresponder preguntas en chino, sino que también ve y hace cosas en con-secuencia: puede reconocer el gérmen de soya crudo y, si así lo pide lareceta, revolverlo en un wok tan bien como cualquiera de nosotros.

(Los estudios realizados sobre la visióncomputarizada antes mencio-nados sugieren que el vocabulario en chino necesitaría ser de una extensiónConsiderable para que este ejemplo pudiera realizarse. Asimismo, la enor-

112 ESCAPE DE LA HABITACIÓN CHINA

me cantidad de investigadores en IA sobre el procesamiento del lenguaje "señala que lo mismo podría decirse del inglés que se requiere para expresarlas reglas en el ejemplo inicial de preguntas y respuestas de Searle. Decualquier manera, lo que Searle en la habitación necesita no es tanto elchino, ni siquiera el inglés, sino más bien un lenguaje de programación.Regresaremos en breve a esta cuestión.)

Sin embargo, al igual que su antecesor encerrado en la habitación, Searledentro del robot nada sabe del contexto mayor en el que se encuentra. Estan ignorante del chino como lo era antes y no tiene más acceso al mundoexterior que en el ejemplo original. Para él, el gérmen de soya y los woksson invisibles e intangibles, pues todo lo que dentro del robot Searle puedever y tocar, además del libro de reglas y los garabatos, es su propio cuerpoy las paredes interiores del cráneo del robot. Por lo tanto, Searle arguyeque no puede acreditársele al robot el entendimiento de ninguno de estosasuntos mundanos. En realidad, no ve ni hace nada en lo absoluto: "se

• mueve simplemente como resultado de sus circuitos eléctricos y de suprograma" el cual más adelante es representado concretamente por el hom-bre que se encuentra en su interior, quien "carece de estados intencionalesdel tipo pertinente" (1980, p. 420).

Este argumento de Searle resulta inaceptable como impugnación a laréplica del robot, porque establece una analogía falsa entre el ejemplo ima-ginado y lo que afirma la psicología computacional.

Searle supone que "Searle dentro del robot" ejecuta las funciones querealiza el cerebro humano (de acuerdo con teorías de la computación). Sinembargo, la mayoría de los estudiosos de la computación no atribuyenintencionalidad al cerebro (y los que lo hacen, como pronto veremos, lohacen de manera muy limitada); Searle caracteriza a "Searle dentro delrobot" como a alguien que goza plenamente de intencionalidad genuina,tal como él mismo. La psicología computacional no atribuye al cerebro lacapacidad de ver germen de soya o de comprender inglés; estados intencio-nales como éstos son propiedad de las personas, no de los cerebros. Engeneral, aunque se supone (tanto por los computólogos como por el propioSearle) que las representaciones y los procesos mentales están englobadosen el cerebro, las habilidades sensomotoras y las actitudes proposicionalesque las hacen posibles se atribuyen a la persona como un todo. De estamanera, la descripción de Searle del sistema dentro del cráneo del robotcomo un sistema que entiende inglés no corresponde en verdad a lo quelos computólogos dicen acerca del cerebro.

En efecto, los procedimientos específicos que los psicológos de la com-putación suponen en calidad de hipótesis y que incorporan en los modeloscomputarizados de la mente son relativamente estúpidos, y se tornan cadavez más estúpidos a medida que nos desplazamos hacia niveles teóricos

ESCAPE DE LA HABITACIÓN CHINA 113

cada vez más básicos. Considérense, por ejemplo, las teorías acerca delanálisis gramatical del lenguaje natural. El procedimiento de análisis quebusca un determinante no entiende inglés, como tampoco lo hace el pro-cedimiento para localizar la referencia de un pronombre personal: sólopuede hacerla la persona cuyo cerebro realiza esos procesos interpretativosy muchos otros asociados a ellos. La capacidad de entender inglés entrañaun sinnúmero de procesos de información que interactúan, cada uno deloscuales realiza sólo una función muy limitada, pero que en conjunto pro-porcionan la capacidad de aceptar como entrada oraciones en inglésy proprocionar como salida otras oraciones adecuadas en inglés. Puedenhacerse observaciones similares acerca de los componentes individualesde las teorías computacionales sobre la visión, la resolución de problemasoel aprendizaje. Precisamente porque desean explicar el lenguaje, la visión,el razonamiento y el aprendizaje humanos, los psicólogos postulan proce-sos implícitos que carecen de habilidades. ,..~

En suma, la descripción de Searle de que el pseudocerebro del robot (esdecir, "Searle dentro del robot") comprende inglés entraña un error decategoría comparable a considerar al cerebro como portador de inteligen-cia y no como su fundamento causal.

Alguien podría objetar en este punto que me contradigo, que pese a queafirmo que no puede atribuirse intencionalidad al cerebro, eso es precisa-mente lo que hago implícitamente cuando digo que el cerebro ejecuta pro-cedimientos-componentes "estúpidos", pero la estupidez es virtualmenteuna especie de inteligencia. Ser estúpido es ser inteligente, pero no mucho(una persona o un pez pueden ser estúpidos, no así una piedra o un río).

Mi defensa comprende dos aspectos. En primer lugar, el nivel teóricomás básico de todos, sería el equivalente neurocientífico del código demáquina, un nivel construido por la evolución "cual ingeniero". El que unacelda sensible a la luz pueda responder a gradientes de intensidad actuandocomo un detector DOG y el que una neurona pueda inhibir la transmisiónde impulsos a otra neurona son fenómenos que se pueden explicar me-diante la bioquímica del cerebro. La noción de estupidez, aun en cuotasmínimas, es del todo inapropiada cuando se consideran estos hechos. Sinembargo, estas funciones muy básicas del procesamiento de información(detectores DOG e inhibiciones sinápticas) podrían describirse adecuada-mente como "muy, pero muy estúpidas". Esto, desde luego, implica que ellenguaje intencional, aunque sea de un tipo sumamente rencoroso y des-pectivo, puede aplicarse después de todo a los procesos cerebrales, lo quenos lleva al segundo aspecto de mi defensa. No dije que no pueda atribuirseintencionalidad a los cerebros, sino que no puede atribuírseles intencio-nalidad genuina. Tampoco dije que los cerebros no puedan entender ab-solutamente nada, por muy limitados que sean, sino que no pueden (por

114ESCAPE DE LA HABITACI6N CHINA

ejemplo) entender inglés. Incluso sugerí, párrafos atrás, que algunos pocosestudiosos de la computación atribuyen algún grado de intencionalidad alcerebro (o a los procesos computacionales que se llevan a cabo dentro deél). Estos dos puntos resultarán menos oscuros una vez que consideremosla réplica del inglés y su relación con la suposición de fondo de Searle deque las teorías computacionales sin táctico-formales son puramente sin-tácticas.

El punto fundamental de la réplica del inglés es que la representaciónconcreta de un programa de computadora, ya sea que la realice el hombreo una máquina fabricada, sí entraña entendimiento, al menos del libro dereglas. El ejemplo inicial de Searle depende crítica mente de que "Searleen la habitación" sea capaz de entender la lengua en que están escritas lasreglas, en este caso, el inglés. De igual manera, si "Searle dentro del robot"no estuviera familiarizado con el inglés, el gérrnen de soya del robot nuncallegaría al wok . Además, como ya se apuntó antes, el vocabulario del inglés

« (y también del chino en el caso de "Searle dentro del robot") tendría quemodificarse significativamente para que el ejemplo funcionara.

Un lenguaje desconocido (sea chino o Lineal B) sólo puede abordarsecomo un objeto estético o como un conjunto de formas relacionadas sis-temáticamente. Los lenguajes artificiales pueden ser diseñados y estudia-dos, por los lógicos o los matemáticos puros, teniendo sólo en mente suspropiedades estructurales (aunque el ejemplo proporcionado por D.R.Hofstadter [1979] de un sistema pq cuasi aritmético muestra que puedesurgir espontáneamente una interpretación psicológicamente apremiantey predecible de un cálculo formal). No obstante, normalmente responde-mos de modo muy distinto a los símbolos de nuestra lengua materna; dehecho, es muy difícil "poner entre paréntesis" (ignorar) los significadosde palabras conocidas. El punto de vista que mantienen los psicólogoscomputacionales de que las lenguas naturales pueden caracterizarse entérminos de procedimiento resulta importante aquí: las palabras, las cláu-sulas y las oraciones pueden considerarse como miniprogramas. Los sím-bolos de una lengua natural que entendemos ponen en marcha diversostipos de actividad mental. Aprender una lengua implica establecer co-nexiones causales pertinentes, no sólo entre palabras y el mundo ("gato" y lacosa que está sobre el tapete), sino también entre palabras y la multiplicidadde procedimientos no introspectivos que entraña su interpretación.

Además, no es necesario que se diga ex hypothesi (por Searle) que "Searleen la habitación" entiende inglés; su comportamiento dentro de la habita-ción muestra claramente que lo hace o, mejor dicho, muestra que com-prende un Subconjul1to muy limitado del inglés.

Daría lo mismo que "Searle en la habitación" padeciera de amnesia totalrespecto a 99% de su vocabulario en inglés. Las únicas nociones de inglés

ESCAPE DE LA HABITACIÓN CHINA 115

que requiere son las necesarias para interpretar (sic) el libro de reglas dondese especifica cómo aceptar, seleccionar, comparar y producir diferentesmodelos. A diferencia del propio Searle, "Searle en la habitación" no ne-cesita palabras como "catalizar", "lata de cerveza", "clorofila" ni "restau-rante", pero sí podría requerir "encuentre", "compare", "dos", "triangular"v '\'entana" (aunque su comprensión de estas palabras podría ser mucho~enos completa que la de Searle). También debe entender oraciones con-dicionales por si alguna regla establece que al ver un guara debe propor-cionar un guiri. Asimismo, es muy probable que tenga que entender algúntipo de expresiones negativas, órdenes temporales y (en particular si ha deaprender a realizar su tarea con mayor rapidez) generalizaciones. Si lasreglas que utiliza incluyen algunas que analicen gramaticalmente las ora-ciones en chino, también necesitará palabras para las categorías gramati-cales. (No necesitará reglas explícitas para analizar gramatical mente lasoraciones en inglés, tales como los procedimientos de análisis gramaticalque se utilizan en los programas de lA para procesamiento del lenguaje,porque "Searle en la habitación" ya entiende inglés.)

En suma, "Searle en la habitación" necesita entender sólo ese subcon-junto del inglés de Searle que equivale al lenguaje de programación queentiende una computadora para generar el mismo comportamiento de en-trada y salida de preguntas y respuestas por la ventana. De igual modo,"Searle dentro del robot" debe ser capaz de entender cualquier subconjuntodel inglés equivalente al lenguaje de programación que entiende un robotvisornotor completamente computarizado.

Puede parecer que las dos oraciones anteriores dan por sen tado el pun toen cuestión. En efecto, hablar así del lenguaje de programación que en-tiende una computadora es contradictorio en sí mismo, ya que la premisarundamental de Searle -que él supone aceptada por todos los participantesen el debate- estipula que un programa de computadora es de naturalezapuramente formal: la computación que especifica es puramente sintácticay carece de significado intrínseco o contenido semántico que comprender.

Si aceptamos esta premisa, la réplica del inglés esbozada anteriormentepuede descartarse de inmediato, pues intenta establecer una analogía cuan-do ésta no puede establecerse. Más si no procedemos así, si -con todorespeto a Searle (y a otros [Fodor, 1980]); Stich, 1983-10s programas decomputadora no sólo se ocupan de la sintaxis, entonces la réplica del inglésquizá resulte pertinente después de todo. Procedamos ahora a esta pregun-ta fundamental.

Sin duda alguna, para ciertos fines podemos imaginar un programa decomputadora como un cálculo lógico no interpretado. Por ejemplo, seríafactible demostrar, exclusivamente por medios formales, que una fórmulaparticular bien planteada puede derivarse a partir de las estructuras de los

116 ESCAPE DE LA HABITACIÓN CHINA

datos y del programa de las reglas de inferencia. Además, es cierto que elllamado programa intérprete que podría tomar como entrada la estructuraen lista "(PADRE [MARY))" Y devolviera "(LEONARDO)" sólo lo haría ba-sándose en criterios formales sin tener manera de interpretar si estos mo-delos se refieren a gente real. Asimismo, como señala Searle, los programasprovistos con guiones sobre restaurantes no reciben por ello conocimientoacerca de los restaurantes. La existencia de una correspondencia entre unformalismo y un cierto dominio no proporciona en sí misma al manipu-lador del formalismo ninguna comprensión de ese dominio.

Empero, lo que no debe olvidarse es que el programa de computadoraes un programa para una computadora: cuando el programa corre en elhardware adecuado, la máquina hace algo en consecuencia (de aquí queen las ciencias de la computación se utilicen palabras como "instrucción"y "obedecer"). En el nivel del código de máquina, el efecto que ejerce elprograma en la computadora es directo, porque la máquina se construyó

• de forma tal que una instrucción dada produzca una operación única (lasinstrucciones en lenguajes de nivel superior deben transformarse en ins-trucciones en código de máquina antes de que puedan ser obedecidas).Una instrucción programada, por tanto, no es un mero modelo formal, nisiquiera es un enunciado declarativo (aunque para algunos propósitos,podría imaginarse bajo cualquiera de estas descripciones). Ésta es la es-pecificación de un procedimiento que, dado un contexto de hardware ade-cuado, puede causar que se lleve a cabo el procedimiento en cuestión.

Esto podría expresarse de otra manera diciendo que el lenguaje de pro-gramación es un medio no sólo para expresar representaciones (estructurasque pueden escribirse en papel o proporcionarse a una computadora, al-gunas de las cuales pueden ser isomorfas de cosas que interesen a la gente),sino también p3J él. causar la actividad representativa de ciertas máquinas.

Podría incluso decirse que la iepresentación es una actividad antes queuna estructura. Muchos filósofos y p5icó¡~¿(;";; han supuesto que las repre-sentaciones mentales son intrínsecamente activas. [".r:~:-c:~:"'3 defensoresrecientes de este punto de vista se encuentra Hofstadter r 1985, p. 648) quienespecíficamerite criuca la explicación de Newell acerca de los simbcloscomo signos formales manípuiables. En sus propias palabras: "El cerebropor sí mismo no 'manipula símbolos': ei cerebro es el medio en el que Iiotanlo ..•símbolos y se activan entre si" Hoístadter muestra mas simpatía por lasteorías psicoiógicas "conexi orns tas" que por las "formalistas". Los enío-q~le5 conexionistas entrenan sistemas de procesarmen« ..l paralelo que entérminos generales recuerdan al cerebro y que son propios para modelarlas representaciones. símbolos el conceptos cerebrales como aspectos di-námiros . Mas no sólo los conexionistas piensan que los conceptos sonintrínsecamente activos y no s6lo las representaciones cerebrales pueden

117ESCAPE DE LA HABITACIÓN CHINA

considerarse de esta manera: esta postura se ha generalizado para abarcarlos programas tradicionales de computadora, específicamente los diseñadopara máquinas de Von Neumann, El científico de la computación E.e.Sm

ith(1982) afirma que las representaciones programadas también son

inherentemente activas y que esto es algo que reconocería una teoría ade-cuada de la semántica de los lenguajes de programación.

Smith señala que en la actualidad el conocimiento acerca de estas cues-tiones que de ten tan los científicos de la computación es radicalmente ina-decuado Y nos recuerda que, como se ha mencionado antes, no hay acuerdogeneral -ni dentro ni fuera de la ciencia de la computación- acerca dequé es la intencionalidad y también existen profundas dudas sobre lo quees la representación. Tampoco pueden evitarse las ambigüedades al hablar,más técnicamente, en términos de computación y de manipulación de sím-bolos formales, ya que la comprensión de los científicos de la computaciónacerca de lo que realmente son estos fenómenos es también "sumamenteintuitiva, El análisis de Smith acerca de los lenguajes de computación iden-tifica algunas de las confusiones fundamentales que surgen dentro de laciencia de la computación. De particular importancia resulta aquí su afir-mación de que los científicos de la computación por lo común hacen unadistinción teórica demasiado completa entre las funciones de control deun programa Y su naturaleza como un sistema sintáctico formaL

La separación teórica que Smith critica resulta evidente en el difundidoenfoque del "cálculo dual" en programación. Este enfoque postula unadistinción teórica clara entre una estructura representativa declarativa(o denotativa) Y el lenguaje de procedimiento que la interpreta cuando secorre el programa, En efecto, la relación conocimiento-representación yel intérprete se escriben a veces en dos formalismos bastante distintos(como el cálculo de predicados y el LISP, respectivamente). Sin embargo,con frecuencia ambos se expresan en el mismo formalismo; por ejemplo,LIS? (acrónimo del lenguaje LlSt-Processing), permite que los hechos yprocedimientos se expresen de maneras formalmente similares, al igualque PROLOG (PROgramming-in-LOGic). En tales casos, el enfoque delcálculo dual dicta que el lenguaje de programación (único) en cuestión sedescriba teóricamente en dos formas bastante distintas.

Para ejemplificar la distinción aquí expuesta, supongamos que nos in-teresa representar las relaciones familiares que pudieran utilizarse paradar respuesta a preguntas sobre el tema. podríamos decidir emplear unaestructura de listas que representara hechos tales como que Leonardo esel padre de Mary. O podríamos preferir una representación basada en cua-dros, donde las rendijas de nombres correspondientes al cuadro PADREpodrían llenarse simultáneamente con "LEONARDO" y "MARY". O bien,podríamos escoger una fórmula del cálculo de predicados y decir que exis-

118ESCAPE DE LA HABITACI6N CHINA n.

ten dos personas (a saber, Leonardo y Mary) y que Leonardo es el padrfde Mary. O, por último, podríamos utilizar la oración en español: "Leonai'do es el padre de Mary". s

Cada una de estas cuatro representaciones podría escribirse o dibujarseen papel (como las reglas del libro de reglas de "Searle en la habitación")para que las interpretemos, si hemos aprendido cómo manejar la notacióncorrespondiente. Alternativamente, las representaciones podrían incorpo_rarse en una base de datos computarizada. Mas para que la computadorapueda utilizarla, tiene que haber un programa intérprete que (por ejem-plo) pueda encontrar el dato "LEONARDO" cuando, le "preguntemos"quién es el padre de Mary. Nadie con un poco de sentido común. incorpo_raría estructuras de lista en la computadora sin proporcionarle tambiénun dispositivo para procesar listas, ni le proporcionaría cuadros sin unmecanismo para llenar rendijas, ni fórmulas lógicas sin reglas de inferenciao enunciados en español sin procedimientos de análisis gramatical. (Análo-

• gamente, la gente que sabe que Searle no habla portugués no le proporcio-naría a "Searle en la habitación" un libro de reglas en portugués, a menosde que estuviera dispuesto a enseñarle primero el idioma.)

Smith no niega que existe una diferencia importante entre el sentidodenotativo de una expresión (en términos generales, cuáles Son los mundosreales o posibles con los que puede establecer una correspondencia) y suconsecuencia de procedimiento (en términos generales, qué hace o qué pro-voca). Una cosa es el hecho de que la expresión "(PADRE [MARY])" seaisomorfo de cierta relación de parentesco entre dos personas reales (y quepor ello podamos hacerla corresponder con esa relación) y otra cosa bas-tante distinta el hecho de que la expresión "(PADRE[MARY])" haga quela computadora localice el dato "LEONARDO".De no ser así, no se habría'desarrollado el enfoque del cálculo dual. No obstante, Smith argumentaque en lugar de insistir en el enfoque del cálculo dual sería más elegantey menos confuso adoptar una teoría "unificada" de los lenguajes de pro-gramación, diseñada para abarcar tanto los aspectos denotativos como losde procedimiento.

El mismo autor muestra que muchos términos básicos de ambos ladosde la separación del cálculo dual presentan tanto profundas coincidenciasteóricas como diferencias significativas. El lógico y el científico de la com-putación entienden la noción variable, por ejemplo, de manera muy similar:ambos conceden que una variable puede tener distintos valores asignadosen diferentes momentos. Siendo así, resulta redundante contar con dosteorías distintas acerca de 10 que es una variable. Sin embargo, hasta ciertopunto los lógicos y los científicos de la computación también entiendencosas distintas con este término: el valor de una variable en el lenguaje deprogramación LISP (por ejemplo) es otra expresión LISP, mientras que el

ESCAPE DE LA HABITACI6N CHINA 119

valor de una variable en lógica suele ser algún objeto externo al formalismoen sí. Estas diferencias deben aclararse, al menos para evitar confusióncuando un sistema intenta razonar acerca de las variables utilizando varia-bles. En suma, necesitamos una sola definición de "variable" que tenga encuenta tanto su uso declarativo (en lógica) como su uso de procedimiento(en programación). Habiendo demostrado que se aplican comentarios si-milares a otros términos básicos de la computación, Smith esboza unae~plicación unitaria de la semántica de LISP y describe un cálculo nuevo(MANTIQ)diseñado teniendo en mente el enfoque unificado.

Como señala el ejemplo del uso de variables para razonar sobre variables,una teoría unificada de la computación podría elucidar cómo hacer posibleel conocimiento reflexivo, ya que, dada una teoría de esta índole, las repre-sentaciones de datos y de procesos de un sistema -incluidos sus propiosprocesos internos- serían esencialmente comparables. Esta ventaja teó-rica tiene importancia psicológica (y motivó en gran medida el trabajo deSmith).

No obstante, para nuestros fines actuales el punto es que una teoríafundamental de programas y de computaciones debería reconocer que unade las funciones esenciales de un programa de computadora es hacer quesucedan cosas. Mientras la lógica simbólica se siga considerando un simplejuego con cálculos formales no interpretados (como el cálculo de predica-dos) y la lógica computacional el estudio de relaciones abstractas infinitasen "máquinas" matemáticamente especificadas (como las de Turing), laciencia de la computación no podrá describirse adecuadamente en ningunade estas formas.

Del argumento de Smith se deduce que es errónea la conocida caracte-rización de los programas de computación como todo sintaxis y nada desemántica. Las consecuencias de procedimiento inherentes de cualquierprograma de computación le confieren un punto de apoyo en la semánticadonde la semántica en cuestión no es denotativa sino causal. La analogíaradica en la comprensión del inglés que tiene "Searle en la habitación" yno en su comprensión del chino.

Esta implicación también se encuentra en el artículo de A. Sloman(1986a; 1986b) acerca del sentido en que debe pensarse que las instruccio-nes programadas y los símbolos computarizados poseen cierta semántica,no importa cuán restringida sea. En la semántica causal, el significado deun símbolo (ya sea simple o complejo) debe buscarse haciendo referenciaa sus vínculos causales con otros fenómenos. Las preguntas medularesson: "¿qué provoca que el símbolo se construya y/o se active?" y "¿quésucede como consecuencia)" Las respuestas en ocasiones aludirán a obje-tos externos y a sucesos visibles para un observador y en otras no.

Si el sistema es humano, animal o robot podría tener poderes causales

120 ESCAPE DE LA HABITACIÓN CHINA

que le permitan referirse a restaurantes y a gérmen de soya (la complejidad ~filosófica de referirse a objetos externos, e inclusive no observables, seignora aquí, aunque Sloman la utiliza provechosamente en su análisis).Sin embargo, cualquiera que sea el sistema de procesamiento de informa-ción que se considere, las respuestas a menudo describirán procesos corn.putacionales puramente internos, mediante los cuales pueden construirseotros símbolos y activarse otras instrucciones. Entre los ejemplos se en-cuentran los procesos interpretativos que están en la mente de "Searle enla habitación" (comparables quizá a los procedimientos de análisis grama-tical y de semántica definidos para el caso del procesamiento automáticode lenguajes naturales), provocados por las palabras en inglés y por losprocesos computacionales dentro de un programa de Schank de análisisde textos. Aunque un programa de este tipo no puede utilizar el símbolo"restaurante" para significar restaurante (porque carece de vínculos cau-sales con restaurantes, alimentos, etc.), sus símbolos y procedimientos in-ternos sí abarcan un entendimiento mínimo de algunas otras cuestiones

• como, por ejemplo, qué significa comparar dos estructuras formales.Podría pensarse que el "entendimiento" implícito en este caso es tan

mínimo que no debería utilizarse para nada esta palabra. Así sea. Slomandeja claro que la pregunta importante no es "[cuándo entiende algo la má-quina?" (la cual implica, erróneamente, que existe un punto tajante en quecesa el entendimiento), sino "[qué cosas necesita ser capaz de hacer unamáquina (biológica o no) a fin de poder comprender?". Esta pregunta esimportante no sólo para que una psicología de la computación sea posible,sino también para que su contenido lo sea.

En suma, en mi exposición muestro que el ataque de Searle contra lapsicología de la computación está mal fundado. Considerar a "Searle enla habitación" como la representación concreta de un programa de compu-tadora no significa que carezca de toda comprensión. Puesto que las teoríasde una psicología de la computación formalista deben parecerse más aprogramas de computadora que a la lógica formal, la psicología de la com-putación no es incapaz, en principio, de explicar de qué manera el signifi-cado se relaciona con los procesos mentales.

BIBLIOGRAFíA

Boden. M. A. (1970), "Intentíonality and Physical Systerns", Philosophy o[ Science,37, pp. 200-214.

Chisholm, R. M. (1967), "Intentionalíty", en P. Edwards (ed.), The Encyclopedia o[Philosophy , Nueva York, Macmillan, vol. IV, pp. 201-204.

Dennett, D. C. (1971), "Intentional Systems", J. Philosophy, 68, pp. 87-106. Reirn-

121ESCAPE DE LA HABITACIÓN CHINA

preso en (1978), D. C. Dennett, Brainstorms: Philosophical Essays on Mind andps\'chology, Cambridge, Mass., MIT Press, pp. 3-22.

Fod;r, J. A. (1980), "Methodologial Solipsism Considered as a Research Strategyin Cognitive Psychology", Behavioral and Brain Sciences, 3, pp. 63-110. Reirn-preso en J. A Fodor, Representations: Philosophical Essays on the Foundationsoi Cog/1itive Science , Brighton, Harvester Press, 1981, pp. 225-256.

Hofstadter, D. R. (1979), Godel, Escher, Bach: An Eternal Golden Braid, Nueva York,

Basic Books._ (1985), "Waking Up from the Boolean Dream; Or, Subcognition as Compu-tation", en D. R. Hofstadter, Metamagical Themas: Questing for the Essence o[Mi/ld and Pattern, Nueva York, Viking. pp. 631-665.

Ncwell, A. (1980), "Physica! Symbol Systern". Cognitive science. 4, pp. 135-183.Schank, R. C. y R. P. Abelson (1977), Scripts, Plans, Goals, and Understanding,

Hillsdale, N. J., Erlbaum.Scarle, J. R. (1969), Speech Acts: An Essay in the Philosophy o[ Languate, Cambridge,

Cambridge University Press._ (1980), 'Minds, Brains, and Programs', Behavioral and Biain Sciences, 3,

pp. 417-424._ (1983), lntentionality: An Essay ir! the Philosophy o[ Mind, Cambridge,

Cambridge University Press.Sloman. A. (1986a), "Reference Without Causal Links", en B. du Boulay y L. J.

Stee\s (eds.), Seventh European Conference 0/1 Artificiallntelligence, Amsterdam,North-Holland, pp. 369-381.

__ (1986b), "What Sorts of Machines Can Understand the Symbols They Use?",Proc. Aristotelian Soc., Supp. 60, pp. 61-80.

Smith, B. C. (1982), Reflection and Semantics in a Procedural Language. Cambridge,Mass .. disertación doctoral del MIT y reporte técnico LCSrrR-272.

Stich, S. C. (1983). From Folk Psychology to Cognitive Science: The Case AgainstBelie], Carnbridge. Mass., MIT Press/Bradford Books.