La Psicología del procesamiento de la información

La concepción del cognitivismo como una revolución científica fue utilizada por algunos psicólogos cognitivos (p.ej. Lachman et al., 1979) apoyándose en los trabajos de filosofía e historia de la ciencia de Thomas Kuhn (1922-1996), quien publicó en 1962 un libro muy influyente titulado La estructura de las revoluciones científicas. En este libro, basado sobre todo en la historia de la física, Kuhn defendía que el desarrollo histórico de las ciencias no es acumulativo, sino que consiste en una sucesión de “paradigmas” que constituyen casi cosmovisiones y dictan lo que se debe investigar y cómo. Existen periodos de “ciencia normal” durante los cuales todo marcha bien, es decir, no hay discusiones importantes entre los científicos y se tiene la sensación de que se acumula conocimiento mediante la aplicación del método científico. Sin embargo, en un momento dado comienzan a aparecer anomalías, esto es, datos que no encajan en el paradigma, el cual, entonces, empieza a convertirse en objeto de discusión, o lo que es lo mismo, entra en crisis A medida que aumentan las anomalías el paradigma es cada vez más cuestionado, hasta que finalmente tiene lugar una “revolución” que resuelve la crisis e instaura un nuevo paradigma, el cual inaugura otro periodo de ciencia normal.

El esquema historiográfico kuhniano les iba de perlas a los jóvenes psicólogos cognitivos para presentarse a sí mismos como adalides de un nuevo paradigma. Supuestamente la historia de la psicología consistiría en una concatenación de paradigmas, y el conductismo sería el que habría definido el periodo de ciencia normal entre aproximadamente 1930 y 1960 (el paradigma previo sería el del funcionalismo, que a su vez habría reemplazado al estructuralismo). Algunas anomalías con las que se encontró el conductismo, como las planteadas por Chomsky y las relativas a los límites biológicos del aprendizaje, le habrían hecho entrar en crisis y ésta se habría resuelto con una revolución que daría lugar a un nuevo paradigma: la psicología cognitiva.

Además, desde esta perspectiva se ha solido añadir una valoración positiva del cognitivismo según la cual éste retomó lo que siempre había sido el verdadero objeto de estudio de la psicología, la mente, sólo que ahora lo hacía mediante una metodología científica posibilitada por la tecnología de los ordenadores.

En efecto, las tecnologías de la información desarrolladas tras la Segunda Guerra Mundial dieron forma al ariete metodológico con que se abrió camino el cognitivismo. De hecho, el concepto clave de la psicología cognitiva es seguramente el de “procesamiento de información”. En torno a él gira la teorización de la actividad. Lo psicológico consiste en -o se reduce a- procesamiento de información. Ulric Neisser (1928-2012), que pasa por ser el primero en utilizar la expresión “psicología cognitiva”, lo expresaba del siguiente modo en su manual así titulado, publicado en 1967:

“[U]n libro como este puede llamarse 'La información del estímulo y sus vicisitudes'. Tal como se emplea aquí, el término 'cognición' se refiere a todos los procesos mediante los cuales el ingreso [input] sensorial es transformado, reducido, elaborado, almacenado, recobrado o utilizado. [...] [T]érminos como sensación, percepción, imaginación, recuerdo, solución de problemas y pensamiento, entre otros, se refieren a etapas o aspectos hipotéticos de la cognición” (Neisser, 1967, p. 14).

Desde un punto de vista más amplio, suele decirse que en el surgimiento de la psicología del procesamiento de la información, reconocible a finales de los sesenta en obras como la de Neisser, confluyeron diferentes desarrollos científico-técnicos, algunos muy ligados a la investigación militar motivada por la Segunda Guerra Mundial y la Guerra Fría. Entre ellos podemos destacar cuatro, los dos primeros más técnicos y los otros dos más teóricos, aunque las fronteras entre unos y otros solían ser borrosas.

La teoría de la información y la cibernética

Elaborada por el matemático e ingeniero Claude E. Shannon (1916-2001) y el biólogo Warren Weaver (1894-1878) a finales de los cuarenta, la teoría de la información pretendía servir de herramienta para analizar el flujo de información por un canal cualquiera, midiéndola en bits (la unidad de medida que aún se utiliza en informática). Definían un bit como la unidad de información mínima que se precisa para elegir entre dos alternativas equiprobables. En la Universidad de Harvard, George Armitage Miller (1920-) aplicó esa teoría a la psicología en un famoso artículo cuyo título, “El mágico número 7±2”, hacía referencia a las unidades de información -entre 7 y 9- que es capaz de procesar la mente humana (Miller, 1956). Se basaba en experimentos con tareas de diferenciación de estímulos, discriminación de fonemas, recuerdo de ítems o cálculo de cifras. No obstante, Miller advirtió de que el bit no constituía una unidad de medida psicológicamente relevante, porque los sujetos pueden agrupar los elementos de la estimulación sensorial que reciben y, en función de la agrupación que realicen, tratar como unidades de información cantidades de estímulos distintas. Por eso Miller propuso una nueva unidad de medida, que denominó chunk. Su artículo, pues, se refería a 7±2 chunks.

Posteriormente este tipo de mediciones se trasladaron a las investigaciones sobre la memoria operativa o de trabajo (working memory) y la memoria a corto plazo. El artículo de Miller quedó como un clásico de la psicología cognitiva.

La cibernética es la tecnología de control electrónico de las máquinas, antecedente de la actual informática y otra de las fuentes del concepto moderno de información. El principal fundador de la cibernética fue el matemático norteamericano Norbert Wiener (1894-1964), quien en 1948 defendió que los modelos matemáticos de control de la comunicación en máquinas también pueden aplicarse a los seres vivos, incluyendo los humanos (Wiener, 1961). Uno de los conceptos más importantes a este respecto era el de “retroalimentación”, procedente de los servomecanismos (aparatos electromecánicos). La retroalimentación implica que hay un intercambio de información entre el servomecanismo y el entorno, en virtud del cual el primero es regulado por el segundo. Así funciona, por ejemplo, el termostato de la calefacción, que se enciende o se apaga de acuerdo con su medición de la temperatura ambiente. El sistema nervioso central podría considerarse, entonces, un dispositivo basado en la retroalimentación, porque su funcionamiento está regulado por un intercambio de información con el entorno. Se activa o desactiva en función de las consecuencias de esa activación. Esta idea de información como intercambio de datos con el entorno, propuesta por Wiener, influyó en George A. Miller.

La inteligencia artificial

La inteligencia artifical (a veces nombrada por sus siglas, I.A.) fue también un antecedente de la informática. Su paternidad suele atribuirse al matemático inglés Alan M.

Turing (1912-1954), muy conocido por el juego o prueba de la imitación que propuso en 1950, a veces denominado “test de Turing”. Ideó asimismo la “máquina de Turing”, que impulsó la construcción de ordenadores y consistía en un modelo formal que describía el funcionamiento de un dispositivo de cómputo basado en la inserción de símbolos en una cinta.

La prueba de Turing

La prueba de Turing fue la base de la inteligencia artificial y pretendía resolver por vía práctica la cuestión de si las máquinas pueden pensar. Imaginemos una situación en que una persona recibe respuestas mecanografiadas a las preguntas que envía a la habitación del al lado, con la cual no tiene otro medio de comunicación. En esa habitación hay un hombre y una mujer, y el objetivo de quien recibe las respuestas es adivinar cuál es el hombre y cuál la mujer, pero teniendo en cuenta que el objetivo del hombre es engañarle y, por tanto, mentirá. Supongamos ahora que una máquina sustituye al hombre. ¿Sería capaz de darse cuenta de la sustitución la persona que hace las preguntas? Dicho en términos más generales: sin contacto sensorial directo, ¿podría un ser humano averiguar si su interlocutor es una persona o una máquina? En caso negativo, es perfectamente legítimo afirmar que las máquinas piensan. Esto es lo que defendía Turing.

Pese a la sencillez de su formulación, la prueba de Turing fue muy controvertida, aunque su idea de que las máquinas piensan se extendió rápido. En 1956 el Dartmouth College de Hanover, New Hampshire, auspició una reunión científica que ha pasado a la historia como la Conferencia de Dartmouth y que algunos consideran la puesta de largo del cognitivismo. A esta reunión acudieron investigadores en inteligencia artificial -Marvin Minsky (1927-), Herbert A.

Simon (1916-2001), Allen Newell (1927-1992)- y en ella se habló por vez primera de la analogía o metáfora del ordenador, según la cual el ordenador podría ser un buen modelo de la mente humana y, por tanto, la inteligencia artificial podría tener implicaciones psicológicas importantes.

La analogía del ordenador

En efecto, la analogía del ordenador se diseminó por la psicología cognitiva y la neurociencia hasta prácticamente nuestros días. Al igual que la prueba de Turing, es bastante sencilla de exponer y ha sido muy controvertida. Se basa en la superposición de dos distinciones: la clásica distinción filosófica entre el cuerpo y la mente, y la distinción técnica entre el ordenador y los programas implementados en él. La mente equivaldría a los programas, es decir, al software. El cuerpo, y más en concreto el cerebro o el sistema nervioso, equivaldría al hardware, es decir, al soporte físico de los programas (el disco duro, el cableado interno del ordenador, los microchips, las placas de memoria, etc.).

En realidad, analogías similares se venían planteando desde al menos diez años antes, cuando se habían empezado a concebir ordenadores muy rudimentarios. Organizado por la Fundación Hixon, en 1948 tuvo lugar en el Instituto de Tecnología de California el conocido como Simposium de Hixon, dedicado debatir sobre “los mecanismos cerebrales del comportamiento”. Participó en él el matemático John von Neumann (1903-1957), uno de los padres de los ordenadores, quien comparó el ordenador con un cerebro (no en vano los ordenadores comenzaron llamándose “cerebros electónicos”). Lo que ocurrió en la segunda mitad de los cincuenta es que la mecha prendió definitivamente y la analogía del ordenador se encauzó de tal manera que acabó penetrando en la psicología, convertida ya, a mediados de los sesenta, en psicología del procesamiento de la información.

Ahora bien, desde muy pronto coexistieron dos sensibilidades distintas a la hora de entender la analogía del ordenador. Algunos la interpretaba en sentido fuerte o literal y otros en sentido débil o puramente metafórico. Refiriéndose a lo mismo, a veces también se ha hablado de inteligencia artificial “fuerte” y “débil”. No obstante, la interpretación débil de la analogía ha sido, en términos generales, más propia de la psicología cognitiva, mientras que la versión fuerte ha sido más propia de la inteligencia artificial. Veamos en qué consiste cada una: - Entendida en su sentido débil, la analogía del ordenador supone que la mente humana no es realmente un programa informático, sino que los programas informáticos simulan el funcionamiento de la mente y, por tanto, pueden tener un gran valor heurístico a la hora de entender las leyes que regulan dicho funcionamiento. De ahí que los psicólogos cognitivos hayan representado gráficamente la actividad psicológica humana mediante secuencias de instrucciones algorítmicas o diagramas de flujo de información semejantes a los empleados para representar los programas informáticos (véase un ejemplo en la figura 1). Trasladada a la inteligencia artificial, la versión débil de la analogía del ordenador implica que la simulación del pensamiento humano realizada por algunas máquinas es sólo eso, simulación, no auténtico pensamiento.

Entendida en su sentido fuerte, la analogía del ordenador supone que no hay una diferencia sustancial entre la mente y un programa informático. Si es posible representar el funcionamiento de la mente mediante los mismos recursos que se utilizan para escribir un programa de ordenador, entoces es que la mente no difiere en nada de un programa de ordenador. La mente no es más que un sistema de cómputo. Trasladado a la inteligencia artificial, eso significa que las máquinas realmente piensan. En 1960 Simon y Newell, representantes de la versión fuerte de la inteligencia artificial, se ampararon en ella para diseñar un “solucionador general de problemas” con el que pretendían formalizar un algoritmo que pudiera resolver tareas complejas de todo tipo, desde ganar una partida de ajedrez hasta demostrar un teorema matemático, pasando por descrifrar acertijos o solucionar enigmas aritméticos. Simon y Newell se basaron en la aplicación de los algoritmos que según ellos utilizamos los seres humanos para resolver esos problemas.

Defendían que cualquier clase de inteligencia, humana o no, consiste en un procesamiento de símbolos.

Aunque a menudo se usan indistintamente los términos “analogía” y “metáfora”, podemos reservar el primero para la versión fuerte de la misma y el segundo para su versión débil, ya que esta última es la que toma la analogía del ordenador en un sentido estrictamente metafórico.

La versión fuerte, en cambio, lleva la analogía hasta sus últimas consecuencias y sostiene que las máquinas piensan y no hay realmente una distinción entre el cerebro y el ordenador, sino que la mente es lo mismo que un programa informático, si bien implementado en un soporte orgánico y no en circuitos integrados de silicio.

La habitación china

Uno de los más conocidos críticos de la analogía del ordenador, especialmente de su versión fuerte, ha sido John Searle (1932-), de la Universidad de California en Berkeley. En 1980 formuló su argumento de la “habitación china”, como se le suele llamar, con el que intentaba demostrar que, si aplicáramos la prueba de Turing a la vida real, estaríamos obligados a sostener que se puede hablar un idioma sin entender el significado de sus palabras. El argumento de Searle tiene una estructura similar a la prueba de Turing, pero pretende reducirla al absurdo. Es el siguiente. Consideremos un ordenador en el que se ha instalado un programa de traducción de chino. Hoy estos traductores automáticos son populares, pero siguen consistiendo esencialmente en lo mismo que cuando Searle expuso su argumento hace más de tres décadas: conjuntos de instrucciones que indican cómo sustituir símbolos chinos por símbolos de otros idiomas. ¿Diríamos que el ordenador entiende el chino? Imaginemos ahora que una persona que no habla chino se mete en una habitación donde encuentra papelitos con símbolos chinos, es decir, letras cuyo significado desconoce. Ahora esa persona recibe una hoja con instrucciones -en su idioma natal- donde se le pide que combine las letras chinas de una determinada manera y saque la combinación fuera de la habitación.

Pues bien, tras hacer esto varias veces con nuevas letras y nuevas instrucciones, la persona se entera de que las letras chinas que le daban eran preguntas de hablantes chinos que estaban fuera de la habitación, mientras que las instrucciones servían para combinar las letras de tal modo que la combinación resultante consitía en respuestas a esas preguntas. Dado que había seguido bien las instrucciones, las personas chinas de fuera de la habitación habían pensado que un auténtico hablante de su idioma estaba respondiendo las preguntas. Obviamente, tras descubrirse el truco, nadie diría que la persona encerrada en la habitación entiende el chino. ¿Por qué decir, entonces, que una máquina de traducción sí lo entiende?

Lo que quería hacer Searle con su ejemplo de la habitación china era subrayar que la mente no sólo consiste en sintaxis -concatenaciones de símbolos procesándose según ciertas reglas- sino que también incluye contenido semántico, o sea, significados: los símbolos son símbolos de algo, y conocer ese algo es esencial para comprender el funcionamiento de la mente.

Por lo demás, los propios psicólogos cognitivos acabaron advirtiendo ciertas limitaciones metodológicas de la analogía del ordenador (Vega, 1982).

Sin embargo, quizá el principal problema de la analogía es que ni siquiera vale como metáfora -o sea, en su versión débil- por la sencilla razón de que no es una metáfora, sino una metonimia: toma la parte por el todo. Los ordenadores no son más que instrumentos de los que se sirve nuestra actividad como seres humanos, y en ese sentido son partes de dicha actividad.

No sirven como modelos de nuestra actividad porque son parte de ella. Son herramientas nuestras, con las que intentamos lograr ciertos propósitos. Por sí mismos, ellos no actúan. Su funcionamiento es puramente mecánico. No se les pueden atribuir funciones psicológicas. Somos nosotros, en tanto que observadores, quienes leemos el resultado del funcionamiento del ordenador en términos de información. Sólo cabe hablar de información cuando es informativa para alguien. En el fondo, ni siquiera tiene sentido afirmar que los programas informáticos consisten en instrucciones de manipulación de símbolos. Los símbolos sólo son símbolos para quien sepa interpretarlos como tales. Y las instrucciones sólo son instrucciones desde el punto de vista del programador humano, que es quien las escribe presiguiendo determinados fines; por ejemplo, traducir automáticamente un texto, guiar un misil, ganar una partida de ajedrez o entretener a los adolescentes con el Pac-Man.

La computación sobre representaciones

Antes dijimos que la versión fuerte de la analogía del ordenador ha sido más propia de la inteligencia artificial, mientras que la psicología cognitiva ha tendido a recurrir a la versión débil. Aunque esto es así, también conviene tener en cuenta que la psicología del procesamiento de la información se basa en una concepción de lo que es una función psicológica que coincide con la definición de pensamiento con la que Turing sentó las bases de la inteligencia artificial.

Igual que para Turing pensar era realizar cómputos sobre símbolos (ya hemos dicho que la “máquina de Turing” consistía en una cinta marcada con una secuencia de símbolos), para los psicólogos del procesamiento de la información las funciones psicológicas se definen básicamente en términos de computaciones de símbolos, entendidos éstos como representaciones mentales procedentes de la información recibida a través de los órganos sensoriales. Esta fusión conceptual entre tecnología de la información y psicología fue posible porque en el cognitivismo confluyeron tradiciones de psicología experimental y del aprendizaje que ya estaban elaborando modelos del funcionamiento de la mente o de procesos comportamentales complejos.

La psicología experimental británica

Durante los años cuarenta y cincuenta, en torno al laboratorio de psicología de la Universidad de Cambridge, se formó un grupo de investigadores del que salieron trabajos que la psicología cognitiva adoptaría como propios. El laboratorio estaba bajo la dirección de Frederick Charles Bartlett (1886-1969) desde 1922 y en él se desarrollaban investigaciones que podemos calificar de funcionalistas tomando este término en un sentido muy amplio, es decir, sin restringirlo a los autores norteamericanos de principios de siglo. Aunque hizo experimentos sobre percepción y memoria, Bartlett no era un psicólogo cognitivo y ni siquiera puede decirse que sus planteamientos teóricos fuesen compatibles con el cognitivismo, ni menos aún con la psicología del procesamiento de la información. Su perspectiva tenía puntos en común con algunas tendencias constructivistas que trataremos en el tema siguiente, pues otorgaba una gran importancia a los factores socioculturales y a la ontogénesis del sujeto. Su papel fue más bien el de promover y aglutinar una serie de investigaciones algunas de las cuales, como las de Kenneth J.W. Craik (1914-1945) y sobre todo las de Donald E. Broadbent (1926-1993), sí pasarían a formar parte de la nómina de aportaciones clásicas del cognitivismo.

Craik conocía la ingeniería de su época y adoptó una concepción cibernética del ser humano similar a la de los autores norteamericanos que mencionamos arriba (Craik, 1948).

Apoyado por Bartlett, formuló la teoría de los “niveles de ejecución”, que supone que el comportamiento humano se organiza en virtud de distintos niveles jerárquicos y éstos se controlan unos a otros. Esta idea fue precursora de otra a la que han recurrido con frecuencia los psicólogos cognitivos, según la cual existen varios niveles de procesamiento de la información e incluso varios niveles de análisis de la actividad psicológica, cada uno con peculiaridades y abordable con metodologías específicas (Craik y Lockhart, 1972; Miller et al., 1960).

Por su parte, Broadbent (1958) sintetizó los principales resultados de la psicología experimental americana (véase siguiente epígrafe) y británica, centrándose sobre todo en los de carácter más aplicado e interesándose particularmente por los relativos a la atención, que constituyó el campo de estudio donde él mismo hizo sus aportaciones más relevantes. A la hora de realizar esa síntesis adoptó un punto de vista cibernético similar al de Craik en tanto que comparó el sisterma nervioso con un canal de comunicación o un circuito por el que circulan datos. También fue uno de los primeros autores en elaborar diagramas de flujo de información para explicar la actividad psicológica, que luego serían omnipresentes en la psicología cognitiva.

La psicología aplicada norteamericana y el conductismo mediacional

Al igual que en Gran Bretaña, durante los años cuarenta y cincuenta se financiaron en los Estados Unidos numerosas investigaciones de psicología experimental y aplicada relacionadas con el ejército y la industria, que a la sazón estaba gozando de un gran desarrollo. El ajuste hombre-máquina y la ergonomía eran temas prioritarios. Así, en el Laboratorio de Psicoacústica de la Universidad de Harvard se llevaron a cabo investigaciones sobre el efecto del ruido en la ejecución de diferentes tareas; en el Laboratorio de Psicología de la Aviación de Ohio se exploraron las características de los patrones de estímulos sensoriales que facilitaban el trabajo de los operadores humanos en ciertos puestos de control; y varias unidades de psicología aplicada auspiciadas por las fuerzas armadas -que también firmaron contratos con algunas universidades- dedicaron sus recursos a investigaciones sobre la percepción espacial, la locomoción o la recepción e interpretación de la información por medios electrónicos (algo muy importante, por ejemplo, para los controladores de radares).

Sin embargo, en aquel tiempo el conductismo dominaba la escena académica norteamericana y, para algunos jóvenes psicólogos, representaba el enemigo a batir. Ahora bien, el conductismo era cualquier cosa menos homogéneo. Recordemos que desde al menos la década de los treinta hubo versiones que un poco más tarde Skinner englobaría bajo la etiqueta, un tanto despectiva, de “conductismo metodológico”. Dos ejemplos de ello eran el conductismo propositivo o molar de Tolman y el neoconductismo o conductismo mecanicista de Hull. Tolman había introducido variables intervinientes, propósitos y representaciones, y Hull había introducido cadenas de estímulos y respuestas a partir de las cuales se produciría la respuesta final del organismo. Existían asimismo versiones del conductismo denominadas informales o mediacionales -o neohullianas, las que se basaban en Hull-, que liberalizaban aún más la exigencia de que las variables introducidas entre E y R se definieran operacionalmente o como variables observables.

Conductistas informales o mediacionales fueron Karl S. Lashley (1890- 1958), Neal E. Miller (1909-2002) -a no confundir con George A. Miller- y Charles E. Osgood (1916-1991). Lashley asistió al Symposium de Hixon de 1948, antes mencionado, donde presentó una comunicación titulada “El problema del orden serial en la conducta”, en la cual intentaba aproximar la psicología a la neurología y defendía el estudio de los comportamientos complejos en términos de secuencias organizadas jerárquicamente. Miller, alumno de Hull, enfatizó la necesidad de flexibilizar los conceptos neoconductistas para aplicarlos a situaciones de la vida real, desarrolló la llamada “teoría social del aprendizaje” -una especie de psicología social conductista- e intentó traducir los principios del psicoanálisis a la psicología del aprendizaje. Por último, Osgood se basó en Hull para desarrollar una concepción de los procesos cognitivos como cadenas de estímulos y respuestas inobservables. Una de sus contribuciones más conocidas fue la prueba del “diferencial semántico”, que aplicaba su esquema neohulliano al lenguaje y, en concreto, a la evaluación de la creación de significados por parte de los sujetos.

Así pues, algunos planteamientos del conductismo mediacional eran casi indistinguibles de los de la psicología cognitiva, y algunos de los autores que han pasado a la historia como clásicos o pioneros de la psicología cognitiva eran conductistas mediacionales. Incluso en un libro que ha quedado como un clásico de la psicología cognitiva, Planes y estructuras de la conducta, publicado en 1960 por George A. Miller -de quien ya hemos hablado- junto con Eugene Galanter (1924-) y Karl H. Pribram (1919-), los autores se llamaban a sí mismos “conductistas subjetivos”. Eso si, lo hacían ya con cierta sorna, conscientes de que las horas del conductismo mediacional estaban contadas, porque se solían incluir tantas mediaciones inobservables entre estímulos y respuestas que ya no tenía sentido seguir calificando a aquello de conductismo. Miller, Galanter y Pribram proponían un esquema teórico basado en la organización jerárquica y planificada del comportamiento, que giraba en torno a lo que ellos consideraban la unidad elemental de la conducta, una especie de bucle de retroalimentación al que se denominaban test-operate-test-exit o, por sus siglas, TOTE.

Para terminar este apartado y mostrar hasta qué punto se parecían los planteamientos del conductismo mediacional y el cognitivismo, comparemos las dos representaciones gráficas de la figura 2. Ambas intentaban modelizar dimensiones de la actividad psicológica humana. El gráfico de la izquierda pertenece a un libro de Osgood (1980, p. 94), el conductista mediacional neohulliano. El de la derecha está sacado de la Introducción a la psicología cognitiva de Peter H.

Como el propio Skinner advirtió, la única versión del conductismo que se oponía frontalmente al cognitivismo era la radical, es decir, la suya, porque no admitía ninún tipo de mediación entre E y R (de hecho, ni siquiera se consideraba a sí misma una psicología E-R, porque se basaba en el condicionamiento operante y no en el clásico). Sea como fuere, para los primeros psicólogos cognitivos el conductismo fue, más que un enemigo a batir, un padre al que matar, por emplear la conocida expresión freudiana referida al mito de Edipo. Los psicólogos cognitivos eran, en buena medida, hijos del conductismo, aunque quisieran emanciparse enfrentándose a él.