1.4. La segunda mitad del siglo XX

A mediados del siglo XX se produjo un cambio en la orientación predominante en la investigación psicológica que afectó a todas sus áreas de especialización. Las actitudes conductistas cedieron rápidamente el paso al interés por los procesos subyacentes a la conducta de los organismos. Pronto se cayó en la cuenta del carácter cognoscitivo de esos procesos, sobre todo en el caso de la conducta humana, y surgió la moderna psicología cognitiva. La psicología cognitiva proporcionó al estudio de la percepción un marco de referencia en el que muchas de las ideas de la teoría clásica pudieron ser reformuladas. También ayudó a integrar otras dos corrientes de investigación científica cruciales para el desarrollo de la investigación en percepción: los avances de la investigación fisiológica y el computacionalismo.

La psicología cognitiva

La psicología cognitiva ha sido el tipo de psicología más frecuente en la corta historia de la psicología experimental. La teoría clásica, el estructuralismo e incluso la Gestalt pueden ser consideradas versiones distintas de una psicología cognitiva. Sin embargo, el término psicología cognitiva se utiliza hoy para designar una versión particular que s urgió a mediados del siglo XX, que suele también conocerse como procesamiento de información. Esta versión ofreció una aproximación al estudio de los procesos cognitivos considerando la mente humana como un sistema capaz de manejar símbolos de una forma semejante a un ordenador electrónico. La metáfora del ordenador constituye la analogía que va a servir de guía para estudiar los procesos mentales.

Al igual que un programa de un ordenador, los procesos mentales pueden ser analizados como una serie de fases o estadios. Cada estadio recibe una información de entrada, opera sobre esa información transformándola de alguna forma y produce una información de salida. El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases, transforman la información inicialmente recibida. El estudio de los procesos que transforman la información de entrada (input) y producen una determinada salida (output) constituye el objeto de estudio de la psicología. La percepción es una fase del procesamiento de la información mediante la cual el organismo construye una representación del medio ambiente que pueda guiar su actividad. Esta representación se consigue sobre la base de la información proporcionada por la estimulación y mediante las operaciones que el sistema aplica a su trasformación.

Sistemas

El procesamiento de información considera la cognición como una actividad resultante de la interacción de los componentes de un sistema. No niega la importancia de analizar los componentes del sistema pero concede mayor importancia a la estructura y a la organización funcional resultante de la interacción de sus componentes. El procesamiento de información se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.

Una forma de representar el funcionamiento de un sistema y sus componentes principales ha consistido en utilizar diagramas de flujo. Un diagrama de flujo es una forma abstracta de representar la organización de los componentes de un sistema y su funcionamiento.

Un diagrama de flujo permite representar los sistemas perceptivos como conjuntos de subsistemas que están compuestos de una información de entrada (input), un conjunto de operaciones representadas por los rectángulos, y una información de salida (output).

Una propiedad importante de los sistemas de procesamiento de información es la que Palmer y Kimchi han llamado su descomposición recursiva. La posibilidad de subdividir un sistema en otros subsistemas componentes, cada uno de ellos dotado de un input, de una función y de un output. A medida que avanza la investigación de cada uno de esos componentes, es posible proceder a un análisis más detallado del funcionamiento de cada subsistema mediante la especificación de sistemas menores que componen los subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez siempre que lo requiera el análisis del sistema que se está estudiando hasta que se llega a un último nivel que no se puede descomponer más. A los componentes de este último nivel se les suele denominar características primitivas, cuando se trata de componentes de una representación o, si se trata de procesos, son llamados operaciones elementales.

Información, codificación y representación

Se trató de utilizar el concepto de información en el sentido técnico propuesto por la teoría de la información de Shannon, que trataba de medirla en términos de la probabilidad de emisión de un mensaje, pero los resultados no fueron alentadores. Los intentos de formalizar el concepto se abandonaron y el concepto de información pasó a ser utilizado como sinónimo de conocimiento. Información es la cantidad de conocimiento que una persona adquiere o posee el medio ambiente que le rodea. En el caso de la percepción, no se trata tanto de la cantidad de información que hay en la estimulación, como era el caso de Gibson, cuanto de la cantidad de conocimiento que el observador puede llegar a adquirir sobre la base de esa estimulación.

Íntimamente relacionados con esta forma de concebir la información están lso conceptos de codificación y de representación. Para el procesamiento de información el conocimiento está organizado en la mente humana en forma de imágenes o en otros posibles formatos de representación. La información del medio ambiente que nos llega a través de los sentidos necesita ser trasladada a esas formas o códigos de representación por medio de un conjunto de procesos a los que se les da el nombre de procesos de codificación. La percepción es fundamentalmente un conjunto de procesos de codificación mediante los cuales se genera en el observador una representación mental del medio ambiente.

Características de los procesos

Pueden estar organizados de forma serial o en paralelo. La organización es serial cuando los procesos se llevan a cabo en secuencia, uno después de otro, y cada uno de ellos recibe como input el output final del proceso que le precede, por lo que no empieza a funcionar hasta que el proceso anterior ha finalizado. Cuando los procesos se organizan en paralelo actúan simultáneamente y su input es independiente del output de otros procesos.

Los primeros modelos que el procesamiento de información utilizó para representar procesos mentales, mostraban una organización serial. Los modelos de organización en mayor o menor grado en paralelo fueron ganando terreno. La rapidez con que tienen lugar los procesos perceptivos visuales parecía requerir una estructura del sistema visual en la que numerosas operaciones pudieran realizarse simultáneamente. Esta estructura exigía una división del trabajo de forma que distintos componentes del sistema perceptivo se especializaran en llevar a cabo un determinado conjunto de funciones. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o arquitectura modular, y a los componentes del sistema se les llama módulos.

Otra dimensión que el procesamiento de información ha utilizado para caracterizar a los procesos está relacionada con la dirección que sigue el flujo de procesamientol cuando el procesamiento está constituido por un conjutno de operaciones que operan sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback sobre las operaciones más simples, se dice que el procesamiento tiene lugar de arriba abajo. Una caracterización afín a esta, es la que distingue entre procesos dirigidos por los datos, cuando operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia.

La teoría de la visión de Marr es una teoría concebida en su totalidad de abajo a arriba y fundamentalmente dirigida por los datos. Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen sobre lo percibido; son teorías preferentemente de arriba abajo. La mayor parte de las teorías defienden la coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.

Una última caracterización de los procesos que se ha utilizado frecuentemente en la psicología cognitiva, es la que distingue entre procesos automáticos y procesos bajo control atencional, frecuentemente llamados simplemente procesos controlados. Esta clasificación está relacionada con el grado de dependencia de la atención que un proceso tiene para poder llevar a cabo su función. Se llama automático a un conjunto o a una secuencia de operaciones que se pone en funcionamiento ante la sola presencia de un estímulo. La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba abajo. Un proceso automático puede formar parte de un sistema perceptivo de formar innata o como resultado de la práctica. La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos. Cuanto más automático es un proceso, menor implicación atencional requiere y cuanto menor grado de automaticismo posee más necesaria es la implicación de la atención para poder operar.

Métodos

El método sustractivo introducido por el psicólogo holandés Donders fue ampliamente utilizado. De acuerdo con este método, el tiempo empleado pro una persona en la realización de una atarea podía dividirse en una serie de fases o estadios cada uno de los cuales correspondía a una operación elemental componente de la tarea. Donders utilizó tareas muy simples que denominó con las letras A, B y C. la tarea A, que se ha llamado también tarea de tiempo de reacción simple o tarea de detección, consiste en la presentación de un único estímulo al que el observador debe responder lo antes que pueda con una única respuesta. La tarea A consiste, por tanto, en la presentación de un estímulo por parte del experimentador y la realización de una respuesta por parte del observador. La tarea B de Donders, llamada también tarea de tiempo de reacción de elección o tarea de discriminación, consiste en la presentación de dos o más estímulos y un número equivalente de respuestas, cada una de ellas asociada a un estímulo determinado. Ante la presentación de un estímulo por parte del experimentador, el observador debe contestar con la respuesta asociada a ese estímulo. En la tarea C de Donders, también llamada tiempo de reacción selectivo o tarea de responde/no respondas se presentan dos o más estímulos pero el observador sólo debe responder a uno de ellos y no responder al resto.

La lógica utilizada por Donders para hacer inferencias acerca de los procesos mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica ha producido resultados interesantes cuando se ha aplicado a situaciones que cumplían los supuestos. Sus tareas han quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg, que contribuyeron a profundizar en la investigación cognitiva.

Muy próxima al procesamiento de información puede considerarse la Teoría de Detección de Señales (TDS), que surgió en la investigación psicológica cuando la psicofísica comenzó a prestar atención a los procesos implicados en la respuesta a estímulos simples. Esta teoría puso de manifiesto que una respuesta tan simple como la que un observador puede emitir en una tarea de detección encaminada a determinar un umbral absoluto, no refleja de forma incontaminada el funcionamiento de un sistema sensorial, sino que hay que tomar en consideración a los procesos de decisión implicados en la emisión de la respuesta. La TDS ha sido utilizada dentro del procesamiento de información como un procedimiento para mejorar las inferencias basadas sobre medidas de precisión.

El desarrollo de los modelos matemáticos fue extraordinario pero sobre todo hizo su aparición, como método específicamente ligado a esta aproximación psicológica, la implementación de las teorías mediante simulación en ordenador. Una simulación es un programa que al incorporar en su funcionamiento una teoría, permite contrastar sus predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.

El computacionalismo

El computacionalismo representa la madurez teórica del procesamiento e información y la apertura de la psicología cognitiva a la interacción con otras disciplinas interesadas en la investigación de los procesos cognoscitivos. El ordenador había sido una fuente de inspiración para la psicología cognitiva desde sus comienzos. La referencia al ordenador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era preferentemente una metáfora , una analogía que nos permitía pensar acerca de los procesos cognitivos. Para otros, sin embargo, el ordenador era mucho más que una simple metáfora; el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de información que Newell y Simon llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría general de los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva.

La ciencia cognitiva surgió como una empresa multidisciplinar en la que convergió el interés por investigar los procesos cognitivos de disciplinas aparentemente tan dispares como la psicología cognitiva, la neurociencia, la inteligencia artificial, la lingüística, la filosofía de la mente y la antropología.

La teoría de David Marr

Marr mostró pronto su insatisfacción con el carácter fragmentario tanto de la investigación psicofísica como de la investigación fisiológica de la visión. La psicofísica resultaba casi exclusivamente descriptiva y la fisiológica, aunque estaba interesada en los mecanismos cerebrales de la percepción, producía, en opinión de Marr, unas explicaciones excesivamente simples. De forma irónica decía que pretender entender la visión estudiando sólo neuronas era como pretender entender el vuelo de las aves analizando sólo plumas. Para comprender el vuelo de las aves necesitamos conocer la dinámica del proceso y una vez conocida podremos construir una máquina que vuele.

Para éste, una teoría de la visión adecuada debe interesarse por los procesos de construcción de las representaciones que permiten al cerebro ver. Para ello se requiere una aproximación computacional que, como resultado final, permita construir máquinas que vean. La aproximación de Marr proporcionó tanto una filosofía de la investigación computacional como una teoría concreta de las principales fases de procesamiento visual.

Los niveles de análisis

A los puntos de vista desde los que podemos estudiar un sistema Marr les da el nombre de niveles de análisis. Cada nivel de análisis está determinado por un tipo de pregunta que nos hacemos acerca del sistema y la explicación adecuada a cada nivel de análisis es la respuesta a esa pregunta. Marr propuso que los niveles de análisis fundamentales son tres:

  1. Nivel computacional→ es el nivel que especifica de forma abstracta el problema que un sistema de procesamiento de información tiene que resolver. La pregunta que determina este nivel es: ¿qué hace el sistema? Una explicación a este nivel tiene que apuntar a los objetivos y a la finalidad del sistema en un contexto determinado. Marr utilizó como ejemplo sencillo de sistema de información una caja registradora. Lo que hace una caja registradora son operaciones aritméticas elementales, como sumar o multiplicar. En el caso de la visión, una teoría computacional de la visión deberá especificar los objetivos fundamentales del sistema, por ejemplo, siguiendo a Aristóteles, puede definirse como objetivo fundamental del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde está.
  2. Nivel algorítmico→ es el nivel que especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario especificar una representación que codifique el input y el output del sistema y un algoritmo que lleve a cabo la correspondencia entre input y output. En el ejemplo de la caja registradora, el nivel algorítmico deberá determinar si la representación que se utiliza es decimal o binaria y cuál es el algoritmo concreto utilizado para efectuar las operaciones. En el caso de un ordenador, el nivel algorítmico es el nivel del programa donde se especifican, en un lenguaje concreto de programación, los pasos necesarios para resolver un problema. Este nivel se pregunta por, y busca explicaciones relacionadas con el modo en que un sistema resuelve los problemas.
  3. Nivel de implementación→ este nivel se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza. En el caso de la caja registradora las preguntas típicas de este nivel tendrían que ver con ruedas dentadas o con circuitos electrónicos; en el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuronas si se trata de un sistema biológico.

Los niveles de organización del procesamiento visual

Para Marr, el problema fundamental de la percepción visual en su conjunto es construir una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. El sistema visual logra este objetivo a través de tres grandes pasos o fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los receptores. Las tres fases de procesamiento son las siguientes:

  1. El esbozo primario→ el objetivo de esta fase es hacer explícita la información acerca de la imagen bidimensional; en primer lugar los cambios de intensidad que hay en ella, después la distribución geométrica y la organización de esos cambios. El input de esta fase es la imagen inicial. El output está formado por un conjunto de primitivas simples –bordes, barras, manchas y terminaciones- agrupadas de acuerdo con principios de organización semejantes a los propuestos por la Gestalt. Estas primitivas constituyen los elementos simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.
  2. El esbozo 2 1⁄2 -D→ en esta fase se hace explicita la información acerca de la orientación y de la profundidad de las superficies visibles. También se especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el observador. Se trata por tanto de recuperar información acerca de las superficies que conforman la escena visual en un espacio tridimensional, pero la consecución de la tercera dimensión no es perfecta, por eso esta fase se llama esbozo 2 1⁄2 -D, ya que los valores de orientación y de profundidad obtenidos están referidos al observador. El procesamiento en esta fase tiene dos características fundamentales: modularidad y paralelismo. La modularidad implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por distintos componentes del sistema visual; así mientras un módulo procesa el color, otro procesa el movimiento, otro la textura, otro la disparidad binocular, etc. El paralelismo implica que el funcionamiento de cada módulo es independiente del funcionamiento módulo de esta fase es el resultado de la fase de esbozo primario.
  3. El modelo 3-D→ en esta fase el sistema visual consigue una representación de las formas y de su organización espacial en un marco de referencia centrado en el objetivo mismo, utilizando una representación jerárquica y modular de primitivas volumétricas y de superficie. El input a esta última fase es el resultado de la fase anterior y el resultado final son modelos tridimensionales organizados jerárquicamente cada uno de ellos constituidos por una configuración espacial de ejes en torno a los cuales se engarzan las primitivas volumétricas.

El conexionismo

A comienzos de los años ochenta en el siglo pasado, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos conocida con el nombre de conexionismo.

Su objetivo fundamental era aproximar la teoría de los procesos cognitivos a la teoría del cerebro. Para ello propusieron construir representaciones con “inspiración neuronal” y procesos que funcionaran “al estilo del cerebro”, de ahí que esta aproximación sea conocida también con el nombre genérico de redes neuronales.

Una red neuronal está compuesta de un conjunto de unidades elementales de procesamiento parecidas a las neuronas del cerebro que están conectadas entre sí de una forma determinada. Las conexiones entre unidades de la red pueden tener distinta fuerza de forma que la conexión entre dos unidades puede ser más o menos fuerte que la conexión de cada una de ellas con una tercera unidad. Las conexiones entre unidades pueden ser excitatorias, si la activación de una unidad provoca un aumento en el nivel de activación de la otra, o inhibitorias, si el nivel de activación de la segunda disminuye como consecuencia de la activación de la primera. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo que se llama un patrón de conectividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una regla de aprendizaje.

Otros conceptos importantes para entender el funcionamiento de una red neuronal son: la regla de activación que especifica la forma en que se combinan las diferencias entradas que una unidad recibe para determinar el estado de activación de la unidad. Finalmente una red neuronal debe de concretar una función de output que determine la correspondencia entre el estado de activación y el output del sistema, y un ambiente que especifique el medio en el que debe funcionar la red.

Las redes neuronales dan lugar a representaciones distribuidas en las que no se puede establecer una correspondencia uno a uno entre las entidades del mundo representado y las unidades de la red. En una representación distribuida cada entidad del mundo está representada por el patrón de activación del conjunto de unidades que forman parte de la red y, a su vez, cada unidad de la red puede estar implicada en la representación de muchas entidades diferentes del mundo representado.

La investigación con redes neuronales han puesto de manifiesto que la acción coordinada de las unidades de una red da origen a propiedades emergentes capaces de simular procesos cognitivos. Por ello se han convertido en un importante instrumento de formalización de teorías psicológicas a la vez que proporcionan una forma de pensar acerca del funcionamiento del cerebro que permite aproximar entre sí los conceptos mentales propios de la psicología cognitiva y los conceptos fisiológicos propios de la neurociencia.

Los avances de la fisiología

Entre los principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de información merece la pena resaltar las investigaciones realizadas en la retina de las ranas por investigadores talos como Barlow y Lettvin, Maturana, McCulloch y Pitts. Estos autores descubrieron un tipo particular de células ganglionares en la retina de las ranas que respondían únicamente cuando un pequeño disco oscuro aparecía en su campo de visión. Si ese mismo estímulo se presentaba a una rana intacta, ésta se orientaba hacia el objeto e iniciaba una serie de respuestas tendentes a cazar y comerse el objeto. Los investigadores denominaron a esas células “detectores de bicho” pues parecían preferentemente sintonizadas a la presencia de los pequeños insectos que constituyen una parte importante de la dieta de las ranas. La significación teórica de estos hallazgos iba más allá de la mera curiosidad que el hecho podía suscitar: “la retina de la rana era capaz de transmitir un mapa de las características relevantes en el mundo del animal, y su función principal no era tanto transformar los distintos niveles de luminancia en impulsos nerviosos de diferente frecuencia, cuanto responder de forma invariante a distintos patrones de estimulación externa a pesar de los cambios en luminancia”.

Contenido relacionado