Logo de Psikipedia

Los heurísticos constituyen reglas y estrategias intuitivas, que se aplican deliberadamente o no para estimar o predecir. Con frecuencia, al margen de consideraciones básicas de la Teoría de la probabilidad, puede dar lugar a distintos errores sistemáticos (sesgos o falacias) característicos de cada uno de ellos.

El estudio de los sesgos y errores sistemáticos se investiga en el razonamiento probabilístico, también desde los principios de la percepción normal y desde la memoria estudiando el olvido.

Teversky y Kahneman iniciaron y desarrollaron un programa de investigación que sustenta los tipos básicos de heurísticos: representatividad, accesibilidad, y anclaje y ajuste. Más recientemente se contempla el estudio desde un modelo más integrador.

a) Heurístico de representatividad.

Los juicios probabilísticos responden a una de las siguientes preguntas:

  1. ¿Cuál es la probabilidad de que el objeto A pertenezca a la categoría B?
  2. ¿Cuál es la probabilidad de que el proceso B sea la causa del acontecimiento A?, o
  3. ¿Cuál es la probabilidad de que el dato A se genere a partir del modelo B?

La investigación ha demostrado que la información de los prototipos y esquemas contribuyen significativamente a la forma en que almacenamos y procesamos la información. Natural y económico cognitivamente el juzgar la probabilidad de un evento evaluando el grado en el cual es representativo de la categoría de referencia. Esta estrategia para abordar estos juicios probables, produce sesgos significativos pues la semejanza no se ve afectada por factores que deberían afectar a los juicios de probabilidad. Dicha insensibilidad a estos factores es estudiada por Tversky y Kahneman, 1974.

a.1. Insensibilidad a las probabilidades a priori

Uno de estos factores que no afectan a la representatividad (aunque debiera tener efecto sobre el juicios probabilístico) es la probabilidad a priori o la frecuencia base del resultado. Se realizó el estudio:

los participantes analizaron descripciones de personalidades de una muestra de 100 individuos (ingenieros y abogados).

  • A una condición experimental se les indica que 70% son ingenieros y 30 % abogados.
  • Y en la otra condición, es 30% de ingenieros y 70 % de abogados.

Jack tiene 45 años, casado y cuatro hijos. Conservador, prudente y ambicioso. No manifiesta intereses políticos y sociales y emplea su tiempo libre en sus aficiones (carpintería, navegar, resolver prob.matemáticos) La probabilidad de que sea uno de los 30 ingenieros de la muestra de 100 es _______%

La probabilidad de pertenecer al grupo de ingenieros debería ser mayor en la primera condición, y la probabilidad de pertenecer al grupo de abogados debería ser mayor en la segunda condición.

Los participantes violaron drásticamente la predicción del Teorema de Bayes, pues en ambas condiciones se produjeron los mismos juicios. Evaluaron la probabilidad de que una determinada descripción perteneciera a un ingenieo vs abogado en función del grado en que dicha descripción era representativa de uno u otro estereotipo, atendiendo bien poco a las probabilidades a priori de las categorías.

La dificultad para aplicar el algoritmo necesario para calcular correctamente la probabilidad de un acontecimiento se demostró inclusive con participantes expertos. Problema a un grupo de médicos:

Probabilidad de cáncer de mama en mujeres de 40 años es del 1%

Si una padece cáncer la probabilidad de que la mamografía resulte positiva es del 80%

La probabilidad de que no padezca cáncer de mama tenga un resultado positivo es una mamografía es del 9,6%

Una mujer de 40 años obtiene resultado positivo en la mamografía en un control. ¿cuál es la probabilidad de que la mujer padezca de hecho cáncer de mama? _______%

El 95% de los médicos estimaron que la probabilidad (cáncer / resultado positivo) = entre 70-80%

Cuando se les informó de su error, y se les preguntó sobre la causa del mismo, la mayoría afirmó que había asumido que la probabilidad de cáncer con mamografía positiva [P (cáncer/resultado positivo)] era más o menos igual a la probabilidad de mamografía positiva en una paciente con cáncer [P (resultado positivo/cáncer)], pasando por alto la probabilidad a priori del dato del 1% en mujeres de 40 años.

Los trabajos que apoyan la dificultad de los humanos para aplicar las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico inadecuado: desajuste entre la forma en la que se presenta la información a los participantes y el formato de la representación cognitiva natural de dicha información. Gigerenzer y Hoffrage 1995, se basan en la teoría de la evolución, donde la mente y su entorno han evolucionado en paralelo. Éstos sostienen que las demandas computacionales de los algoritmos bayesianos son más simples cuando la información se codifica en un formato de frecuencias más que en el formato estándar de probabilidad.

Probabilidad de cáncer es de 10/1000 = 1% P (H) = 0,01 ; De cada 10 mujeres que padecen cáncer, 8 dan un resultado positivo en la mamografía.

Una mujer sin cáncer (990) dé resultado positivo en la mamografía es de 95/990. Una mujer de 40 años obtiene un resultado positivo en la mamografía en un control rutinario ¿Cuál es la probabilidad de que la mujer padezca de hecho cáncer de mama? __________-%

Si se presentan los datos con el formato natural, la fórmula se simplifica: P (H|D) = 8/(8+95) = 0,078 probabilidad posterior.

El algoritmo bayesiano para calcular la probabilidad posterior P (H|D) sería el resultado de dividir el nº de casos con síntoma y enfermedad (dato e hipótesis) por el nº total de casos con síntoma (casos con síntoma y enfermedad + casos con síntoma y sin enfermedad H'). Todo sería más simple cuando la información se codifica en el formato natural de frecuencias (8 de 10; 10 de 1000) porque las probabilidades a priori no necesitan ser atendidas, lo cual es racional para el muestreo natural. Diferentes estudios comparativos entre las dos modalidades (frecuencia vs formato estándar de probabilidades) indicaron que el promedio de algoritmos bayesianos correctos incrementó de 16% -estándar- a 46% en formato de frecuencias.

a.2. Insensibilidad a la capacidad predictiva del dato

Un estudiante recién llegado a un instituto es descrito por el orientador como inteligente, con buena base y trabajador. Se plantean 2 preguntas:

  1. Evaluación: ¿Qué impresión te produce esta descripción en relación a la habilidad académica del estudiante?
  2. Predicción: ¿cuál estimas sería la calificación media que el estudiante obtendrá cuando termine el curso?

Existe la gran diferencia entre ambas, en que en la primera se evalúa el dato, y en la segunda se predice el resultado. Se da un grado superior de incertidumbre en relación a la segunda. La hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir.

Teversky y Kahneman, 1973 lo pusieron a prueba y consistía en describir en cinco adjetivos referentes a la calidad intelectual del estudiante y rasgos de su personalidad:

  • El grupo de evaluación valoraba la calidad de la descripción en relación a la población. Este ordenaba la capacidad académica de todos los estudiantes. (0 a 100)
  • El grupo de predicción predecía el rendimiento futuro. Ordenaba calificaciones medias que obtendrían a final de curso. (0 a 100)

Los resultados se transformaron a percentiles y se dispuso en gráfica que representaba la capacidad predictiva de la evaluación sobre la media de la predicción de su calificación final. Los juicios de ambos grupos fueron similares. En la Teoría estadística de la predicción, la equivalencia observada estaría justificada sólo si la eficacia predictiva fuera perfecta (condición alejada de cumplirse en el ejemplo éste). La descripción no es objetiva, pues las circunstancias personales del estudiante no serán siempre favorables durante el curso, perjudicando así su rendimiento. Los sujetos parecen ignorar la probabilidad del dato dada la hipótesis P(D|H')

La prediccón basada en la “impresión” de la descripción sin considerar otros factores que afectan, da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de “ilusión de validez”.

a.3. Concepciones estadísticas inexactas

La idea errónea de la regresión constituye otro ejemplo de sesgo en el juicio predictivo basado en el heurístico de representatividad. Se usa la regresión para predecir una medida basada en el conocimiento de otra. La regresión estadística es la tendencia de una medición extrema a situarse más próxima a la media cuando se realiza una segunda medición.

Se seleccionan cuatro grupos de 10 niños en dos versiones equivalentes (A y B): 10 mejores notas A – 10 peores notas A; 10 mejores notas B y 10 peores notas B.

Se observó que los 10 mejores en cada versión mostraron rendimiento promedio inferior en la versión alternativa.

En la vida cotidiana encontramos muchos fenómenos referente a esto: comparamos la altura o la inteligencia de padres e hijos, o el rendimiento de las personas en exámenes consecutivos. No obstante, no desarrollamos intuiciones correctas en relación a ello pues es incompatible con la creencia de que el resultado predicho debería ser representativo al máximo de la evidencia disponible y extremo como ésta.

Otro resultado en relación con el heurístico de representatividad se observa cuando se evalúa la probabilidad de obtener un resultado determinado en una muestra extraída de una población específica. El experimento ilustra este sesgo denominado insensibilidad al tamaño de la muestra:

Existen dos hospitales en el lugar, uno grande y otro pequeño:

  • en el grande nacen una media de 45 bebés al día (días habrá más y días habrá menos).
  • En el pequeño nacen una media de 15 bebés.
  • Sabemos que aprox.el 50% de los bebés son niños (varones). Sin embargo, el porcentaje exacto varía c/día.
  • Durante el período de un año, cada hospital registró el no de días en los cuales el 60% de los nacimientos fueron varones. ¿qué hospital registró un no superoir de esos días?
    1. el hospital grande
    2. el hospital pequeño
    3. aproximadamente el mismo (menos de un 5% de diferencia entre ambos)

21 personas dijeron (a), otros 21 dijeron (b) y 53 personas dijeron la opción (c)

La mayor parte dijo que la probabilidad era la misma, presumiendo que se describe con el mismo estadístico y que éste se considera representativo para la población en general.

La Teoría del muestreo sostiene que el número debería ser superior en el hospital pequeño porque en una muestra de de gran tamaño es más difícil superar el 50%.

La insensibilidad al tamaño de la muestra explica también las expectativas en los juegos de azar, en la medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el proceso con un elevado número de ensayos. Esta expectativa (intuición representativa local) explica el fenómeno de la falacia del jugador. Después de observar nº rojos en la ruleta, la mayor parte cree que luego le toca el “turno” al negro, cuando las probabilidades siguen siendo mínimas.

Teversky y Kahneman estudiaron las intuiciones estadísticas de psicólogos experimentados y demostraron que la concepción errónea del azar no se limita a personas ingenuas.

a.4. La falacia de la conjunción

La representatividad no es extensional, no siempre está determinada por la frecuencia ni por la inclusión de clases de los datos que componen el espacio muestral. En el modelo normativo de la Teoría de la probabilidad, la ley más simple (cualitativamente) es el principio de la extensión: si la extensión de A (conjunto de posibilidades asociadas con A) incluye la extensión de B ( B ⊂ A ) entonces P (A) > P (B).

Una conjunción no puede ser nunca más probable que cada uno de sus constituyentes. Principio que se aplica tanto si A y B son o no independientes y es válido cualquier valor de probabilidad del mismo espacio muestral.

El problema de Linda (muy citado a este respecto) describe el caso de mujer de 31 años, soltera, sincera y muy brillante. Licenciada en Filosofía. Cuando era estudiante estaba profundamente comprometida en temas de discriminación y justicia social, participando también en manifestaciones antinucleares. Se presentan las opciones:

  1. Linda es una maestra en escuela elemental
  2. trabaja en una librería y asiste a clases de yoga
  3. es feminista.
  4. es asistente social en psiquiatría
  5. es miembro de la Liga de Mujeres Votantes
  6. es cajera de un banco.
  7. es agente de seguros
  8. es cajera en un banco y feminista

La tarea consistía en asignar puntuación del 1 al 8 a las afirmaciones anteriores donde 1 (muy probable) a 8 (menos probable).

La descripción de Linda fue diseñada para ser muy representativa de una feminista activa y muy poco de cajera de banco, por lo que se esperaba que considerasen más representativa de la personalidad de Linda la conjunción de ambas (h) que el menos representativo (f). El porcentaje de participantes que mostró orden de c > h > f , fue del 85%

La violación de la regla de conjunción es la comparación directa entre f y h (falacia de la conjunción).

Según Teversky 1977 la semejanza de un ejemplar con una categoría se define en función de la ponderación de las propiedades que son comunes y distintivas y esta ponderación varía en función del contexto estimular y la tarea experimental. En la descripción de Linda, la ponderación con una cajera de banco es baja. El hecho de añadir feminismo como rasgo distintivo explica la forma en que los participantes ordenaron la lista de afirmaciones sobre las actividades que desarrolla ella, en función del grado con el que encajaban con el estereotipo que se deriva de la descripción.

Tversky y Kahneman 2002, se plantearon si los participantes podrían reconocer la validez de la regla de conjunción si se expresaba el problema de forma explícita. Después de la misma descripción inicial se recibían las afirmaciones f) Linda es cajera de un banco; y h) Linda es cajera de un banco y feminista en forma de argumentos 1 y 2, respectivamente:

  • Argumento 1: Es más probable que Linda sea cajera en un banco a que sea cajera en un banco y feminista, puesto que todas las cajeras de banco feministas son cajeras de banco mientras que algunas cajeras de banco no son feministas, y Linda podría ser una de ellas.
  • Argumento 2: Es más probable que Linda sea cajera en un banco y feminista a que sea cajera en un banco, puesto que se parece más a una feminista que a una cajera de banco.

La mayoría eligieron el argumento no válido (2) del parecido frente al argumento extensional válido. Esto explica que aún cuando se induce una actitud reflexiva no elimina el atractivo del heurístico de representatividad. Otros estudios sobre el tema, proporcionando cuestionarios con preguntas sobre razonamiento probabilístico previo a la tarea, o bien incluso investigando en dominios específicos y con expertos, los resultados siguen siendo consistentes con el heurístico de representatividad.

b) Heurístico de accesibilidad

Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.

Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de entre 50 y 60 años. Los ejemplos de categorías más frecuentes se recuerdan más fácil, rápido, pero muchas veces esta accesibilidad se ve afectada por otro tipo de factores, produciéndose sesgos que Teversky y Kahneman agrupan en cuatro: sesgo debido a la facilidad de recuperación, a la facilidad en la construcción de ejemplos, en la facilidad para imaginar situaciones, y en la correlación ilusoria e ilusión de control.

b.1. Sesgo debido a la facilidad de recuperación

Se presentaron a los participantes listas grabadas con 39 nombres.

  • Lista 1: incluía 19 nombres de mujeres famosas y 20 nombres de hombres menos famosos.
  • Lista 2: 19 nombres de hombres famosos y 20 nombres de mujeres menos famosas.

La fama y la frecuencia en función del sexo estaban inversamente relacionadas en ambas listas. Los participantes se dividieron en dos grupos:

  • Grupo 1 se les pidió que recordaran el mayor nº de nombres que pudieran.
  • Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más nombres de hombres o mujeres.

Los resultados en ambos grupos fueron de idéntico signo. Los del grupo 1 recordaron más nombres de mujeres en la lista 1 y de hombres en la lista 2. La fama y no la frecuencia determinó la facilidad de recuerdo.

En el grupo 2 dijeron que en la lista 1 había más mujeres y en la lista 2 más hombres (la fama otra vez en medio y no la frecuencia real).

El sesgo observado demostró el efecto significativo del heurístico de accesibilidad en el juicio probabilístico. Además de la familiaridad, estaría la saliencia. La probabilidad subjetiva de accidentes de tráfico aumenta temporalmente si acabamos de ver un coche volcado en la carretera.

Este sesgo de inmediatez se basa en la facilidad de recuperación de las experiencias recientes frente a las remotas. Otro resultado consolidado es el de la investigación en la auto-percepción de estados emocionales, pues parece que se perciben como más intensas las emociones previas e inmediatas. Son juzgadas así desde el punto de vista fenomenológico, sensitivo e informativo.

Van Boven, White y Huber 2009 lo evidencian en la presentación de dos secuencias de películas separadas en un período de tiempo de 20 minutos. En ambas se mostraban atrocidades, pero en la vista más cercana en tiempo, se le atribuyó haber afectado al estado emocional. Se exhibió el sesgo de inmediatez.

b.2. Sesgo debido a la facilidad en la construcción de ejemplos

Teversky y Kahneman facilitaron una regla al participante para la construcción de ejemplos de 2 categorías y les pidieron que estimaran su frecuencia relativa. El participante no podía enumerar todos los ejemplos posibles, pero sí intentaba buscar algunos ejemplos y juzgar la frecuencia de cada categoría por la accesibilidad relativa de éstos. En un experimento se seleccionaron consonantes que en inglés son más frecuentes en la tercera posición de una palabra (K,L,N,R, y V)

La letra (L) aparece con mayor probabilidad en:

  1. la primera posición.
  2. la tercera posición.

La frecuencia estimada fue significativamente mayor para la primera posición (falso) para las cinco letras estudiadas, demostrando sesgo en la estimación de la frecuencia relativa debido a la superior facilidad de generar ejemplos que empiecen con una letra determinada vs a los que la contienen en tercera posición.

Posteriormente bajo condiciones más estrictas de control y alguna modificación, se manipularon el valor informativo o diagnóstico de la experiencia subjetiva de accesibilidad generando en los participantes a través de las instrucciones la atribución errónea de la experiencia de facilidad de recuperación:

Todos los participantes escribieron en un folio en blanco 10 palabras que contenían la letra T en la tercera posición.

Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de la experiencia de facilidad de recuperación de las palabras que empezaban por la letra (T):

  1. Grupo “FACILITACIÓN”, debía escribir las 10 palabras que empezaban por T en folio con filas de pequeñas (t) impresas en color pálido t t t t t t t t t t t t t t t t t t Se le informó que la impresión de éstas era para facilitarle la recuperación de las palabras.
  2. Grupo “INHIBICIÓN”, escribiría 10 palabras que empezaban por (t) sobre el mismo tipo de folio pero se le indicó que esto DIFICULTARÍA su tarea de recuerdo.
  3. Grupo “CONTROL” , realizó la tarea sobre folio en blanco.

Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1 a 8 (muy difícil) inmediatamente después de realizar cada una de ellas.

Los juicios de frecuencia de palabras que empiezan por (T) respecto a los que la contienen en la tercera posición se realizaron concluidas ambas tareas, emitiendo en escala de 8 puntos, donde 1 = Muchas palabras con (t) en tercer lugar que palabras que empiecen por (t) y 8 = muchas palabras que empiezan por (t) que palabras las contengan en tercer lugar.

Todos los sujetos (todos independientemente de la condición experimental) informaron que les resultaba más difícil recordar palabras que la tienen en la tercera posición.

El efecto de la manipulación del valor diagnóstico de la experiencia de recuperación produjo un impacto significativo en los juicios de frecuencia relativa de los participantes. Unos creían que la hoja facilitaba y emitieron juicio bajo de frecuencia relativa de las palabras que empezaban por (t); los de inhibición, creyeron que su ejecución había sido inhibida y aportaron el juicio más alto de frecuencias relativas de las palabras que empiezan por (t). El juicio de los del grupo de control se mantuvo en medio de los otros.

Estos resultados demuestran que la experiencia fenomenológica o subjetiva de facilidad o dificultad en la recuperación de la fuente de información determina la estimación de la frecuencia relativa en los juicios.

Cuando la experiencia pierde, gana el valor diagnóstico. Si la frecuencia relativa disminuye entonces aumenta en coherencia. Por tanto, la estimación de frecuencias relativas se basa en la experiencia subjetiva de facilidad de recuperación y en el grado de confianza que el sujeto atribuye a dicha experiencia.

A destacar también los contextos donde se hace la tarea de búsqueda. Los contextos de palabras abstractas como amistad, amor,... resultan más fáciles de imaginar o asociar a historias vividas, leídas o películas que palabras concretas y careciendo de connotaciones por lo que no se evoca fácilmente algún escenario.

b.3. Sesgo debido a la facilidad para imaginar situaciones

La facilidad para imaginar es importante en la evaluación de probabilidades en la vida real. El riesgo que entrañe una expedición al Amazonas, se evaluará en función de la facilidad para imaginármela de forma vívida con posibles contingencias peligrosas, aunque los posibles desastres no sean tales como riesgo real. También puede ser subestimado, si el riesgo real es difícil de concebirlo.

Sherman, Cialdini y otros pusieron a prueba esta hipótesis:

Grupo de CONTROL: leyeron informe sobre una supuesta enfermedad (hiposcenia - B)

Grupo FACIL IMAGINAR: Lectura + se exponían los síntomas de la enfermedad de forma explícita y mucho de estos, experimentados por los participantes (cansancio, dolor muscular,...) Durante tres semanas leían e imaginaban síntoma

Grupo DIFÍCIL IMAGINAR: Lectura + menos concretos los síntomas (sensación vaga de desorientación, mal funcionamiento del SN e inflamación de hígado).

Luego se les pidió que juzgaran la probabilidad de sufrir hiposcenia – B en el futuro en escala de 1 (poca) a 10 (mucha).

Los imaginativos mostraron tendencia a juzgar la probabilidad de contraerla mayor al grupo control e inferior en la del grupo “difícil imaginar”.

b.4. Sesgo debido a la correlación ilusoria e ilusión de control

Las asociaciones entre eventos se fortalecen como resultado de la ocurrencia conjunta repetida.

Esto determina que juzguemos la frecuencia de ocurrencia conjunta de los que están asociados en proporción elevada.

El término correlación ilusoria propuesto por Chapman 1967, agrupa los errores que se producen como resultado de la sobreestimación de la correlación entre dos eventos. En los experimentos del autor los participantes recibían pares de palabras proyectadas en pantalla. Unas a la derecha (huevos, tigre o cuaderno) y otras a la izquierda (beicon, león,flor,barca) y se agrupaban al azar. Los participantes sobreestimaron la frecuencia de aparición de los pares semánticamente relacionados como lo era : beicon-huevos o león-tigre. La relación explica la fuerza de asociación en la memoria y la facilidad para su recuperación, lo que lleva a sobreestimar la frecuencia objetiva. Esto mismo mantiene el origen de la supersticiones o las creencias mágicas, el “efecto halo” y los estereotipos sociales (delito <=> grupo minoritario -> genera estereotipo negativo sobre éste).

Cuando se sobreestima la correlación entre la conducta y sus consecuencias se produce “ilusión de control” (expectativa de probabilidad de éxito personal inadecuadamente elevada en relación a la probabilidad objetiva).

Langer simuló distintos tipos de azar induciendo la ilusión de control al introducir factores como competitividad, posibilidad de elegir, familiaridad con los estímulos,... Este fenómeno es uno de los factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido en los juegos de azar. Contribuye además a explicar la persistencia de este sesgo en la sobreconfianza en la calibración del propio juicio (juicio de segundo orden).

c) Heurísticos del prototipo

Kahneman y Frederick han utilizado el término “Heurístico del prototipo” enmarcándolo en el enfoque del juicio heurístico dentro de un modelo más integrador que el inicial presentado.

Parece ser que estos heurísticos son el resultado de un doble proceso de sustitución donde la categoría se sustituye por ejemplar prototípico y el atributo de la categoría (en que se evalúa en el juicio emitido) por una propiedad del prototipo. Por ejemplo, cuando un participante juzga la probabilidad, en el caso de Linda de que fuera cajera de banco vs cajera de banco y feminista, está llevando a cabo dos procesos de sustitución. Primero lo hace con “cajera de banco” por su ejemplar prototípico, y luego sustituye el atributo de la probabilidad de la pertenencia a la categoría por la propiedad de semejanza del prototipo.

Desde el modelo normativo de la Teoría de la probabilidad, la probabilidad de pertenencia debería variar con la probabilidad a priori de la categoría. En la predicción por representatividad de la pertenencia de un ejemplar a una categoría se descarta la probabilidad a priori porque el prototipo de una categoría no contiene información sobre la frecuencia de sus miembros.

La novedad de este enfoque integrador se concreta en que la representatividad no es necesariamente la propiedad del prototipo que sustituye al atributo de la categoría. En un estudio se presenta una doble pregunta:

  1. ¿cómo te sientes de feliz con tu vida en general.? y
  2. ¿cuántas citas románticas has tenido durante el último mes?

Los resultados demostraron que la correlación entre ambas fue insignificante planteadas en este orden, y sí correlacionaron con valor de 0,66 invertido el orden de las mismas. Por tanto, el no de citas del último mes, no puede considerarse representativo del sentimiento global de felicidad, pero la accesibilidad de la información le confiere una saliencia y peso relativo elevados.

La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de sustitución basado en la accesibilidad de la información. Esta evaluación se basa fundamentalmente en el promedio entre la media del pico más saliente de la experiencia global y el pico más próximo al final de la experiencia.

Redelmeier y Kahneman registraron el nivel de dolor en una prueba de colonoscopia. Dicha prueba duraba de entre 4 y 69 minutos. Se tenía paciente A y B, y los resultados evidenciaron que la evaluación restrospectiva del dolor producido por la prueba, podía predecirse con un grado considerable de eficacia promediando el pico más elevado con la magnitud de dolor que había producido el momento final de la experiencia. A informó que había sido mucho más desagradable pero el pico máximo no se diferenció entre ambos sujetos y el participante B soportó una prueba más prolongada. Lo que ocurre es que el valor afectivo de la experiencia para el A quedó determinado por ser este pico alto próximo al final de la prueba. El simple hecho de añadir al terminar la experiencia un intervalo corto de malestar mínimo produce en los pacientes una evaluación global de la experiencia como menos aversiva e incrementó luego pruebas de seguimiento.

En este ejemplo se da el doble proceso de sustitución que determina el juicio subjetivo del sujeto.

La categoría “dolor que produce la experiencia global” se sustituye por el prototipo “promedio del pico más elevado de dolor y del valor más próximo al final de la experiencia”. Pero en este caso la propiedad del prototipo no viene dada por la representatividad de la información (duración total de la experiencia o magnitud promedio del dolor global) sino por su accesibilidad en la memoria.

La insensibilidad a características extensionales de las categorías constituyen ejemplos de la desviación sistemática del modelo normativo de la lógica en el juicio intuitivo bajo incertidumbre.

El proceso común de sustitución del atributo de la categoría por una propiedad del prototipo se demuestra en variedad de dominios e indica que los juicios complejos se sustituyen por valoraciones semánticamente más simples y accesibles. El ejemplo del “dolor”, constituye la estimación cuantitativa subjetiva de una experiencia con valor afectivo.

d) Heurístico de anclaje y ajuste

Normalmente realizamos estimaciones de cantidades a partir de un valor inicial que se va ajustando hasta la respuesta final. El valor inicial puede sugerirse por la formulación del problema o ser el resultado de un cómputo parcial. En uno u otro caso, diferentes puntos de partida producen estimaciones diferentes sesgadas hacia el valor inicial. Tversky y Kahneman pidieron estimar el porcentaje de países africanos de Naciones Unidas. El valor inicial (0 y 100) se establecía haciendo girar una rueda de fortuna en su presencia. El experimento se desarrolló en 2 fases:

  1. fase de juicio comparativo: estimar si el porcentaje era superior o inferior al resultado del giro de la rueda.
  2. fase de juicio absoluto: se pedía establecer el porcentaje concreto requerido.

La mediana de las estimaciones para valores iniciales de 10 y 65, fueron de 25 y 45 respectivamente, demostrando el efecto del valor de partida en la respuesta final. Los iniciales eran producto de azar, y estos valores numéricos informativos pueden servir como anclajes. El participante basa su estimación en un cómputo inicial incompleto.

Tversky y Kahneman 1974 solicitaron el resultado (5 sg): Descendente: 8x7x6x5x4x3x2x1 Ascendente: 1x2x3x4x5x6x7x8

La mediana de la estimación en secuencia descendente fue de 2.250 y para la ascendente de 512.

El valor real es 40320. El producto de los primeros números constituye la información de anclaje que explica el valor estimado en el juicio absoluto. En la fase comparativa se genera una estimación de la cantidad independiente del valor de anclaje y compara este valor con su estimación para determinar si el anclaje es demasiado alto o bajo. Para emitir el juicio absoluto, ajusta el juicio inicial en la dirección apropiada hasta encontrar el valor más aceptable. Este proceso de ajuste es insuficiente porque termina el límite más próximo al valor del ancla dentro del rango de valores posibles.

Los resultados de Jacowitz y Kahneman 1995 cuestionan esta interpretación. En su estudio los valores de anclaje proporcionados se basaron en las estimaciones de 15 problemas de juicio cuantitativo obtenidas en un grupo de sujetos que no participaban luego en el experimento de estimar altura del monte Everest, la distancia entre San Francisco y Nueva York,... Los valores de anclaje correspondían al percentil 15 y 85 de este grupo como anclas de valor bajo vs alto. Los autores demostraron un efecto asimétrico en el sesgo de anclaje . Este fue significativamente superior para los valores elevados. Se vio reforzado por el hecho de que un porcentaje de sujetos superior al grupo de 15% inicial, generaron juicios cuantitativos superiores al valor del percentil 85 y no fue así con el porcentaje de sujetos que generaron juicios inferiores al del percentil 15 del grupo inicial.

Los valores de anclaje altos incrementan la plausibilidad de los valores superiores al ancla en mayor medida que los bajos incrementan la plausibilidad de los valores inferiores al ancla, siendo la razón de que 0 es el límite, pero no se da límite superior (infinito). Según los autores, se pone de manifiesto que el sesgo no siempre se da en el proceso de ajuste de la estimación inicial, puesto esta ancla puede alterar la creencia inicial del individuo y modular el juicio absoluto emitido.

Por tanto se sugiere que este proceso de anclaje se inicia en la fase de comparación y sesga la estimación inicial del sujeto, previa al juicio absoluto. Se concluye enumerando tres posibles causas en tareas de juicio comparativo, sin considerarlas mutuamente excluyentes:

  1. Un punto de partida para el ajuste. (Responde a la formulación de Tversky y Kahneman)
  2. Indicio conversacional, debido a la saliencia que le confiere el experimentador.
  3. Una sugerencia o prime.

La investigación reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación de la información y que el ancla actúa como una sugerencia, haciendo que la información consistente con ella sea accesible rápidamente. El efecto de anclaje no se produce si no se cumplen determinadas condiciones de compatibilidad entre ancla (valor inicial) y juicio requerido, como es la escala de medida en la que se formulan ambos. Además Strack y Mussweiler 1997, indicaron que es necesario que se expresen en la misma dimensión (altura vs anchura). A varios participantes se les formuló dos preguntas.

  1. juicio comparativo considerando valor del ancla “mayor o menor que”,
  2. juicio absoluto.

Se utilizaron cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla con la dimensión del juicio ; y valor del ancla alto vs bajo).

La interacción reveló que el efecto de anclaje solo fue significativo cuando las dimensiones fueron iguales solo cuando el valor del ancla fue elevado. El hecho de que el efecto de anclaje disminuya de forma significativa cuando la dimensión del juicio difiere de la del ancla, no puede explicarse por el priming numérico que proporciona el ancla. Sugieren los resultados que la fuerza del efecto depende de la medida en que la información es activada por el ancla también se percibe como aplicable al juicio absoluto.

Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a prueba la hipótesis del priming semántico y no el numérico per se, es el responsable de los efectos de anclaje.

  • En este caso utilizaron un 2 x 2 (ancla plausible / no; ancla alta vs baja)
  • Como variables dependientes se registraron valores de juicios y la latencia de respuesta en los dos juicios (comparativo y de valor absoluto).

El análisis de la latencia desvela algo interesante:

  • Las latencias (tiempos) fueron significativamente mayores para las anclas plausibles frente a las no plausibles, mientras que en los juicios absolutos este patrón fue al revés.
  • Los datos sugieren que que cuando el ancla es un valor plausible, los participantes resuelven la tarea comparativa elaborando la respuesta en un proceso cognitivo que consume tiempo. La información relevante es fácilmente accesible y acelera la respuesta en la tarea de juicio absoluto posterior. Cuanto más tiempo consuma el juicio comparativo menos tiempo consumirá el juicio absoluto.
  • Las latencias en ambos juicios deberían estar inversamente correlacionadas pero sólo en la tarea comparativa cuando se utilice información relevante.
  • En el caso de las anclas plausibles, ambas latencias de respuesta correlacionaron negativa y significativamente, donde las latencia más largas en juicio comparativo implicaba latencias cortas en juicio absoluto.

Chapman y Johnson 2002 presentan modelo alternativo a esta propuesta de Tversky y Kahneman del 1974, que permite interpretar el sesgo de anclaje en amplio abanico de tareas y procedimientos experimentales.

El mecanismo se basa en proceso de accesibilidad selectiva que se genera en la fase de recuperación de la información y determina la formación de la respuesta. Este proceso es el resultado de múltiples causas y los mecanismos responsables pueden producirse en más de una fase. Los sesgos y errores se producen a consecuencia del priming asimétrico en el proceso de recuperación de la información, incrementando desproporcionadamente la disponibilidad de rasgos compartidos por “ancla” y respuesta y reduciría la disponibilidad de aquellos rasgos que los diferencian.

Imaginamos haber heredado una silla antigua. El precio de una similar fijado por un anticuario podría servir para valorarla y ajustarla luego según la diferencia en calidad. El proceso de anclaje es equilibrado e ilustra la funcionalidad del heurístico como recurso rápido que implica un esfuerzo cognitivo mínimo.

Imaginemos que asistimos a subasta televisiva de muebles antiguos y utilizamos el precio de partida de una silla similar en diseño pero firmada por un importante diseñador.

Si activamos los rasgos compartidos en detrimento de los rasgos que diferencian ambos objetos nuestra estimación será elevada en exceso y se cometerá sesgo en la valoración.

El modelo de accesibilidad selectiva atribuye el sesgo en el juicio absoluto a una ponderación excesiva de los rasgos comunes entre el ancla y la respuesta en detrimento de los discrepantes, basada en la tendencia confirmatoria.

Si el ancla produce efecto sobre el juicio incrementando la accesibilidad de rasgos comunes y reduce a los diferentes, el hecho de incrementar experimentalmente la accesibilidad de rasgos diferentes debería reducir el sesgo hacia el valor inicial.

Chapman y Johson 1999 pidieron a unos estudiantes que predijeran sobre las siguientes elecciones presidenciales en EEUU.

Debían escribir los dos últimos dígitos del no de la seguridad social y considerarlo como una probabilidad.

Se les pide que pensaran en la probabilidad de que el candidato republicano ganara las elecciones presidenciales y que compararan su respuesta con el número apuntado.

Esta primera estimación de probabilidad no se registró, para que se consideraran los dígitos como valor de anclaje. Las probabilidades de anclaje fluctuaron de 0 a 99% con media de 48% y Md= 51%.

Asignar a los sujetos de forma aleatoria a una de tres condiciones experimentales:

  1. Condición “a favor”: escribir razón por la que el republicano debía ganar.
  2. Condición “en contra”: “ “ “ “ no debería ganar.
  3. Condición “neutral”: no se les pidió escribir.

Segunda estimación por escrito de que el candidato republicano ganara las elecciones.

Se establecieron tres categorías de participantes:

  1. SIMILAR: los de razón a favor con valores de anclaje SUPERIOR al 50% y aquellos en contra con anclaje INFERIOR al 50%
  2. DIFERENTE: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra con anclaje SUPERIOR al 50%
  3. NEUTRAL: los del grupo neutral.

Los resultados confirmaron la hipótesis de partida demostrando que el efecto de anclaje fue significativo sólo para las condiciones “similar” y “neutra”, y el sesgo de anclaje puede reducirse o eliminarse propiciando que los participantes identifiquen razones discrepantes con el valor del ancla.

Según Epley y Gilovich 2001, los procesos implicados en el efecto de anclaje difieren dependiendo de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o bien es por el propio participante a partir de las preguntas planteadas. En este caso, el proceso de ajuste sería el responsable del efecto en la medida en que el valor numérico del ancla, por su condición de respuesta auto-generada, adquiriría el estatus de respuesta candidata con el peso específico suficiente para iniciarlo.

Los autores lo pusieron a prueba “valor del ancla por experimentador vs por el participante”. Las respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada respuesta el juez evaluaba si el participante conocía el valor del ancla, si utilizaba esta como base de la respuesta y si mencionaba el ajuste a partir del valor del ancla para alcanzar la estimación final. El acuerdo entre estos era alto (0.94) y consideraron que los sujetos habían utilizado el mecanismo de anclaje y ajuste si sus informes verbales se referían tanto al ancla como al proceso de ajuste. A los que se les proporcionó utilizaron menos el mecanismo de ajuste a partir del ancla que aquellos que habían generado de forma espontánea el valor inicial.

Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman proponiendo una taxonomía de posibles efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las variables que pueden intervenir en función de la tarea o experimento.

3.1. La teoría del apoyo

Tversky y Kahneman 1973 aportan otro ejemplo: pidieron a un grupo que estimaran el número de palabras de 7 letras en inglés que acababan en - ing en cuatro páginas de una novela y a otro grupo que comentaran lo mismo pero referido a palabras que terminaban en – n . La Md del primer grupo fue de casi tres veces superior a la del segundo, pues las palabras que terminan en ing son más accesibles al recuerdo que las palabras que contienen la n en sexta posición.

La Teoría del Apoyo es una perspectiva del juicio intuitivo bajo incertidumbre que permite explicar gran parte de la evidencia de las operaciones mentales que responden a la denominación del juicio basado en heurísticos en la evaluación de frecuencias y probabilidades .

El efecto de desempaquetado es el principio explicativo de esta teoría, el cual quiere demostrar que “el todo es menor que la suma de sus partes”.

Las descripciones detalladas de un acontecimiento determinado dan lugar, de forma sistemática, a juicios de probabilidad superiores que las que genera una descripción general del mismo acontecimiento (“1000 personas morirán en un terremoto”, parece más probable que un evento inclusivo donde “1000 personas morirán en un desastre natural”). Tversky y Kahneman desarrollaron una teoría no extensional en la cual la probabilidad subjetiva no está ligada a los acontecimientos, sino a las descripciones de estos, denominadas hipótesis. La evidencia empírica demuestra que el juicio probabilístico sobre un evento determinado depende del grado en que se explicita su descripción.

Cada hipótesis A, posee un valor de apoyo determinado, s(A), que corresponde a la fuerza de la evidencia favorable a dicha hipótesis. La clave es que desempaquetar la descripción de una hipótesis en sus posibles componentes o hipótesis elementales generalmente aumenta su apoyo. Así, el apoyo de la disyunción explícita Ca ѵ Cn es igual o mayor que el apoyo de la disyunción implícita, C, que no menciona ninguna causa: s(C) ≤ s( Ca ѵ Cn )

La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones explícitas ( Ca ѵ Cn ). El grado de subaditividad es influido por varios factores, uno puede ser la interpretación de la escala de probabilidad. Será pronunciada cuando la probabilidad se interpreta como la predisposición de una caso individual, respecto a cuando se estima como frecuencia relativa en una determinada población. Kahneman y Tversky denominan a estas dos modalidades de juicio singular y distribucional (más preciso). Esta propuesta de los (amiguetes K y T) indica que la disyunción implícita “accidente” se desempaqueta con mayor facilidad en sus componentes “accidente de coche, de avión, fuego, ahogamiento,...”

Las posibles causas de muerte se representan en las estadísticas de mortalidad de la población, pero no en la muerte de una persona. La tendencia a “desempaquetar” una disyunción implícita es mayor en modo distribucional que en singular o individual. Cuando el problema se formula en términos de frecuencias se espera que se produzca “descuento” o menor diferencia entre la probabilidad de la hipótesis implícita y la suma de las probabilidades de las hipótesis elementales explícitas.

Tversky y Kahneman 1994 pusieron a prueba el supuesto del principio del “desempaquetado”: la subaditividad para las disyunciones implícitas. Los participantes se dividieron en 2 grupos:

  1. Grupo: Recibió la instrucción de estimar las probabilidades de muerte para el caso de una persona determinada como consecuencia de causa específica.
  2. Grupo: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de personas de los 2 millones de muertes del año previo que podían atribuirse a cada una de las causas.

La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una disyunción explícita (muerte a consecuencia de una enfermedad cardiaca, cáncer o alguna otra causa natural), pero nunca ambas.

Se definieron tres componentes y cada uno se dividía en 7 subcomponentes.

Se esperaba que el hecho de explicitar en mayor medida las causas de la muerte incrementaría la subaditividad: la diferencia entre la probabilidad asignada a la hipótesis implícita y la suma de las probabilidades de los componentes de la hipótesis. Los resultados arrojaron que la estimación media de una disyunción implícita -P(causas naturales)- , es menor que la suma de las estimaciones media de sus componentes.

Tversky y Kahneman 1994 denominaron factor de desempaquetado al índice del grado de subaditividad, calculando la ratio de las probabilidades asignadas a las hipótesis explícitas y la probabilidad asignada a la hipótesis implícita. Puede calcularse dividiendo: la suma ∑ de las probabilidades de las hipótesis elementales explícitas por la probabilidad de la hipótesis implícita. Cuanto mayor sea el valor de dicho factor, mayor el grado de subaditividad observado.

Siguiendo con el ejemplo anterior, indicar que el grado de subaditividad aumentó con el nº de componentes en la disyunción explícita (mayor grado al juzgar probabilidades que al hacerlo con frecuencias).

Quedó respaldado y demostrado incluso en juicios probabilísticos con expertos. A una muestra de médicos se le presenta un escenario con una mujer que llega con dolor abdominal:

  • A la mitad de los participantes se les pide que asignen probabilidades a 2 diagnósticos: gastroenteritis y embarazo ectópico, y a una categoría residual: ninguno de los dos.
  • La otra mitad debía asignar a 5 diagnósticos específicos.

Si los juicios de los médicos se ajustaran a la Teoría clásica de la probabilidad, la probabilidad a la categoría residual sería equivalente a la suma de las probabilidades de los tres componentes desempaquetados en la condición de los 5 diagnósticos:

  1. grupo: (gastroenteritis + embarazo ectópico ); (residual)
  2. grpuo: gastroenteritis + embarazo ectópico + (------) + (------) + (------)

Los resultados indicaron que la probabilidad asignada a la hipótesis residual en la condición de 2 diagnósticos fue significativamente menor a la de los tres componentes “desempaquetados” en la condición de cinco diagnósticos. El modelo bayesiano asume el supuesto de aditividad, y principio de extensión en la teoría de la probabilidad.

El principio de extensión es de las reglas más simples y transparentes en la teoría de la probabilidad. Su violación es uno de los errores más llamativos y sorprendentes del razonamiento probabilístico. La regla de la conjunción es violada por la falacia de la conjunción; la regla de la disyunción, donde la probabilidad de A o B no puede ser inferior ni a la probabilidad de A ni a la de B porque constituye la suma de ambas. También la subaditividad es una clara violación de la regla de la disyunción cuando no se explicitan las causas de un evento en una disyunción implícita.

Van Boven y Epley 2003 generalizaron el hallazgo de Tversky y Kahneman a juicios evaluativos con valor afectivo, en los que se juzga el carácter positivo o adverso de una categoría o delas consecuencias de un acontecimiento. Los autores señalan que los factores más relevantes que explican el efecto serían las descripciones detalladas de los elementos constituyentes de una hipótesis permitiendo recordar con mayor facilidad posibilidades que han pasado por alto y facilitan la simulación mental y la imaginación vívida de las categorías o acontecimientos. Parece ser que en los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la que se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden recuperarse.

Compartir

 

Contenido relacionado