Sesgo de creencias: cuando nuestro conocimiento nos ciega.

En filosofía, se llama silogismo a un tipo de argumento que tiene la siguiente forma:

  • “Todos los psicólogos están un poco mal de la cabeza.
  • Fernando es un psicólogo.
  • Por lo tanto, Fernando está mal de la cabeza.”

En esencia, se trata de tres proposiciones o afirmaciones categóricas (o son ciertas, o no). Las dos primeras se llaman premisas, y contienen la información de partida para el razonamiento. La tercera se llama conclusión y, si el argumento está bien construido, se sigue lógicamente a partir de las premisas.

Los silogismos, cuyo origen se remonta nada menos que a Aristóteles, constituyen en sí mismos todo un campo de estudio en psicología. Y es que, una vez más, las personas no somos del todo racionales o competentes cuando razonamos con ellos. Por ejemplo, están los efectos de la figura (García Madruga, 1982), o el heurístico de atmósfera (Woodworth & Sells, 1935). Pero me parece más interesante explicaros aquí cómo nos puede influir el contenido del silogismo. Por ejemplo, leed el siguiente argumento:

  • “Ningún medio de transporte es barato.
  • Algunos trenes son baratos.
  • Por lo tanto, los trenes son un medio de transporte.”

¿Diríais que este argumento es lógicamente válido? Habrá más de uno que esté tentado a responder que sí. Aunque lo cierto es que, usando las leyes de la lógica, podemos descartar esta posibilidad. Si examináis las oraciones con cuidado, veréis cómo la conclusión no se sigue de las premisas. Por otro lado, en cuanto a contenido, la conclusión parece bastante razonable. Los trenes son un medio de transporte. Quizá esto ayude a comprender el error.

Cuando uno examina un argumento, tiene que comprender muy bien que existen dos planos separados, no conectados: por un lado, tenemos el mundo de la lógica, que dicta si el argumento es válido o inválido, y atiende únicamente a la estructura. Es decir, se enfoca en aspectos como la posición de los términos en las proposiciones, las palabras que hacen de cuantificador (“modo”), etc. Por otro lado, tenemos el mundo de la ciencia, o del saber, que nos dice si una proposición es cierta o falsa, en función de si su contenido se corresponde con la realidad. Coherencia lógica y valor de verdad, por tanto, viven en mundos separados porque al evaluarlos tenemos que buscar en lugares diferentes, y cada uno vive bastante ajeno al otro. Así, podemos tener argumentos lógicamente válidos que no se corresponden con la realidad:

  • “Todos los trenes están hechos de gominola.
  • La gominola es el material de los sueños.
  • Los trenes están hechos del material de los sueños.”

…Y al contrario, argumentos lógicamente inválidos cuya conclusión es cierta, como el que mencionamos al principio.

Esto quiere decir que, si se trata de juzgar la racionalidad de un argumento, el contenido del mismo no importa. Es decir, una máquina programada para resolver razonamientos de este tipo debería ser completamente ciega al contenido del argumento, y fijarse exclusivamente en la forma y estructura. Para un ordenador de este tipo, todos los silogismos tendrían una pinta como esta, si los traducimos al “lenguaje-robot”:

  • Premisa menor: Cuantificador (Término S, Término M).
  • Premisa mayor: Cuantificador (Término P, Término M).
  • Conclusión: Cuantificador (Término S, Término P).

Es decir, aquí no hay nada más que el esqueleto lógico del argumento, ni rastro del contenido.

Sin embargo, gracias a investigaciones como las de Minna Wilkins (1928), Jonathan Evans y otros (1983), sabemos que las personas *no* actuamos como máquinas cuando evaluamos silogismos. Al contrario, parecemos bastante cegados por el contenido del mismo. Cuando sabemos que la conclusión es correcta, o al menos creíble, podemos categorizar como “válido” un argumento que es completamente incorrecto desde el punto de vista lógico. A este fenómeno se lo conoce como “sesgo de creencias” (Evans et al., 1983).

Desde su descubrimiento, este sesgo se ha investigado profusamente en psicología. Ahora sabemos que algunos tipos de contenido pueden alterar en gran medida la capacidad de los participantes para juzgar la validez de los argumentos. Por ejemplo, el contenido emocional puede amplificar o atenuar el sesgo (Goel et al., 2011), a pesar de que racionalmente debería ser irrelevante.

¿Qué tipo de proceso seguimos las personas para caer en este tipo de trampas? Algunos autores proponen que, cuando nos piden que evaluemos la lógica de un argumento, lo primero que hacemos es examinar su contenido. Es decir, ¡justo lo que no hay que hacer! Cuando el contenido encaja con nuestras creencias, lo damos por bueno, sin haber evaluado la lógica subyacente. Sin embargo, cuando estamos en desacuerdo con el contenido del argumento, entonces sí analizamos su estructura lógica, buscando cualquier problema lógico que pudiera contener. A esta teoría la llaman “escrutinio selectivo”, precisamente por eso, porque sólo entramos a juzgar la estructura del argumento cuando no estamos de acuerdo con sus conclusiones.

Ahora, volvamos a la vida real, y pensemos cada uno de nosotros en esas ocasiones en las que nos hemos encontrado una noticia en las redes sociales que nos ha emocionado, para bien o para mal. ¿No estaremos mostrando justo el sesgo que se ha descrito en este post? Si al leer el titular de la noticia ya comprobamos que encaja con nuestra ideología, generalmente la daremos por buena, la compraremos sin más análisis. Probablemente compartiremos el enlace con nuestros followers y nos quedaremos tan tranquilos. Por otro lado, si el titular de la noticia nos parece incorrecto o choca con nuestra forma de pensar, probablemente, ¡entonces sí!, leamos con cuidado la noticia y busquemos cualquier motivo para echarla abajo: “la fuente no es fiable”, “el estudio es antiguo”, “la muestra es pequeña”… Ya sabéis a qué me refiero, y a qué grado de minuciosidad podemos llegar para negar lo que no nos gusta. El caso es que quizá no nos hayamos dado cuenta, pero estaremos repitiendo el mismo tipo de error que los participantes de estos experimentos de psicología, que se vienen repitiendo desde los años ochenta.

¡Y no aprendemos!

Referencias

Advertisements
Posted in Uncategorized

Por qué nunca te pondrás de acuerdo con tu cuñado, según la psicología experimental

Los psicólogos y psicólogas ya estamos muy acostumbrados a la idea de que las personas no somos del todo racionales en nuestras decisiones. Sí, nombres como Kahneman y Tversky, o Gigerenzer, ya han traspasado la frontera de nuestra disciplina y hasta gozan de bastante celebridad en las redes y en sitios de divulgación científica. Como han mostrado los experimentos, resulta que, cuando nos ponen delante un argumento que “parece” correcto pero no lo es, caemos como moscas. Si nos piden que tomemos una decisión de compra-venta, caemos ante la trampa más tonta. Vaya panorama, ¿eh?

Conviene, sin embargo, distinguir entre dos formas de equivocarse. Por un lado, está lo que llamamos “error aleatorio”. Como vemos en la imagen, es un error que se distribuye al azar: un disparo demasiado desviado hacia arriba se compensa con otro que se ha desviado en la dirección opuesta. Si sumáramos todos los errores (la distancia de cada disparo con respecto a la diana), se anularían entre sí, y el error medio sería cero.

post1

Pero lo divertido, e interesante, es que los humanos a menudo nos equivocamos de otra manera. De manera “predecible”, no aleatoria. Sería lo que llamamos “error sistemático”: en la diana de abajo, los disparos se desvían sistemáticamente hacia el cuadrante superior izquierdo, en vez de repartirse al azar por todo el espacio. Es un tipo de error interesante porque encierra un patrón, un orden que podemos desentrañar. En el contexto del razonamiento humano, a este tipo de error sistemático, predecible, lo llamamos “sesgo cognitivo”.

Como había avanzado antes, el tema de los sesgos cognitivos es uno de esos “super-hits” de la psicología. Hay muchísimas investigaciones que nos demuestran cómo las personas somos muy susceptibles a caer en este tipo de errores predecibles, en un motón de contextos. Por favor, leed a Dan Ariely y a Daniel Kahneman, que no os vais a arrepentir.

Una de las cuestiones que nos ha llamado la atención es la del “razonamiento motivado” (Kunda, 1990), que podría resumirse como sigue: Cuando razona, la gente tiene una alta probabilidad de llegar precisamente a las conclusiones que le dan la razón. Y esto es porque no razonamos en abstracto, neutralmente, considerando argumentos a favor y en contra… sino que tenemos la motivación extra de confirmar nuestras creencias previas y de seguir pensando que somos coherentes.

post2

Seguro que esto ya os suena: si leo el periódico, el Twitter o lo que sea, le daré credibilidad a las noticias y a los posts que coinciden con mi manera de pensar. Toda evidencia que me pongan delante y que no encaje con mi visión del mundo será probablemente desterrada por “parcial”, “interesada”, “fake news”, o como queráis llamarlo.

Este tipo de razonamiento motivado aparece sobre todo en asuntos políticos “que nos toquen la fibra”, donde tenemos opiniones muy fuertes y nos cuesta ver el lugar del otro. Pensad hasta qué punto llegamos cuando la misma acción (por ejemplo, evadir impuestos) a veces se juzga de manera completamente distinta cuando el infractor no me despierta ninguna simpatía (por ejemplo, un político que no me gusta) que cuando es alguien a quien admiro (la estrella de mi equipo de fútbol favorito).

En 2017, Kahan llevó a cabo una investigación sobre razonamiento motivado particularmente reveladora. Reunió a un grupo de participantes (estadounidenses) y les mostró una tabla con datos numéricos supuestamente extraídos de una estadística de EEUU. La tabla se parecía un poco a la que tenéis debajo: en este caso, de un total de 20 estados donde se han impuesto restricciones al uso de armas, en 18 de ellos ha bajado la tasa de criminalidad, mientras que de los 24 estados donde el uso de armas no está limitado, sólo en 4 de ellos se ha reducido dicha tasa. Haciendo los números, os vais a dar cuenta de que estos apoyan la idea de que imponer restricciones al uso de armas tiene un efecto reductor del crimen. ¡Es lo que dicen los números! Fácil, ¿eh?

post3

…Pues no. O depende, más bien. Resulta que aquellas personas que inicialmente estaban a favor de legislar contra el uso libre de armas no tuvieron problema en interpretar los datos correctamente, para apoyar su posición. Sin embargo, las personas que tenían la opinión contraria (estaban en contra de limitar el uso de armas) dijeron ser incapaces de extraer una conclusión de los datos, o bien los interpretaron de forma errónea. Y no, no es que estos participantes fueran especialmente torpes con los números, ya que, si los mismos datos se ofrecían en un contexto totalmente neutral, no tenían problema en hacer el razonamiento correcto. Es decir: esto es más bien un “sé que el resultado de esta cuenta no me va a gustar, así que me voy a hacer el loco”, una especie de anumerismo selectivo, que aparece solo cuando nos conviene.

Moviéndonos a otra literatura diferente, pero relacionada, podemos encontrar otro sesgo cognitivo que llamamos “ilusión causal”, al que hemos dedicado muchos estudios. La ilusión de causalidad consiste, simplemente, en creer que una cosa es causa de otra, cuando en realidad no están conectadas. Por ejemplo, en un experimento típico, le pedimos a los participantes que pulsen un botón para ver si se enciende una luz. Aunque la luz se apaga y se enciende al azar, muchas personas pueden acabar convencidas de que están controlándola a través del botón (Alloy y Abramson, 1979).

En nuestras investigaciones, hemos comprobado cómo este sesgo, la ilusión causal, aparece en todo tipo de personas, aunque algunos factores la pueden aumentar o reducir. Así, un día nos hicimos la siguiente pregunta: ¿Y si la ilusión causal también tuviera un componente “motivado”? Es decir, ¿y si la ilusión apareciera, o se volviera más fuerte, cuando nos da la razón, mientras que se debilitaría en aquellas situaciones en las que nos lleve la contraria?

Como era una pregunta aparentemente interesante, nos pusimos manos a la obra para estudiarla experimentalmente. Con este fin, desarrollamos una tarea online (una especie de videojuego) en el que el participante ve cómo un partido político en el gobierno (en una situación ficticia) va tomando una serie de decisiones que van luego seguidas de mejoras en los indicadores económicos del país, aunque no siempre sea así: a veces los indicadores no mejoran. Tras ver una serie de acontecimientos como el descrito, los participantes deben juzgar hasta qué punto lo hecho bien el gobierno: de 0 (rematadamente mal) a 100 (perfectamente bien).

En el fondo, la historia tenía trampa: realmente no había relación entre las acciones del gobierno y los indicadores. Si algún participante creyera que sí la había, estaría mostrando una ilusión de causalidad. Es lo mismo que sucedía en los experimentos clásicos con el botón y la luz.

Realmente, este experimento se repetía dos veces, con una diferencia: en una de las ocasiones, el partido se describía como de derechas, mientras que en la otra ocasión se describía como de izquierdas. A este tipo de manipulación la llamamos “encuadre”, y pensamos que podría afectar a los resultados: aquellos participantes con una ideología de izquierdas tenderían a ser más benévolos con el partido que coincide con ellos ideológicamente, y vice versa. Recordemos: el juego estaba programado de forma que el gobierno no tenía ninguna capacidad de mejorar los indicadores, así que la respuesta correcta era en todos los casos cero. ¿Cambiaría mucho la respuesta de los participantes en función de su afinidad ideológica con un gobierno ficticio, a pesar de estar viendo todos exactamente los mismos datos?

Primero realizamos este estudio en una muestra de 88 ciudadanos y ciudadanas españoles. Los resultados que mostramos en la figura fueron en la dirección esperada: los participantes de derechas sobrestimaron la eficacia del gobierno de derechas, pero no tanto la del gobierno de izquierdas, mientras que los participantes de izquierdas mostraron justamente el patrón contrario.

post4

De todas maneras, como nunca está de más replicar los resultados para ver si son robustos, decidimos repetir el estudio, aunque esta vez con una muestra de ciudadanos y ciudadanas de Reino Unido, donde esperaríamos encontrar el mismo resultado. Además aprovechamos para duplicar el tamaño de la muestra, que siempre viene bien.

post5

Como veis, los resultados fueron prácticamente idénticos, aunque ahora más claros gracias al mayor tamaño muestral.

¿Qué podemos concluir de este estudio? Lo primero es una confirmación más del llamado “filtro ideológico”: La misma información puede interpretarse de formas radicalmente opuestas, dependiendo de tus creencias previas. “Todo depende del color del cristal con el que se mira”, como suele decirse, aunque en este caso, corroborado experimentalmente. Por cierto: aquí no se libra nadie. Ni de derechas, ni de izquierdas. El sesgo selectivo que hemos encontrado aparece a lo largo de todo el espectro ideológico. Así que la próxima vez que nos metamos en un debate en Internet o en la cena de nochebuena, no nos ensañemos señalando el sesgo en nuestros adversarios… porque probablemente nosotros también estamos igual de sesgados, solo que en otra dirección. De hecho, nos pasa hasta a los científicos (Bastardi et al., 2011).

post6

En segundo lugar, tenemos una evidencia de que la ilusión causal, un sesgo cognitivo ampliamente estudiado, puede tener un componente “motivacional”. Es decir, que puede aparecer selectivamente: volverse más fuerte allí donde encaja con las creencias previas, y minimizarse o desaparecer allí donde las contradice. La ilusión sería una especie de “escudo” que llevamos con nosotros y que usamos para filtrar la información que nos encontramos. Y todo ello sin aparentemente darnos cuenta de nuestro propio sesgo. Habrá que investigar más.

post7

Si tenéis interés en conocer más detalles de esta investigación, podéis consultarla aquí. Está en acceso abierto, y tanto los datos como los materiales del estudio son descargables públicamente. ¡Hasta la próxima!

Referencias:

  • Alloy, L. B., and Abramson, L. Y. (1979). Judgment of contingency in depressed and nondepressed students: sadder but wiser? J. Exp. Psychol. Gen. 108, 441–485. doi: 10.1037/0096-3445.108.4.441
  • Bastardi, A., Uhlmann, E. L., and Ross, L. (2011). Wishful thinking: belief, desire, and the motivated evaluation of scientific evidence. Psychol. Sci. 22, 731–732. doi: 10.1177/0956797611406447
  • Blanco, F. (2017). Cognitive Bias. In J. Vonk, and T.K. Shackelford (Eds.), Encyclopedia of Animal Cognition and Behavior. New York: Springer.
  • Blanco, F., Gómez-Fortes, B., & Matute, H. (2018). Causal illusions in the service of political attitudes in Spain and the UKFrontiers in Psychology, 9(1033).
  • Kahan, D. M., Peters, E., Dawson, E. C., and Slovic, P. (2012). Motivated numeracy and enlightened self-government. Behav. Public Policy 1, 54–86. doi: 10.1017/bpp.2016.2
  • Kunda, Z. (1990). The case for motivated reasoning. Psychol. Bull. 108, 480–498. doi: 10.1037/0033-2909.108.3.480

  • Matute, H., Blanco, F., Yarritu, I., Diaz-Lago, M., Vadillo, M. A., & Barberia, I. (2015). Illusions of causality: How they bias our everyday thinking and how they could be reducedFrontiers in Psychology, 6, 888.
Posted in Uncategorized