Por qué nunca te pondrás de acuerdo con tu cuñado, según la psicología experimental


Los psicólogos y psicólogas ya estamos muy acostumbrados a la idea de que las personas no somos del todo racionales en nuestras decisiones. Sí, nombres como Kahneman y Tversky, o Gigerenzer, ya han traspasado la frontera de nuestra disciplina y hasta gozan de bastante celebridad en las redes y en sitios de divulgación científica. Como han mostrado los experimentos, resulta que, cuando nos ponen delante un argumento que “parece” correcto pero no lo es, caemos como moscas. Si nos piden que tomemos una decisión de compra-venta, caemos ante la trampa más tonta. Vaya panorama, ¿eh?

Conviene, sin embargo, distinguir entre dos formas de equivocarse. Por un lado, está lo que llamamos “error aleatorio”. Como vemos en la imagen, es un error que se distribuye al azar: un disparo demasiado desviado hacia arriba se compensa con otro que se ha desviado en la dirección opuesta. Si sumáramos todos los errores (la distancia de cada disparo con respecto a la diana), se anularían entre sí, y el error medio sería cero.

post1

Pero lo divertido, e interesante, es que los humanos a menudo nos equivocamos de otra manera. De manera “predecible”, no aleatoria. Sería lo que llamamos “error sistemático”: en la diana de abajo, los disparos se desvían sistemáticamente hacia el cuadrante superior izquierdo, en vez de repartirse al azar por todo el espacio. Es un tipo de error interesante porque encierra un patrón, un orden que podemos desentrañar. En el contexto del razonamiento humano, a este tipo de error sistemático, predecible, lo llamamos “sesgo cognitivo”.

Como había avanzado antes, el tema de los sesgos cognitivos es uno de esos “super-hits” de la psicología. Hay muchísimas investigaciones que nos demuestran cómo las personas somos muy susceptibles a caer en este tipo de errores predecibles, en un motón de contextos. Por favor, leed a Dan Ariely y a Daniel Kahneman, que no os vais a arrepentir.

Una de las cuestiones que nos ha llamado la atención es la del “razonamiento motivado” (Kunda, 1990), que podría resumirse como sigue: Cuando razona, la gente tiene una alta probabilidad de llegar precisamente a las conclusiones que le dan la razón. Y esto es porque no razonamos en abstracto, neutralmente, considerando argumentos a favor y en contra… sino que tenemos la motivación extra de confirmar nuestras creencias previas y de seguir pensando que somos coherentes.

post2

Seguro que esto ya os suena: si leo el periódico, el Twitter o lo que sea, le daré credibilidad a las noticias y a los posts que coinciden con mi manera de pensar. Toda evidencia que me pongan delante y que no encaje con mi visión del mundo será probablemente desterrada por “parcial”, “interesada”, “fake news”, o como queráis llamarlo.

Este tipo de razonamiento motivado aparece sobre todo en asuntos políticos “que nos toquen la fibra”, donde tenemos opiniones muy fuertes y nos cuesta ver el lugar del otro. Pensad hasta qué punto llegamos cuando la misma acción (por ejemplo, evadir impuestos) a veces se juzga de manera completamente distinta cuando el infractor no me despierta ninguna simpatía (por ejemplo, un político que no me gusta) que cuando es alguien a quien admiro (la estrella de mi equipo de fútbol favorito).

En 2017, Kahan llevó a cabo una investigación sobre razonamiento motivado particularmente reveladora. Reunió a un grupo de participantes (estadounidenses) y les mostró una tabla con datos numéricos supuestamente extraídos de una estadística de EEUU. La tabla se parecía un poco a la que tenéis debajo: en este caso, de un total de 20 estados donde se han impuesto restricciones al uso de armas, en 18 de ellos ha bajado la tasa de criminalidad, mientras que de los 24 estados donde el uso de armas no está limitado, sólo en 4 de ellos se ha reducido dicha tasa. Haciendo los números, os vais a dar cuenta de que estos apoyan la idea de que imponer restricciones al uso de armas tiene un efecto reductor del crimen. ¡Es lo que dicen los números! Fácil, ¿eh?

post3

…Pues no. O depende, más bien. Resulta que aquellas personas que inicialmente estaban a favor de legislar contra el uso libre de armas no tuvieron problema en interpretar los datos correctamente, para apoyar su posición. Sin embargo, las personas que tenían la opinión contraria (estaban en contra de limitar el uso de armas) dijeron ser incapaces de extraer una conclusión de los datos, o bien los interpretaron de forma errónea. Y no, no es que estos participantes fueran especialmente torpes con los números, ya que, si los mismos datos se ofrecían en un contexto totalmente neutral, no tenían problema en hacer el razonamiento correcto. Es decir: esto es más bien un “sé que el resultado de esta cuenta no me va a gustar, así que me voy a hacer el loco”, una especie de anumerismo selectivo, que aparece solo cuando nos conviene.

Moviéndonos a otra literatura diferente, pero relacionada, podemos encontrar otro sesgo cognitivo que llamamos “ilusión causal”, al que hemos dedicado muchos estudios. La ilusión de causalidad consiste, simplemente, en creer que una cosa es causa de otra, cuando en realidad no están conectadas. Por ejemplo, en un experimento típico, le pedimos a los participantes que pulsen un botón para ver si se enciende una luz. Aunque la luz se apaga y se enciende al azar, muchas personas pueden acabar convencidas de que están controlándola a través del botón (Alloy y Abramson, 1979).

En nuestras investigaciones, hemos comprobado cómo este sesgo, la ilusión causal, aparece en todo tipo de personas, aunque algunos factores la pueden aumentar o reducir. Así, un día nos hicimos la siguiente pregunta: ¿Y si la ilusión causal también tuviera un componente “motivado”? Es decir, ¿y si la ilusión apareciera, o se volviera más fuerte, cuando nos da la razón, mientras que se debilitaría en aquellas situaciones en las que nos lleve la contraria?

Como era una pregunta aparentemente interesante, nos pusimos manos a la obra para estudiarla experimentalmente. Con este fin, desarrollamos una tarea online (una especie de videojuego) en el que el participante ve cómo un partido político en el gobierno (en una situación ficticia) va tomando una serie de decisiones que van luego seguidas de mejoras en los indicadores económicos del país, aunque no siempre sea así: a veces los indicadores no mejoran. Tras ver una serie de acontecimientos como el descrito, los participantes deben juzgar hasta qué punto lo hecho bien el gobierno: de 0 (rematadamente mal) a 100 (perfectamente bien).

En el fondo, la historia tenía trampa: realmente no había relación entre las acciones del gobierno y los indicadores. Si algún participante creyera que sí la había, estaría mostrando una ilusión de causalidad. Es lo mismo que sucedía en los experimentos clásicos con el botón y la luz.

Realmente, este experimento se repetía dos veces, con una diferencia: en una de las ocasiones, el partido se describía como de derechas, mientras que en la otra ocasión se describía como de izquierdas. A este tipo de manipulación la llamamos “encuadre”, y pensamos que podría afectar a los resultados: aquellos participantes con una ideología de izquierdas tenderían a ser más benévolos con el partido que coincide con ellos ideológicamente, y vice versa. Recordemos: el juego estaba programado de forma que el gobierno no tenía ninguna capacidad de mejorar los indicadores, así que la respuesta correcta era en todos los casos cero. ¿Cambiaría mucho la respuesta de los participantes en función de su afinidad ideológica con un gobierno ficticio, a pesar de estar viendo todos exactamente los mismos datos?

Primero realizamos este estudio en una muestra de 88 ciudadanos y ciudadanas españoles. Los resultados que mostramos en la figura fueron en la dirección esperada: los participantes de derechas sobrestimaron la eficacia del gobierno de derechas, pero no tanto la del gobierno de izquierdas, mientras que los participantes de izquierdas mostraron justamente el patrón contrario.

post4

De todas maneras, como nunca está de más replicar los resultados para ver si son robustos, decidimos repetir el estudio, aunque esta vez con una muestra de ciudadanos y ciudadanas de Reino Unido, donde esperaríamos encontrar el mismo resultado. Además aprovechamos para duplicar el tamaño de la muestra, que siempre viene bien.

post5

Como veis, los resultados fueron prácticamente idénticos, aunque ahora más claros gracias al mayor tamaño muestral.

¿Qué podemos concluir de este estudio? Lo primero es una confirmación más del llamado “filtro ideológico”: La misma información puede interpretarse de formas radicalmente opuestas, dependiendo de tus creencias previas. “Todo depende del color del cristal con el que se mira”, como suele decirse, aunque en este caso, corroborado experimentalmente. Por cierto: aquí no se libra nadie. Ni de derechas, ni de izquierdas. El sesgo selectivo que hemos encontrado aparece a lo largo de todo el espectro ideológico. Así que la próxima vez que nos metamos en un debate en Internet o en la cena de nochebuena, no nos ensañemos señalando el sesgo en nuestros adversarios… porque probablemente nosotros también estamos igual de sesgados, solo que en otra dirección. De hecho, nos pasa hasta a los científicos (Bastardi et al., 2011).

post6

En segundo lugar, tenemos una evidencia de que la ilusión causal, un sesgo cognitivo ampliamente estudiado, puede tener un componente “motivacional”. Es decir, que puede aparecer selectivamente: volverse más fuerte allí donde encaja con las creencias previas, y minimizarse o desaparecer allí donde las contradice. La ilusión sería una especie de “escudo” que llevamos con nosotros y que usamos para filtrar la información que nos encontramos. Y todo ello sin aparentemente darnos cuenta de nuestro propio sesgo. Habrá que investigar más.

post7

Si tenéis interés en conocer más detalles de esta investigación, podéis consultarla aquí. Está en acceso abierto, y tanto los datos como los materiales del estudio son descargables públicamente. ¡Hasta la próxima!

Referencias:

  • Alloy, L. B., and Abramson, L. Y. (1979). Judgment of contingency in depressed and nondepressed students: sadder but wiser? J. Exp. Psychol. Gen. 108, 441–485. doi: 10.1037/0096-3445.108.4.441
  • Bastardi, A., Uhlmann, E. L., and Ross, L. (2011). Wishful thinking: belief, desire, and the motivated evaluation of scientific evidence. Psychol. Sci. 22, 731–732. doi: 10.1177/0956797611406447
  • Blanco, F. (2017). Cognitive Bias. In J. Vonk, and T.K. Shackelford (Eds.), Encyclopedia of Animal Cognition and Behavior. New York: Springer.
  • Blanco, F., Gómez-Fortes, B., & Matute, H. (2018). Causal illusions in the service of political attitudes in Spain and the UKFrontiers in Psychology, 9(1033).
  • Kahan, D. M., Peters, E., Dawson, E. C., and Slovic, P. (2012). Motivated numeracy and enlightened self-government. Behav. Public Policy 1, 54–86. doi: 10.1017/bpp.2016.2
  • Kunda, Z. (1990). The case for motivated reasoning. Psychol. Bull. 108, 480–498. doi: 10.1037/0033-2909.108.3.480

  • Matute, H., Blanco, F., Yarritu, I., Diaz-Lago, M., Vadillo, M. A., & Barberia, I. (2015). Illusions of causality: How they bias our everyday thinking and how they could be reducedFrontiers in Psychology, 6, 888.
Advertisement

About Fernando Blanco

Experimental Psychologist. Believe it or not, this is fun!
This entry was posted in Uncategorized. Bookmark the permalink.