Los nuevos descubrimientos sobre la mente humana muestran las limitaciones de la razón. La tan cacareada capacidad humana para razonar puede tener más que ver con ganar argumentos que con pensar con claridad.
En 1975, investigadores de Stanford invitaron a un grupo de estudiantes a participar en un estudio sobre el suicidio. Se les presentaron pares de notas de suicidio. En cada par, una nota había sido compuesta por un individuo al azar, la otra por una persona que posteriormente se había quitado la vida. Luego se pidió a los estudiantes que distinguieran entre las notas genuinas y las falsas.
Algunos estudiantes descubrieron que tenían un don para esa tarea. De 25 pares de notas, identificaron correctamente la verdadera 24 veces. Otros descubrieron que no tenían esperanza. Identificaron la nota real en solo 10 casos.
Como suele ser el caso de los estudios psicológicos, todo era una burla. Aunque la mitad de las notas eran auténticas (habían sido obtenidas de la oficina del forense del condado de Los Ángeles), el porcentaje de aciertos era falso. Los estudiantes a los que se les había dicho que casi siempre tenían razón, de media, no eran mejores que aquellos a los que se les había dicho que estaban en gran parte equivocados.
En la segunda fase del estudio, se reveló el engaño. A los estudiantes se les dijo que el objetivo real del experimento era medir sus respuestas ante la idea de si tenían razón o no. (Luego resultó que esto también era un engaño). Finalmente, se pidió a los estudiantes que calculasen cuántas notas de suicidio habían analizado correctamente y cuántas pensaban que un estudiante promedio analizaría bien. En este punto sucedió algo curioso. Los estudiantes del grupo que había recibido antes un porcentaje alto de aciertos dijeron que pensaban que, de hecho, lo habían hecho bastante bien, mucho mejor que el estudiante promedio, aunque se les acababa de decir que no tenían ninguna base para creer eso. Y, a la inversa, los que habían sido asignados al grupo con una puntuación baja dijeron que pensaban que lo habían hecho significativamente peor que el estudiante promedio, una conclusión igualmente infundada.
"Una vez formada", observaron secamente los investigadores, "una opinión es notablemente perseverante".
Unos años más tarde, se reclutó a un nuevo grupo de estudiantes de Stanford para un estudio relacionado. A los estudiantes se les entregaron paquetes de información sobre un par de bomberos, Frank K. y George H. La biografía de Frank decía, entre otras cosas, que tenía una hija y le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. Los paquetes de datos también incluían las respuestas de los hombres sobre lo que los investigadores llamaron la Prueba de Elección Riesgo-Conservadora. Según una versión del paquete, Frank fue un bombero exitoso que, puesto a prueba, casi siempre eligió la opción más segura. En la otra versión, Frank también eligió la opción más segura, pero era un pésimo bombero al que sus supervisores habían "denunciado" varias veces. Una vez más, a mitad del estudio, se informó a los estudiantes que habían sido engañados, y que la información que habían recibido era completamente ficticia. Luego se pidió a los estudiantes que dijeran lo que creían. ¿Qué tipo de actitud hacia el riesgo pensaban que tendría un bombero exitoso? Los estudiantes que habían recibido el primer paquete pensaron que lo evitaría. Los estudiantes del segundo grupo pensaron que lo aceptaría.
Incluso después de que la evidencia "de que sus creencias habían sido totalmente refutadas, las personas no logran revisar apropiadamente esas creencias", anotaron los investigadores. En este caso, la incapacidad de hacerlo fue "particularmente impresionante", ya que dos datos sueltos nunca habrían sido información suficiente como para generalizar.
Los estudios de Stanford se hicieron famosos. Viniendo de un grupo de académicos en los años setenta, el argumento de que la gente no puede pensar con claridad fue impactante. Ya no lo es. Miles de experimentos posteriores han confirmado (y elaborado) este hallazgo. Como saben todos los que han seguido la investigación, o incluso quienes de vez en cuando han leído una copia de Psychology Today, cualquier estudiante de posgrado con un ordenador puede demostrar que las personas que parecen razonables suelen ser totalmente irracionales. Rara vez esta idea ha parecido más relevante que en este momento. Aún así, queda un rompecabezas esencial: ¿Cómo hemos llegado a ser así?
En un nuevo libro, “The Enigma of Reason” (El enigma de la razón, Harvard), los científicos cognitivos Hugo Mercier y Dan Sperber intentan responder a esta pregunta. Mercier, que trabaja en un instituto de investigación francés en Lyon, y Sperber, que actualmente trabaja en la Central European University, en Budapest, señalan que la razón es un rasgo producto de la evolución, como el bipedismo o la visión tricolor. Surgió en la sabanas africana y debe entenderse en ese contexto.
Despojado de mucho de lo que podría llamarse ciencia cognitiva, el argumento de Mercier y Sperber consiste, más o menos, en lo siguiente: La mayor ventaja de los seres humanos sobre otras especies es nuestra capacidad para cooperar. La cooperación es difícil de establecer y casi tan difícil de mantener. Para cualquier individuo, aprovecharse es siempre la mejor acción. La razón no se desarrolló para permitirnos resolver problemas lógicos abstractos o incluso para ayudarnos a sacar conclusiones de datos desconocidos; más bien, se desarrolló para resolver los problemas planteados en la vida en grupos colaborativos.
“La razón es una adaptación al nicho hipersocial que los humanos han desarrollado por sí mismos”, escriben Mercier y Sperber. Los hábitos mentales que parecen raros o tontos o simplemente tontos desde un punto de vista "intelectualista" resultan astutos cuando se los ve desde una perspectiva social "interaccionista".
Considere lo que se conoce como "prejuicio de confirmación", la tendencia que tienen las personas a aceptar la información que respalda sus creencias y rechazar la información que las contradice. De las muchas formas de pensamiento erróneo que se han identificado, el prejuicio de confirmación se encuentra entre las que están mejor catalogadas; es el tema de experimentos de libros de texto enteros. Uno de los más famosos se llevó a cabo, nuevamente, en Stanford. Para este experimento, los investigadores reunieron a un grupo de estudiantes que tenían opiniones opuestas sobre la pena de muerte. La mitad de los estudiantes estaba a favor y pensaba que ayudaba a combatir el crimen; la otra mitad estaba en contra y pensaba que no tenía ningún efecto sobre el crimen.
Se pidió a los estudiantes que respondieran a dos estudios. Uno proporcionaba datos en apoyaban el argumento de que la pena de muerte combate el crimen, y el otro proporcionaba datos que lo cuestionaban. Ambos estudios —como habrá adivinado— estaban inventados y habían sido diseñados para presentar lo que eran, objetivamente hablando, estadísticas igualmente convincentes. Los estudiantes que originalmente habían apoyado la pena capital calificaron los datos a favor de que combate el crimen como altamente creíbles y los datos en contra como poco convincentes; los estudiantes que originalmente se habían opuesto a la pena capital hicieron lo contrario. Al final del experimento, se preguntó una vez más a los estudiantes sobre sus puntos de vista. Aquellos que habían comenzado a favor de la pena capital ahora estaban aún más a favor de ella; los que se habían opuesto eran aún más hostiles.
Si la razón está diseñada para generar juicios sólidos, entonces es difícil concebir un defecto de diseño más serio que el prejuicio de confirmación. Imagine, sugieren Mercier y Sperber, un ratón que piensa como nosotros. Un ratón así, "empeñado en confirmar su creencia de que no hay gatos alrededor", pronto sería la cena. En la medida en que el prejuicio de confirmación lleve a las personas a descartar la evidencia de amenazas nuevas o subestimadas, el equivalente humano del gato a la vuelta de la esquina, es un rasgo que debería haber sido seleccionado. El hecho de que tanto nosotros como él sobrevivamos, argumentan Mercier y Sperber, prueba que debe tener alguna función adaptativa, y esa función, sostienen, está relacionada con nuestra "hipersociabilidad".
Mercier y Sperber prefieren el término "prejuicio de mi opinión". Los humanos, señalan, no son crédulos al azar. Presentados con el argumento de otra persona, somos bastante expertos en detectar sus debilidades. Casi invariablemente, las posiciones sobre las que estamos ciegos son las nuestras.
Un experimento reciente realizado por Mercier y algunos colegas europeos demuestra claramente esta asimetría. Se pidió a los participantes que respondieran una serie de problemas sencillos de razonamiento. Luego se les pidió que explicaran sus respuestas y se les dio la oportunidad de modificarlas si identificaban errores. La mayoría quedó satisfecha con sus elecciones originales; menos del 15% cambió de opinión en el segundo paso.
En el paso tres, a los participantes se les mostró uno de los mismos problemas, junto con su respuesta y la respuesta de otro participante, que había llegado a una conclusión diferente. Una vez más, se les dio la oportunidad de cambiar sus respuestas. Pero se les había jugado una mala pasada: las respuestas que se les presentaban como si fueran de otra persona eran en realidad las suyas y viceversa. Aproximadamente la mitad de los participantes se dieron cuenta de lo que estaba pasando. Entre la otra mitad, de repente la gente se volvió mucho más crítica. Casi el 60% ahora rechazó las respuestas con las que antes se habían satisfecho.
Este sesgo, según Mercier y Sperber, refleja la tarea para la que evolucionó la razón, que es evitar que nos engañen los demás miembros de nuestro grupo. Al vivir en pequeños grupos de cazadores-recolectores, nuestros antepasados se preocupaban principalmente por su posición social y por asegurarse de que no fueran ellos los que arriesgaban sus vidas en la caza mientras otros hacían el vago en la cueva. Había pocas ventajas en razonar con claridad, pero muchas de ganar argumentos convincentes.
Entre los muchos, muchos temas por los que nuestros antepasados no se preocupaban estaban los efectos disuasorios de la pena capital y las características ideales de un bombero. Tampoco tuvieron que hacer frente a estudios manipulados, noticias falsas o Twitter. No es de extrañar, entonces, que hoy día la razón parezca fallarnos. Como escriben Mercier y Sperber, "Este es uno de los muchos casos en los que el entorno cambió demasiado rápido para que la selección natural permita adaptarse".
Steven Sloman, profesor en la Universidad de Brown, y Philip Fernbach, profesor de la Universidad de Colorado, también son científicos cognitivos. Ellos también creen que la sociabilidad es la clave de cómo funciona la mente humana o, más correctamente, de cómo funciona mal. Empiezan su libro, (“The Knowledge Illusion: Why We Never Think Alone” (La ilusión del conocimiento: por qué nunca pensamos solos, Riverhead), con una mirada a los inodoros.
Prácticamente todos en EEUU, y de hecho en todo el mundo desarrollado, están familiarizados con los inodoros. Un inodoro típico tiene una taza de cerámica llena de agua. Cuando se tira de la cadena, o se presiona un botón, el agua, y todo lo que se ha depositado en ella, es succionada por una tubería y de allí pasa al sistema de alcantarillado. Pero, ¿cómo sucede esto realmente?
En un estudio realizado en Yale, se pidió a los estudiantes graduados que calificaran su comprensión de los dispositivos cotidianos, incluidos los inodoros, las cremalleras y las cerraduras. Luego se les pidió que escribieran explicaciones detalladas paso a paso sobre cómo funcionan esos dispositivos, y que volvieran a calificaran su comprensión. Aparentemente, el esfuerzo reveló a los estudiantes su propia ignorancia, porque sus autocalificaciones cayeron (resulta que los inodoros son más complicados de lo que parecen).
Sloman y Fernbach ven este efecto, al que llaman la "ilusión de profundidad explicativa", en casi todas partes. La gente cree que sabe mucho más de lo que realmente sabe. Lo que nos permite persistir en esta creencia son otras personas. En el caso de mi inodoro, alguien más lo diseñó para que pueda operarlo fácilmente. Esto es algo en lo que los humanos somos muy buenos. Hemos confiado en la experiencia de los demás desde que descubrimos cómo cazar juntos, lo que probablemente fue un desarrollo clave en nuestra historia evolutiva. Tan bien colaboramos, argumentan Sloman y Fernbach, que difícilmente podemos decir dónde termina nuestra propia comprensión y dónde comienza la de los demás.
"Una implicación de la naturalidad con la que dividimos el trabajo cognitivo", escriben, es que "no hay un límite definido entre las ideas y conocimientos de una persona" y "los de otros miembros" del grupo.
Esta falta de fronteras, o, si lo prefiere, confusión, también es crucial para lo que consideramos progreso. A medida que la gente inventaba nuevas herramientas para nuevas formas de vida, simultáneamente creaban nuevos reinos de ignorancia; si todos hubieran insistido en, digamos, dominar los principios del trabajo de los metales antes de tomar un cuchillo, la Edad del Bronce no habría durado mucho. Cuando se trata de nuevas tecnologías, la comprensión incompleta es empoderadora.
Donde nos mete en problemas, según Sloman y Fernbach, es en el ámbito político. Una cosa es para mí tirar la cadena de un inodoro sin saber cómo funciona, y otra es favorecer (u oponerme) a una prohibición de inmigración sin saber de qué estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, poco después de que Rusia anexara el territorio ucraniano de Crimea. Se preguntó a los encuestados cómo pensaban que debería reaccionar EEUU, y también si podían identificar a Ucrania en un mapa. Cuanto más lejos creían que estaba de la realidad geográfica, más probable era que estuvieran a favor de la intervención militar. (Los encuestados estaban tan inseguros de la ubicación de Ucrania que la estimación media estaba equivocada en 2.900 km, aproximadamente la distancia de Kiev a Madrid).
Las encuestas sobre muchas otras cuestiones han arrojado resultados igualmente desalentadores. "Por regla general, los sentimientos fuertes sobre los problemas no surgen de una comprensión profunda", escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si su posición sobre, por ejemplo, la Affordable Care Act (ley del cuidados sanitarios baratos) no tiene fundamento y yo confío en ella, entonces mi opinión tampoco tiene fundamento. Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también es infundada, pero ahora que los tres estamos de acuerdo, nos sentimos mucho más satisfechos con nuestras opiniones. Si todos descartamos ahora por poco convincente cualquier información que contradiga nuestra opinión, se obtiene, bueno, la Administración Trump.
“Así es como una comunidad de conocimiento puede volverse peligrosa”, observan Sloman y Fernbach. Los dos han realizado su propia versión del experimento del inodoro, sustituyendo la política pública por los aparatos domésticos. En un estudio realizado en 2012, preguntaron a las personas cuál era su postura sobre preguntas como: ¿Debería haber un sistema de atención médica de pagador único? ¿O un pago para maestros basado en méritos? Se pidió a los participantes que calificaran sus posiciones según su grado de acuerdo o desacuerdo con las propuestas. A continuación, se les pidió que explicaran, con el mayor detalle posible, los impactos de la puesta en práctica de cada uno. La mayoría de la gente en este punto se metió en problemas. Cuando se les pidió una vez más que calificaran sus puntos de vista, redujeron la intensidad, de modo que estuvieron de acuerdo o en desacuerdo con menos vehemencia.
Sloman y Fernbach ven en este resultado una pequeña luz de esperanza para un mundo oscuro. Si nosotros, o nuestros amigos o los expertos de CNN, dedicamos menos tiempo a pontificar y más a tratar de analizar las implicaciones de las propuestas de políticas, nos daríamos cuenta de lo poco que sabemos y moderaríamos nuestras opiniones. Esto, escriben, "puede ser la única forma de pensamiento que romperá la ilusión de profundidad explicativa y cambiará las actitudes de las personas".
Una forma de ver la ciencia es como un sistema que corrige las inclinaciones naturales de las personas. En un laboratorio bien dirigido, no hay lugar para mis prejuicios; los resultados deben ser reproducibles en otros laboratorios, por investigadores que no tengan motivo para confirmarlos. Y esta, se podría argumentar, es la razón por la que el sistema ha demostrado ser tan exitoso. En un momento dado, un campo puede estar dominado por disputas, pero, al final, prevalece la metodología. La ciencia avanza, incluso cuando permanecemos estancados.
En Denying to the Grave: Why We Ignore the Facts That Will Save Us (Negar hasta la tumba: por qué ignoramos los hechos que nos salvarían, Oxford), Jack Gorman, un psiquiatra, y su hija, Sara Gorman, especialista en salud pública, investigan la brecha que hay entre lo que la ciencia nos dice y lo que nos decimos a nosotros mismos. Su preocupación son las creencias persistentes que no solo son demostrablemente falsas sino también potencialmente mortales, como la convicción de que las vacunas son peligrosas. Por supuesto, lo peligroso no es estar vacunado; por eso se crearon las vacunas en primer lugar. "La inmunización es uno de los triunfos de la medicina moderna", señalan los Gorman. Pero no importa cuántos estudios científicos concluyan que las vacunas son seguras y que no existe un vínculo entre las vacunas y el autismo, los anti-vacunas permanecen imparables. (Ahora pueden contar con Donald Trump, quien ha dicho que, aunque él y su esposa vacunaron a su hijo, Barron, se negaron a hacerlo en el horario recomendado por los pediatras).
Los Gorman también argumentan que las formas de pensar que ahora parecen autodestructivas deben haber sido adaptativas en algún momento. Y ellos también dedican muchas páginas al prejuicio de confirmación, que, según afirman, tiene un componente fisiológico. Citan investigaciones que sugieren que las personas experimentan un placer genuino (una ráfaga de dopamina) cuando procesan información que respalda sus creencias. “Se siente bien 'mantenernos firmes' incluso si nos equivocamos”, observan.
Los Gorman no solo quieren catalogar las formas en que nos equivocamos; quieren corregirlos. Mantienen que debe haber alguna forma de convencer a la gente de que las vacunas son buenas para los niños y las pistolas son peligrosas. (Otra creencia generalizada, pero estadísticamente insoportable, que les gustaría desacreditar es que tener un arma te hace más seguro). Pero aquí se encuentran con los mismos problemas que han enumerado. Proporcionar a las personas información precisa no parece ayudar; simplemente lo ignoran. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente contrario al objetivo de promover la ciencia sólida. "El desafío que permanece", escriben hacia el final de su libro, "es descubrir cómo hacer frente a las tendencias que conducen a una falsa creencia científica".
“El enigma de la razón”, “La ilusión del conocimiento” y “Negar hasta la tumba” fueron escritos antes de las elecciones de noviembre. Y, sin embargo, anticipan a Kellyanne Conway y el surgimiento de "hechos alternativos". En estos días, se puede sentir como si todo el país se hubiera entregado a un vasto experimento psicológico realizado por nadie o por Steve Bannon. Los agentes racionales podrían pensar en su camino hacia una solución. Pero, sobre este tema, la literatura no es tranquilizadora.