Abstracto
El trabajo empírico de Kahneman sobre juicio y decisión cambia la tradición epistemológica, es decir, cómo pensamos sobre el pensar.
Su marco describe dos modos de pensamiento. El Sistema 1 es rápido, intuitivo y automático; el Sistema 2 es lento, deliberado y analítico. La mayoría de los juicios se basan en el Sistema 1, por lo que las personas recurren a estos atajos mentales que ahorran esfuerzo, pero producen errores predecibles debido a sesgos.
Contexto
La heurística se compone de atajos mentales o reglas generales que ayudan a las personas a tomar decisiones rápidas y resolver problemas de forma eficiente, a menudo simplificando información compleja. La investigación heurística comenzó con fuerza en las décadas de 1950 y 1960, cuando los psicólogos se alejaron de los modelos conductistas simples para centrarse en las explicaciones cognitivas del juicio y la toma de decisiones.
Los primeros trabajos se centraron en cómo las personas forman creencias y realizan inferencias en condiciones de incertidumbre. Investigadores como Herbert Simon, Premio Nobel de Economía, introdujeron en 1956 la idea de la racionalidad limitada, argumentando que las personas recurren a la satisfacción (una estrategia de toma de decisiones) y a reglas de decisión simples, en lugar de la optimización, debido a la escasez de tiempo e información. Simon postuló que la teoría de la elección racional es una descripción poco realista de los procesos de decisión humanos y abogó por el realismo psicológico. Denominó a este enfoque racionalidad limitada. Esto sentó las bases para un estudio más detallado de los atajos mentales que las personas realmente utilizan.
La fase clave de la investigación heurística fue impulsada por Amos Tversky y Daniel Kahneman a principios de la década de 1970. Sus experimentos identificaron heurísticas clave (disponibilidad, representatividad, anclaje) y documentaron los sesgos sistemáticos que estos atajos producen. En lugar de considerar los errores como ruido aleatorio, Tversky y Kahneman demostraron desviaciones predecibles de la teoría normativa de la probabilidad y la utilidad. Esto inició la revolución cognitiva en la investigación del juicio y cuestionó el modelo económico dominante de agentes racionales. El trabajo empírico de Kahneman sobre el juicio y la decisión ha transformado la epistemología al conectar la psicología descriptiva con las cuestiones normativas tradicionales sobre la creencia, la racionalidad y la evidencia.
Kahneman y Amos Tversky (1937-1996) fundaron la rama de investigación psicológica denominada «psicología de la heurística y los sesgos» en la década de 1970. Esta rama estudia las heurísticas o reglas informales que utiliza la mente humana para tomar decisiones rápidas. Los primeros ejemplos de estas heurísticas aparecieron en el influyente artículo de Kahneman y Tversky de 1974, «Juicio bajo incertidumbre: heurística y sesgos».
Kahneman reconoció que las heurísticas suelen funcionar bien. La heurística de representatividad, por ejemplo, es la tendencia a juzgar la probabilidad de un evento basándose en cómo las circunstancias coinciden con la imagen mental que uno tiene de dicho evento. (La probabilidad de lluvia es mayor en un día que comienza nublado). Desafortunadamente, las heurísticas también hacen que las personas sean susceptibles a diversos errores sistemáticos de juicio: los "sesgos" en las heurísticas. Un sesgo conocido que acompaña a la heurística de representatividad es la negligencia de la tasa base, en la que las personas ignoran la información estadística y sobreestiman la probabilidad de escenarios poco comunes pero fáciles de imaginar.
Durante las décadas de 1970 y 1980, la investigación se diversificó: los psicólogos investigaron una gama más amplia de heurísticas y sesgos (p. ej., el sesgo retrospectivo y el sesgo de confirmación), mientras que los economistas y los científicos del comportamiento comenzaron a incorporar estos hallazgos en modelos de comportamiento económico. El auge de la teoría prospectiva (Kahneman y Tversky, 1979) ofreció una explicación formal de cómo las personas evalúan las ganancias y las pérdidas, explicando anomalías como la aversión a la pérdida y la dependencia de referencias, y conectando la psicología con la ciencia de la decisión.
En las décadas de 1990 y 2000, la investigación heurística se expandió a ámbitos del mundo real — finanzas, medicina, derecho y políticas públicas —, examinando cómo los atajos cognitivos afectan el juicio profesional y los resultados sistémicos. Los métodos experimentales se complementaron con estudios de campo, neuroimagen y modelos computacionales, que aclararon los mecanismos y las condiciones límite de la heurística. La investigación de intervención también se expandió, probando técnicas de desesgo como ayudas para la toma de decisiones, listas de verificación, técnicas analíticas estructuradas y capacitación para fomentar un procesamiento más deliberativo.
El trabajo contemporáneo considera las heurísticas como estrategias adaptativas, no como simples defectos: el programa de heurísticas rápidas y frugales formalizó la eficacia de reglas simples en entornos específicos. Al mismo tiempo, los enfoques integrativos exploran cuándo las heurísticas funcionan bien y cuándo no, cómo las personas eligen entre estrategias y cómo los factores sociales y culturales influyen en la dependencia de determinadas heurísticas. La investigación actual es interdisciplinaria — abarcando la ciencia cognitiva, la economía del comportamiento, la neurociencia y la IA — y se centra cada vez más en el diseño de instituciones y herramientas que aprovechen las heurísticas útiles y, al mismo tiempo, mitiguen los costosos sesgos.
Resumen
Parte 1
Introducción
Kahneman comienza describiendo el objetivo de su libro: proporcionar a las personas un vocabulario más rico para analizar y detectar errores de juicio. Ofrece una breve historia de su propio interés profesional en la psicología del juicio y la toma de decisiones, ilustrada con algunos ejemplos de los éxitos y fracasos de la intuición humana. Finalmente, Kahneman ofrece un resumen general de Pensar rápido, pensar despacio (2011), que comienza detallando el funcionamiento de dos sistemas complementarios de cognición y describe las heurísticas, o reglas generales, en las que se basan dichos sistemas.
En la introducción "Orígenes", Kahneman explica el propósito del libro: describir dos sistemas de pensamiento: el Sistema 1 (rápido, automático e intuitivo) y el Sistema 2 (lento, deliberado y analítico), y mostrar cómo su interacción influye en los juicios y las decisiones. Enmarca el libro como un intento de sintetizar décadas de investigación en psicología cognitiva y economía del comportamiento, gran parte de la cual se desarrolló con Amos Tversky, para explicar los errores sistemáticos que cometemos las personas y las formas predecibles en que fallan la intuición y el razonamiento.
Capítulo 1: Los personajes de la historia
Kahneman presenta los dos sistemas a los que se alude en la introducción. El Sistema 1 es el conjunto automático e intuitivo de procesos de pensamiento mediante los cuales las personas suelen tomar decisiones, a veces sin ser conscientes. El Sistema 2 es deliberado y racional, pero también perezoso, y a menudo avala superficialmente cualquier juicio intuitivo que el Sistema 1 genere.
Además, el uso del Sistema 2 implica una focalización y, por lo tanto, una reducción de la atención. Cuando el Sistema 2 se concentra en un problema, la persona se vuelve mucho menos consciente de todo aquello que no sea inmediatamente relevante para su solución. Los sistemas entran en conflicto cuando una persona debe hacer algo contraintuitivo, como "conducir para evitar el derrape" en una carretera helada o interpretar datos visuales aparentemente contradictorios. Al final del Capítulo 1, Kahneman señala cuidadosamente que los dos "sistemas" son en realidad alias para diferentes formas de pensar. No son regiones físicas distintas del cerebro, vías neuronales separadas ni nada tan concreto.
Capítulo 2: Atención y esfuerzo
El Sistema 1, según Kahneman, es el centro de la historia, mientras que el Sistema 2 es un mero personaje secundario. Esto se debe en parte a que el Sistema 2 suele evitar el esfuerzo, involucrándose en una decisión solo cuando es necesario. Para ofrecer al lector un punto de referencia sobre el esfuerzo del Sistema 2, Kahneman describe e invita al lector a probar un ejercicio aritmético simple pero desafiante llamado la tarea de Sumar 1: los participantes ven una secuencia de números de un solo dígito y deben sumar 1 a cada dígito mentalmente (p. ej., 3 → 4; 9 → 0). La tarea exige un cálculo continuo y esforzado, y mide la atención sostenida y la carga de la memoria de trabajo.
En experimentos, afirma Kahneman, se ha demostrado que la ejecución de la tarea Add-1 deja a las personas prácticamente ciegas a estímulos irrelevantes. El esfuerzo mental — la activación intensa y sostenida del Sistema 2 — también produce una serie de efectos fisiológicos, como pupilas dilatadas y un aumento de la frecuencia cardíaca.
Kahneman también presenta la famosa ilusión óptica de dos figuras con forma de flecha, una con dos puntas apuntando (<—>) y otra con dos colas (>—<). Las líneas en sí son idénticas en longitud, pero casi todos perciben la línea de la flecha de dos puntas (<—>) como más corta que la otra (>—<). Esta percepción es notablemente difícil de eliminar, incluso para quienes están familiarizados con la ilusión. El efecto fue documentado por primera vez por el psiquiatra alemán Franz Carl Müller-Lyer (1857-1916) en 1889 y ha sido objeto de muchos esfuerzos explicativos. Algunas teorías enfatizan el hecho de que la visión humana evolucionó para lidiar con entornos tridimensionales, lo que la hace fácilmente engañada por imágenes planas. Kahneman usa esta ilusión porque afirma que muestra la persistencia y automaticidad con la que el Sistema 1 puede cometer un error. No importa cuántas veces uno vea la ilusión, es probable que todavía parezca que una línea es más corta que la otra. Se necesita una moderación consciente — el ejercicio del Sistema 2 — para reconocer que nuestra intuición está cometiendo un error sistemático de juicio.
Capítulo 3: El controlador perezoso
El pensamiento complejo y metódico del Sistema 2 exige autocontrol, especialmente si se lleva a cabo bajo presión del tiempo. Kahneman señala algunas excepciones a esta tendencia general: en un estado psicológico agradable y bien estudiado llamado flow, toda la atención se centra en la actividad en cuestión y no se necesita ningún esfuerzo para perseverar en la tarea. Aun así, en general, estar cognitivamente ocupado deja a uno con menos fuerza de voluntad para resistir tentaciones como la comida chatarra o el gasto impulsivo. Este estado de disminución del autocontrol se conoce como agotamiento del ego. Deseoso de evitar tal gasto de fuerza de voluntad, el Sistema 2 rara vez contradice las intuiciones del Sistema 1 a menos que una discrepancia obvia provoque una mayor investigación. Los niños que poseen un Sistema 2 fuerte e inusualmente activo, que son capaces de retrasar la gratificación y ejercer autocontrol, probablemente obtengan mejores resultados en las pruebas de inteligencia más adelante en la vida.
Hacia el final del capítulo 3, Kahneman cita un estudio clásico sobre la fuerza de voluntad en niños pequeños: la famosa "prueba del malvavisco". Kahneman describe una versión del estudio que incluía galletas Oreo, pero el protocolo experimental básico era el mismo. El experimentador ofrecía una galleta al niño y prometía duplicar la recompensa si esperaba 15 minutos. Aproximadamente un tercio de los sujetos logró esperar los 15 minutos completos sin comerse el malvavisco. Como grupo, se observó que estos niños obtuvieron mejores resultados educativos en etapas posteriores de la vida, según las puntuaciones de las pruebas estandarizadas.
Capítulo 4: La máquina asociativa
El Sistema 1, sugiere Kahneman, funciona principalmente por asociación. Una vez que una idea se ha "activado" — por ejemplo, al leer una palabra —, el Sistema 1 busca espontáneamente ideas relacionadas y compatibles. Gran parte de este trabajo asociativo ocurre inconscientemente, como se observa en estudios sobre los llamados efectos de preparación, patrones de comportamiento y cognición que aparecen cuando un sujeto es preparado con un estímulo específico. A los estudiantes a quienes se les pide que resuelvan un crucigrama con palabras sobre temas de la tercera edad (por ejemplo, "canoso" o "arruga"), se moverán más despacio al caminar por el pasillo después. Kahneman cita varios otros estudios en los que un estímulo aparentemente inocuo o irrelevante produjo un efecto conceptualmente relacionado en los pensamientos o acciones de un sujeto.
Capítulo 5: Facilidad cognitiva
A continuación, Kahneman amplía un concepto que se analizó brevemente en el capítulo 3. Al decidir si se debe recurrir al Sistema 2 para evaluar una decisión, afirma que el Sistema 1 se basa en la percepción de facilidad cognitiva o su opuesto, la tensión cognitiva. Cuanto más tenso esté el Sistema 1, menos eficaces serán sus intuiciones y más probable será que el Sistema 2 intervenga para abordar conscientemente el problema en cuestión. Sin embargo, las causas de la facilidad cognitiva incluyen algunas características completamente incidentales que no influyen en si un problema se resuelve fácilmente mediante la intuición ni en si una proposición dada es probable que sea verdadera. Presentar una afirmación en letra clara y negrita, por ejemplo, la hace más familiar y menos gravosa cognitivamente, lo que hace que el Sistema 1 considere más plausible la respuesta intuitiva, a menudo incorrecta. Sin embargo, los problemas presentados en letra pequeña y difícil de leer activaron el Sistema 2 e hicieron que más participantes rechazaran la respuesta intuitiva incorrecta sugerida por el Sistema 1 y llegaran a una respuesta correcta utilizando el Sistema 2.
El efecto de la rima como razón es otro ejemplo de cómo la facilidad cognitiva puede ser engañosa: los dichos que riman se consideran más perspicaces que las frases con significados casi idénticos que no riman. La mera exposición a prácticamente cualquier estímulo, siempre que no sea perjudicial, puede llevar a una persona a asociarlo posteriormente con sentimientos de familiaridad y facilidad. Bajo la influencia de estos sentimientos, una persona dependerá aún más de lo habitual del Sistema 1, independientemente de si esta dependencia está justificada por la naturaleza del problema cognitivo a resolver.
Cualquiera que haya jugado al Tetris también tiene un buen modelo visual de la facilidad cognitiva y la tensión cognitiva, dos conceptos que se presentan en este capítulo. El ritmo lento, la escasez de bloques y el amplio margen de maniobra al principio del juego crean un estado de facilidad cognitiva. Los bloques perfectamente encajados simbolizan el estado mental en la pantalla. A medida que el ritmo se acelera, los bloques se acumulan y las cosas se vuelven más difíciles de encajar, lo que provoca la tensión cognitiva. Los bloques apilados desordenadamente son un reflejo virtual de una mente que lucha por integrar grandes cantidades de información potencialmente contradictoria.
Los jugadores expertos de Tetris no piensan solo en un bloque a la vez. Los patrones se imaginan con antelación, se planifican las contingencias y se identifican las oportunidades. Sin embargo, pensar en qué bloques podrían aparecer es una actividad del sistema 2, tanto en el Tetris como en la vida. El dicho "ojos que no ven, corazón que no siente", aunque bastante acertado como observación general sobre la cognición humana, es abrumadoramente cierto en el caso del Sistema 1.
Capítulo 6: Normas, sorpresas y causas
Kahneman explica que el Sistema 1 se dedica constantemente a mantener y actualizar un modelo del mundo y de lo que es normal en él. En el contexto de estas normas mentales, algunos eventos resultan sorprendentes, pero la mente se adapta rápidamente a las sorpresas y las integra en el patrón general. Así, un evento que el Sistema 2 considera inusual puede resultar familiar y esperado para el Sistema 1 simplemente porque coincide con una experiencia pasada. Ante dos sorpresas consecutivas, el Sistema 1 trabaja para entrelazarlas en un patrón que no hace que ninguna de las dos sea sorprendente. Al hacerlo, el Sistema 1 suele idear explicaciones causales, en las que se atribuyen la agencia, la culpa y la intención incluso a objetos inanimados. Este razonamiento causal funciona adecuadamente la mayor parte del tiempo, pero contradice cualquier intento de razonamiento estadístico. Cuando los fenómenos no tienen una causa única clara o deben considerarse en conjunto, se requiere el razonamiento estadístico (una especialidad del Sistema 2).
Capítulo 7: Una máquina para sacar conclusiones precipitadas
El efecto neto de muchas intuiciones del Sistema 1 es la tendencia a sacar conclusiones precipitadas. La «duda consciente» y la tolerancia a la incertidumbre requieren la participación deliberada y esforzada del Sistema 2. Sin este escrutinio consciente, las personas son propensas al sesgo de confirmación, en el que la evidencia que encaja con las creencias preexistentes tiene mayor peso que la evidencia contradictoria (que puede descartarse por completo). Este sesgo puede manifestarse como un efecto halo, una «tendencia a que nos guste (o nos disguste) todo de una persona».
Fundamentalmente, según Kahneman, estos sesgos surgen del hecho de que el Sistema 1 tiene la tarea de encajar la información disponible en una historia coherente, no de buscar más información para cuestionarla o llenar vacíos. Kahneman le da un nombre peculiar a esta tendencia cognitiva básica: «Lo que ves es todo lo que hay», o WYSIATI (por sus siglas en inglés:"What You See Is All There Is"). En capítulos posteriores, Kahneman volverá a referirse a WYSIATI como factor causal en muchos tipos diferentes de sesgos.
El marketing de producto es otro ámbito en el que la heurística del estado de ánimo se utiliza ampliamente. Al producir anuncios costosos y de alto perfil con Papá Noel y luces navideñas, Coca-Cola fomenta emociones positivas en torno a sus productos con el objetivo de promover la fidelidad a la marca durante todo el año. Buscan crear lo que Kahneman denominó un «efecto halo», en el que las asociaciones positivas de un producto (buenos momentos, alegría navideña) se propagan para influir en las impresiones sobre características más relevantes, como el sabor o los efectos sobre la salud. De hecho, es difícil encontrar un anuncio de refresco que diga algo sustancial sobre el producto en sí, y es difícil no encontrar un anuncio de refresco que, en cambio, recurra a la heurística del estado de ánimo.
Capítulo 8: Cómo se producen los juicios
El Sistema 1, afirma Kahneman, comprende el mundo en términos de evaluaciones básicas, lecturas simples, aproximadas e intuitivas de la situación actual. Estas evaluaciones tienden a clasificar los eventos y objetos en categorías básicas: aversivos o atractivos, amenaza u oportunidad. Un desconocido en la calle, por ejemplo, es evaluado instantánea e inconscientemente como "amistoso" u "hostil" según su complexión física, expresión facial, etc. Sin embargo, existen limitaciones bastante severas a los problemas que pueden resolverse mediante tales evaluaciones. El Sistema 1 es bueno estimando promedios, por ejemplo, pero muy deficiente estimando sumas, o lo que Kahneman llama variables tipo suma. Desafortunadamente, el razonamiento estadístico y probabilístico se basa en la capacidad de comparar dichas variables.
Desde la perspectiva del Sistema 1, una tarea más sencilla es la correspondencia de intensidad, en la que se deben asignar valores correspondientes a dos variables con dimensiones diferentes. La gravedad de un delito, por ejemplo, puede relacionarse intuitivamente con la severidad del castigo, al igual que la intensidad de un ruido puede relacionarse con el brillo de un color. Al igual que otros rasgos mencionados en este capítulo, la tendencia a la correspondencia de intensidad simplifica la toma de decisiones cotidiana, pero complica considerablemente la tarea de intentar pensar estadísticamente.
Capítulo 9: Respondiendo una pregunta más fácil
Una heurística puede considerarse como una forma de sustituir una pregunta de fácil respuesta por la que se formula. Kahneman las denomina pregunta heurística y pregunta objetivo, respectivamente. Por ejemplo, si la pregunta objetivo es "¿Cómo de feliz está con su vida últimamente?", muchas personas basan su respuesta en la pregunta heurística "¿Cuál es mi estado de ánimo en este momento?". Esta sustitución específica es un ejemplo de la heurística del estado de ánimo, en la que las personas se basan en una evaluación de su estado de ánimo actual como un atajo para responder a una pregunta mucho más compleja. Es fácil y tentador simplemente preguntar "¿Cómo me siento al respecto?" en lugar de sopesar los pros y los contras de una situación o un curso de acción.
Parte 2
Capítulo 10: La ley de los números pequeños
Dado que el Sistema 1 tiende a razonar causalmente sobre los eventos, es fácilmente engañado por muestras pequeñas que arrojan resultados extremos. Es una verdad estadística básica que las muestras pequeñas tienen mayor probabilidad de mostrar resultados extremos: es mucho más probable ver "solo cara, ninguna cruz" al lanzar cuatro monedas a la vez que al lanzar ocho. La incapacidad del Sistema 1 para explicar este hecho es lo que Kahneman y Tversky denominaron irónicamente "la ley de los números pequeños".
Si se apuesta a un solo número — por ejemplo, el 7 — en una ruleta, se ganará o se perderá en cada giro. Aunque la ruleta tiene 38 casillas, desde la perspectiva del jugador, una victoria o una derrota son los únicos resultados posibles de cada giro. Sin embargo, con cien o mil giros similares, la proporción de victorias/derrotas observadas se acercará gradualmente a 1:38, la proporción de la probabilidad real de obtener el 7 cada vez que se gira la ruleta. Curiosamente, incluso profesionales cualificados diseñan experimentos con tamaños de muestra inadecuados, que determinan según su criterio. Esta realidad forma parte de la raíz de la crisis de fiabilidad o replicación. (La crisis de replicación en psicología es una preocupación generalizada que muchos hallazgos publicados en psicología no logran reproducir cuando investigadores independientes repiten los estudios. Reveló problemas con las prácticas de investigación, la inferencia estadística, los incentivos y las normas de publicación que producían efectos poco fiables o inflados, lo que llevó a la máxima: tratar los estudios individuales, y con especial cautela los con muestras pequeñas que dan resultados inesperados.)
Capítulo 11: Anclajes
A continuación, Kahneman introduce el efecto de anclaje, en el cual resultamos extremadamente sugestionables al realizar estimaciones numéricas. El descubrimiento de este efecto es una de las contribuciones conjuntas más importantes de Kahneman y Tversky a la literatura psicológica. La exposición a un número, incluso uno que se sepa que fue elegido al azar, influirá en la estimación de una persona sobre la altura de una secuoya, la edad de Gandhi al morir o el año en que George Washington asumió el cargo. En cada caso, el encuestado dispone de cierta información: las secuoyas son muy altas, Gandhi era anciano —pero no tenía cientos de años — cuando fue asesinado, y George Washington no pudo haber sido presidente antes de 1776. Sin embargo, un encuestado con un número alto ("¿Gandhi tenía más o menos de 144 años al morir?") dará una estimación más alta que uno con un número bajo. Esto es similar a la heurística de anclaje y ajuste, en la que se elige un ancla al principio del proceso de razonamiento y cualquier información adicional se utiliza para realizar pequeños ajustes.
Capítulo 12: La ciencia de la disponibilidad
La heurística de disponibilidad es un método bien estudiado mediante el cual el Sistema 1 estima frecuencias. Para decidir cómo de frecuente o probable es algo, las personas a menudo se basan en la facilidad (o dificultad) de pensar en ejemplos. Esta heurística funciona cuando, por ejemplo, los cónyuges sobreestiman sus propias contribuciones a las tareas domésticas, de modo que la suma de las dos estimaciones es mayor que 100%. Los ejemplos de tareas que uno ha hecho uno mismo son más fáciles de encontrar que los que hace la pareja. La impresión de disponibilidad cognitiva puede ser manipulada al pedir más o menos ejemplos. A las personas a las que se les pide que enumeren 12 ejemplos de su propio comportamiento asertivo les cuesta completar la lista y a menudo terminan con la impresión de que, después de todo, no son muy asertivos.
Kahneman también describe tanto la sobreestimación como la subestimación basándose en el conocimiento disponible. En Estados Unidos, por ejemplo, se suele sobreestimar la probabilidad de que una picadura de araña sea venenosa, ya que los nombres de dos arañas altamente venenosas — la viuda negra y la reclusa parda — son familiares para muchos estadounidenses desde la infancia.
Por otro lado, las personas muestran una actitud despreocupada hacia la prevención de enfermedades cuando la enfermedad en cuestión no es muy relevante. Quienes no tienen antecedentes familiares de cardiopatías subestiman la probabilidad de desarrollarlas. Quienes tienen amigos que no se vacunan anualmente contra la gripe son menos propensos a hacerlo.
Capítulo 13: Disponibilidad, emoción y riesgo
Aquí, Kahneman completa la discusión previa sobre la heurística de disponibilidad. Los juicios de disponibilidad, afirma, están sesgados por la cobertura mediática, que está "en sí misma sesgada hacia la novedad y la intensidad". Es mucho más probable que las personas se enteren de un accidente mortal o un homicidio en las noticias que de una muerte atribuible a la diabetes o el asma. En consecuencia, las personas exageran la probabilidad de eventos que han llegado a temer, mientras que minimizan la probabilidad de eventos que reciben menos atención mediática. De ello se desprende que cuando los expertos y los responsables políticos intentan cuantificar el riesgo, pueden iniciar una cascada de disponibilidad. Los sesgos se magnifican en la imaginación pública, lo que dificulta que se escuchen las voces moderadas o la información contradictoria.
Capítulo 14: La especialidad de Tom W.
Kahneman introduce ahora la heurística de representatividad y el concepto relacionado de tasa base. La representatividad de un evento o persona es el grado en que parecen típicos ("representativos") de una categoría. La preferencia por entornos "limpios y ordenados", por ejemplo, suele considerarse representativa de los bibliotecarios. El aspecto heurístico reside en la tendencia de las personas a confiar en la representatividad por encima de, o en lugar de, la información estadística pertinente. Kahneman da el ejemplo de un experimento en el que él y Tversky pidieron a los encuestados que adivinaran la especialidad de un estudiante de posgrado llamado Tom W. La breve sinopsis de la personalidad de Tom lo hizo parecer representativo de los informáticos, y la mayoría de los encuestados adivinó su campo de estudio en consecuencia. Al hacerlo, ignoraron la tasa base: la pequeña proporción de estudiantes de posgrado en informática en comparación con otras disciplinas.
Capítulo 15: Linda: Menos es más.
Sin embargo, la heurística de representatividad no solo distorsiona las estimaciones probabilísticas: en ocasiones, puede llevar a las personas a realizar conjeturas completamente ilógicas. En el famoso experimento "Linda" de la década de 1980, Kahneman y Tversky hablaron a los sujetos sobre una joven llamada Linda que "tiene treinta y un años, es soltera, franca y muy brillante". Se especializó en filosofía. Como estudiante, se preocupó profundamente por los problemas de discriminación y justicia social, y también participó en manifestaciones antinucleares. Tras leer este breve párrafo descriptivo, se pidió a los sujetos que determinaran qué era más probable: "Linda es cajera de banco" o "Linda es cajera de banco y participa activamente en el movimiento feminista". De forma abrumadora, pero ilógica, los encuestados eligieron esta última opción, una tendencia que Kahneman denomina falacia de la conjunción. El capítulo concluye con un análisis de otros estudios que demuestran este pensamiento intuitivo, pero erróneo, de "menos es más".
La razón por la que tanta gente se equivoca con el problema de Linda reside en la tendencia a confundir plausibilidad con probabilidad. Como observa Kahneman, este es un error fácil de cometer, pero ambos conceptos son lógicamente distintos. «Linda es cajera de banco y participa activamente en el movimiento feminista» es una historia más plausible que «Linda es cajera de banco», pero la probabilidad de «cajera de banco» debe ser mayor — o al menos no menor — que la probabilidad de «cajera de banco y feminista».
Capítulo 16: Causas de las estadísticas de Trump
Kahneman ahora establece una distinción adicional entre las tasas base estadísticas y las tasas base causales. La información de la tasa base estadística se formula en términos generales: «El 85 % de los taxis de la ciudad son de la Compañía de Taxis Verdes». La información de la tasa base causal es más específica y, en su presentación, parece sugerir una conexión directa con el caso individual en cuestión: «Los taxis verdes están involucrados en el 85 % de los accidentes». Cuando ambos tipos de información de la tasa base están presentes, es mucho más probable que la estadística se descarte o se le dé una ponderación insuficiente, porque el Sistema 1 tiene dificultades para integrarla en una narrativa. Lo más deprimente — al menos en opinión de Kahneman — es que las personas se «eximen discretamente» de las estadísticas que no concuerdan con su autoimagen.
Capítulo 17: Regresión a la media
El concepto de "gafe" está muy extendido en el deporte. Si un atleta tiene un primer día excepcional en un torneo, se espera que tenga un rendimiento inferior al segundo. Los comentaristas deportivos que cubren el evento propondrán todo tipo de explicaciones causales para la caída del rendimiento: el atleta estaba nervioso por las mayores expectativas, estaba agotado por un esfuerzo inusualmente intenso el primer día, etc. Lo que realmente ocurre, según Kahneman, es algo menos sensacional. Casi cualquier conjunto de resultados, desde las puntuaciones de los exámenes hasta las pulgadas de lluvia diaria, seguirá una distribución en la que los eventos extremos son poco frecuentes y los eventos "promedio" son comunes. Por lo tanto, existe una fuerte tendencia estadística a que cualquier evento extremo sea seguido por uno menos extremo, un fenómeno denominado regresión a la media.
Capítulo 18: Cómo dominar las predicciones intuitivas
Comprender la regresión a la media permite identificar y corregir predicciones que no la tienen en cuenta. Un niño extremadamente alto tiene estadísticamente una probabilidad de convertirse en un adulto bastante (pero no extremadamente) alto. Un niño extremadamente precoz tiene probabilidades de alcanzar un alto rendimiento en la universidad, pero no al mismo nivel extremo observado en la primera infancia. En cada caso, el resultado estadísticamente favorable se encuentra entre el dato extremo (altura o inteligencia en un momento dado) y la media, a la que se espera cierta regresión. Las predicciones extremas pueden ser emocionantes — capturan la imaginación y acertar es muy gratificante —, pero rara vez son correctas. Cuando la precisión es importante, conviene moderar las predicciones para tener en cuenta la regresión.
Parte 3
Capítulo 19: La ilusión de la comprensión
El Sistema 1 tiende a intentar reducir las experiencias a una narrativa convincente y coherente. Esta tendencia conlleva el riesgo de que el pasado parezca inevitable, que la narrativa aparece como si no hubiera podido desarrollarse de otra manera. Las personas a menudo llegan a creer que sabían desde el principio lo que sucedería en una situación inherentemente impredecible y, tácitamente, "revisan la historia de [sus] creencias" para que coincida con lo que realmente sucede. Así, una persona puede pasar de creer (antes del hecho) que el presidente Nixon no renunciaría a "haber sabido siempre" que Nixon renunciaría. Esto no es, dice Kahneman, mera deshonestidad para salvar las apariencias; las personas olvidan genuinamente que alguna vez sostuvieron la creencia finalmente falsificada. Una vasta literatura popular, incluyendo muchos libros de negocios, surge del intento de encontrar causas simples del éxito y el fracaso después del hecho.
Capítulo 20: La ilusión de validez
Los intentos de predecir el futuro suelen verse afectados por la ilusión de validez, según la cual una herramienta o método demostrablemente inútil se asume, no obstante, como valioso para pronosticar lo que sucederá. Las personas seguirán confiando en una prueba, entrevista u otra métrica en particular, incluso cuando sepan racionalmente que la prueba es "poco mejor que una suposición aleatoria". Estrechamente relacionada está la ilusión de habilidad, según la cual se asume que la sofisticación técnica de una práctica (por ejemplo, el análisis financiero de acciones) implica su eficacia. Los operadores bursátiles, observa Kahneman, creen profundamente en la eficacia de su propia habilidad incluso cuando no logran superar (o incluso tener un rendimiento significativamente inferior) al del mercado en su conjunto. No es culpa de los expertos, afirma, que el mundo sea difícil de predecir, pero sí es su responsabilidad ser honestos sobre los límites de su capacidad predictiva.
Los operadores de bolsa que Kahneman destaca probablemente sean bastante hábiles en diversas tareas relacionadas con sus trabajos, como encontrar e interpretar la información financiera más importante de una empresa que cotiza en bolsa. La ilusión no es que las personas sean hábiles cuando en realidad no lo son, sino que sus habilidades son eficaces en situaciones donde, de hecho, no marcan la diferencia.
Capítulo 21: Intuiciones vs. fórmulas
Debido a los diversos sesgos sistemáticos en el juicio humano, Kahneman propone que los algoritmos y las fórmulas a menudo pueden ser más eficaces que la intuición de un experto. Sin embargo, reconoce que existe una hostilidad generalizada hacia los algoritmos en áreas donde el resultado puede tener una trascendencia moral, por ejemplo, en la atención médica. Tras describir su propia experiencia en el desarrollo de una encuesta con puntuación para la asignación de soldados a las ramas militares, Kahneman invita al lector a "hacerlo usted mismo". Ofrece algunos consejos para desarrollar un sistema de puntuación cuantitativo que se pueda utilizar en una situación en la que el juicio intuitivo sería la norma.
Capítulo 22: Intuición experta: ¿cuándo podemos confiar en ella?
Aunque sostiene que la confianza del público en el juicio experto a veces es errónea, Kahneman no descarta la existencia de la intuición experta en algunos ámbitos especializados. Habla de un programa de investigación realizado con un colega, el psicólogo Gary Klein. Klein suele ser considerado un oponente de la perspectiva heurística y de sesgos en la toma de decisiones. En su investigación, Kahneman y Klein exploraron los límites de un paradigma de decisión llamado decisión basada en el reconocimiento. Este modelo considera la intuición experta como la capacidad de reconocer y actuar según patrones que podrían no ser evidentes para un profano o un principiante. Este reconocimiento, sugiere Kahneman, se manifiesta cuando un gran maestro de ajedrez observa un tablero y puede predecir de inmediato quién ganará la partida, o cuando un capitán de bomberos ordena a su equipo evacuar justo antes de que un edificio comience a derrumbarse. Sin embargo, estas intuiciones solo pueden surgir en entornos "suficientemente regulares como para ser predecibles" y solo pueden desarrollarse mediante una práctica prolongada y constante. En campos donde estas condiciones son insuficientes, es probable que la intuición experta decepcione.
Capítulo 23: La visión exterior
En este capítulo, Kahneman relata sus experiencias como parte de un equipo encargado de redactar un libro de texto sobre juicio y toma de decisiones. Las estimaciones internas del equipo sobre el tiempo necesario para completar el proyecto promediaban unos tres años, a pesar de que otros proyectos de escritura de libros de texto de similar duración y complejidad solían tardar siete o más años. De hecho, el libro tardó nueve años en completarse, dentro de las expectativas estadísticas, pero mucho más de lo que los propios miembros del equipo habían previsto. Kahneman toma esta anécdota como ejemplo de la necesidad de considerar la perspectiva externa — la perspectiva desapasionada, neutral y estadísticamente informada — al planificar un proyecto. La perspectiva interna, que depende excesivamente de los detalles de la situación, es atractiva, pero casi con toda seguridad inexacta. Quienes, de forma poco realista, favorecen la perspectiva interna más optimista cometen lo que Kahneman denomina la falacia de la planificación, permitiendo que el detalle de sus propias previsiones prevalezca sobre la información estadística relevante.
Capítulo 24: El motor del capitalismo
Un "sesgo optimista", dice Kahneman, no es del todo malo. Los optimistas tienden a vivir más, ser más felices y ser más proactivos a la hora de resolver los problemas que controlan. Al mismo tiempo, el optimismo es, de hecho, un tipo de sesgo cognitivo, y en ocasiones puede ser muy costoso. Una consecuencia del optimismo en los negocios es el fenómeno de la negligencia competitiva, en el que los empresarios asumen que sus decisiones, independientemente de las acciones de sus competidores, son el factor determinante del éxito o el fracaso. Otros tipos de exceso de confianza inducido por el optimismo son evidentes en las finanzas, la medicina y la vida cotidiana. Para contrarrestar (en parte) el sesgo optimista, Kahneman comparte una sugerencia de Gary Klein, quien aboga por realizar una autopsia de cualquier plan importante antes de ponerlo en marcha. El objetivo de este ejercicio es imaginar cómo podría fracasar el plan a pesar de las mejores intenciones de todos los implicados.
Parte 4
Capítulo 25: Los errores de Bernoulli
En la cuarta parte, Kahneman aborda el tema de la economía del comportamiento, un área a la que atribuye a Tversky su introducción. Comienza describiendo dos "especies" de la economía del comportamiento: los "Econs", que son perfectamente racionales y consistentes, y los "Humanos", que presentan todos los sesgos e inconsistencias de los seres humanos reales. La economía del comportamiento se ocupa de refinar los modelos económicos para abordar las diferencias entre los humanos y los "econs".
En primer lugar, sin embargo, Kahneman sienta las bases de la toma de decisiones en la economía tradicional. En la teoría de la utilidad esperada, se asume que las decisiones de una persona maximizan la utilidad o el beneficio derivado de las opciones disponibles. Esto incluye las apuestas: si una persona prefiere manzanas a plátanos, entonces, teóricamente, esa persona también "preferirá un 10% de probabilidad de ganar una manzana a un 10% de probabilidad de ganar un plátano". Algunos principios de esta teoría se remontan al matemático suizo Daniel Bernoulli (1700-1782), quien observó que las personas reaccionan a cambios relativos, no absolutos, en su riqueza. Esta es solo una de las formas en que la utilidad esperada — el "valor psicológico o deseabilidad" de un bien — no se alinea perfectamente con el valor monetario. A pesar de su brillantez, afirma Kahneman, la teoría de la utilidad de Bernoulli pasó por alto un aspecto clave del valor subjetivo: su dependencia de un punto de referencia. Es, afirma, el cambio de estatus lo que importa, no el estatus en sí. En particular, las personas valoran más las pérdidas que las ganancias. Ante una ganancia segura o la posibilidad de una mayor ganancia, muchos preferirán lo seguro, pero ante una pérdida segura o la posibilidad de una mayor pérdida, la mayoría preferirá arriesgarse.
Capítulo 26: Teoría prospectiva
En su investigación de la década de 1970, Kahneman y Amos Tversky intentaron explicar las brechas entre la teoría de la utilidad esperada y la psicología de la toma de decisiones en la vida real. Concluyeron que las personas, en general, experimentan aversión a la pérdida, lo que significa que prefieren evitarla antes que buscar ganancias. Esta aversión puede incluso cuantificarse como una razón: normalmente, según descubrieron los dos investigadores, las personas eran el doble de reacias a la pérdida que atraídas a la ganancia; una probabilidad del 50 % de ganar 200 $ compensa una probabilidad del 50 % de perder 100 $. Al mismo tiempo, la sensibilidad a la pérdida disminuye a medida que estas se hacen mayores, de modo que perder 200 $ no es "el doble de malo", psicológicamente hablando, que perder 100 $. Estas ideas se combinan para crear un patrón característico en la toma de decisiones: ante una apuesta arriesgada, la mayoría de las personas serán muy reacias al riesgo, pero ante opciones perdedoras, arriesgarán una pérdida mayor para tener la posibilidad de no perder nada. Aunque admite que no es una caracterización perfecta de la toma de decisiones económicas, Kahneman describe la teoría prospectiva como una mejora marcada respecto del modelo de utilidad esperada anterior.
Capítulo 27: El efecto de dotación
Para complicar aún más el panorama, existe el efecto dotación: las personas tienden a sobrevalorar lo que poseen una vez que lo poseen. Una persona que se alegra igualmente de recibir un aumento o más vacaciones, una vez que recibe el aumento, a menudo no está dispuesta a intercambiarlo por las vacaciones. Este efecto se produce en todos los ámbitos, desde tazas de café y barras de chocolate hasta antigüedades raras y vinos añejos. El poseedor de un bien — siempre que se conserve para su uso y no sea simplemente una mercancía o moneda — sobrevalorará su valor al considerar una venta o un intercambio. Kahneman cita varios experimentos en los que se establece e investiga este efecto.
Capítulo 28: Malos acontecimientos
Otro giro proviene de lo que Kahneman llama dominio de la negatividad: la tendencia a ver la cara enojada en una multitud de sonrisas, pero no al revés. Existe, sugiere Kahneman, una razón evolutiva para dar mayor prioridad a las amenazas que a las oportunidades, ya que una oportunidad no significa nada si uno no sobrevive para disfrutarla. La aversión a la pérdida, como se analiza en el capítulo 26, es un ejemplo de dominio de la negatividad; otro es la aversión a no alcanzar un objetivo. De ahí, argumenta Kahneman, el mejor rendimiento de los golfistas al patear para par que al patear para birdie. El dominio de la negatividad tiene consecuencias frustrantes para las negociaciones, ya sean económicas o políticas. Ambas partes sienten que lo que están renunciando es más valioso que lo que reciben a cambio.
Capítulo 29: El Patrón Cuádruple
Una última pieza del rompecabezas de la teoría prospectiva se presenta en forma de dos efectos complementarios: el efecto de posibilidad y el efecto de certeza. El primero alude a la tendencia a sobrevalorar la mera posibilidad de un evento improbable, como se observa en los compradores de billetes de lotería de todo el mundo. El segundo alude a la prima que se paga por los últimos puntos porcentuales entre algo casi seguro y una certeza real. Ambos efectos plantean un desafío adicional a la teoría de la utilidad esperada, como Kahneman procede a demostrar al relatar un famoso rompecabezas económico planteado por Maurice Allais (la «paradoja de Allais»).
Kahneman retoma los fundamentos de la teoría prospectiva y describe el "patrón cuádruple" del comportamiento de decisión de Allais ante ganancias y pérdidas. Cuando las personas tienen una alta probabilidad de ganancia, temen la decepción y generalmente están dispuestas a aceptar un pago menor y seguro en lugar de arriesgarse, pero cuando se enfrentan a una alta probabilidad de pérdida, suelen estar dispuestas a correr el riesgo. El patrón se invierte para eventos de baja probabilidad: se prefiere una pequeña probabilidad de una gran ganancia a un acuerdo seguro, mientras que se prefiere una pérdida segura menor a una pequeña probabilidad de una gran pérdida. En conjunto, estos cuatro efectos ilustran la interacción de la aversión a la pérdida y la disminución de la sensibilidad con los efectos de certeza y posibilidad. El capítulo concluye con algunos ejemplos extraídos del mundo de los litigios.
Capítulo 30: Eventos raros
En general, afirma Kahneman, las personas tienden a sobreestimar las probabilidades de eventos improbables y a sobrevalorar los eventos improbables en sus decisiones. Varios mecanismos psicológicos contribuyen a esta tendencia, incluyendo la heurística de disponibilidad y la tendencia a preferir la facilidad cognitiva a la tensión cognitiva. Sin embargo, la explicación más amplia es que la intensidad de los eventos poco frecuentes tiende a darles una participación desproporcionada en la toma de decisiones. El enfoque de la mente en resultados vívidos puede llevar a descuidar el denominador: en la frase «1 de cada 100.000 niños quedará discapacitado como resultado de la vacuna», el énfasis tiende a recaer en el «1» en lugar de en los «100.000». Cuanto más concreta se represente la probabilidad (por ejemplo, «1 niño de cada 100.000» en lugar de «0,001% de los niños»), más pronunciado será dicho sobreénfasis. «Cuando se trata de probabilidades poco frecuentes», concluye Kahneman con seriedad, «nuestra mente no está diseñada para acertar del todo».
Capítulo 31: Políticas de riesgo
La discusión ahora se centra en cómo abordar el riesgo de forma más sistemática. Un enfoque estrecho de un problema — abordándolo como un conjunto de decisiones puntuales e inconexas — puede conducir a resultados subóptimos en muchos casos. Se requiere un enfoque amplio para comprender cómo interactúan las opciones y obtener una visión global que trascienda las pérdidas y ganancias individuales. Para ilustrar la distinción, Kahneman pregunta por qué alguien podría rechazar una única apuesta al 50%, de "ganar $200 o perder $100", pero aceptar la opción de hacer 100 apuestas similares. Si se adopta un enfoque amplio, afirma, es obvio que las 100 apuestas son enormemente favorables para el jugador. Sin embargo, si cada apuesta se considera un evento distinto y aislado, surge la aversión a la pérdida: la idea de perder $100 suele ser más dolorosa que la de ganar $200. En un inusual momento de consejo directo al lector, Kahneman señala que la vida misma contiene muchas "pequeñas apuestas favorables". Aceptarlos como algo normal, añade, conducirá a un mejor resultado que rechazar cada uno individualmente por aversión a las pérdidas. Este es un ejemplo de política de riesgos: el compromiso de gestionar un riesgo específico de la misma manera siempre, para obtener una ventaja a largo plazo.
Capítulo 32: Llevando la cuenta
Otra peculiaridad del razonamiento humano es la contabilidad mental: la tendencia a contabilizar el dinero y otros recursos en "cuentas" separadas, en lugar de como una suma global. Estas cuentas mentales son, observa Kahneman, "una forma de encuadre estrecho", pero ayudan a comprender el mundo. Sin embargo, una consecuencia adversa de la contabilidad mental es que abre la puerta a la falacia del costo hundido. Quienes gastan dinero para un propósito específico — por ejemplo, para ver un partido de fútbol — a menudo "tiran dinero bueno tras malo" si surge un gasto adicional relacionado con el evento. Los accionistas venderán a los ganadores en lugar de a los perdedores para liquidar su posición como una ganancia en lugar de una pérdida. El arrepentimiento y la anticipación del arrepentimiento, junto con los sentimientos de responsabilidad moral, complican aún más el esfuerzo de "llevar la cuenta" de los recursos finitos.
Capítulo 33: Reversiones
Una inversión de preferencias surge cuando las personas eligen una opción al presentarse simultáneamente un par de opciones ("B sobre A"), pero eligen otra opción si las dos opciones se consideran de forma aislada ("A sobre B"). Kahneman cita estas inversiones como otra característica del razonamiento económico humano que el modelo del agente racional no explica adecuadamente. La solución a esta aparente paradoja, afirma, es bastante simple: las evaluaciones de valor de las personas se basan en el contexto en el que se plantea la pregunta. Un niño de seis años que mide 1,50 m es "alto" en relación con otros niños de su edad, y un niño de 16 años que mide 1,55 m es "bajo" para su edad, pero en una comparación directa es obvio que este último es más alto. La evaluación conjunta de los dos niños produce un tipo de comparación diferente a la evaluación individual de cada niño en relación con su grupo de edad. En las decisiones económicas, también se observa este tipo de inversión basada en el contexto: una multa elevada según los estándares de una agencia puede ser insignificante según los de otra.
Capítulo 34: Marcos y realidad
Kahneman explora el concepto de los efectos de encuadre, en el que la mera formulación de un problema de decisión modifica sustancialmente las preferencias de las personas. Informa que es mucho más probable que las personas recomienden un procedimiento con una tasa de supervivencia del 90 % que uno con una mortalidad del 10 %. Respaldarán un programa que "salve 200 vidas de 600", pero rechazarán uno que resulte en 400 muertes. Estos efectos son importantes, afirma Kahneman, porque a menudo no existe una preferencia subyacente: el propio encuadre determina qué intuiciones morales aplican las personas. "Una decisión importante", señala, "está controlada por una característica completamente intrascendente de la situación".
Capítulo 35: Dos yoes
Este capítulo presenta a los dos personajes que protagonizarán la Parte 5: el yo que experimenta y el yo que recuerda. El yo que experimenta está presente en el momento, experimentando placer o dolor. El yo que recuerda evoca experiencias después de su ocurrencia y toma decisiones basadas en esos recuerdos. Los propios recuerdos son propensos a sesgos persistentes, como un énfasis excesivo en los mejores (o peores) momentos de una experiencia y, lo que es más preocupante, la negligencia en la duración. «Queremos que el dolor sea breve y que el placer perdure», observa Kahneman, pero la negligencia en la duración impide que el yo que recuerda tome decisiones en consecuencia.
Capítulo 36: La vida como una historia
Kahneman observa que las historias a menudo se definen por sus finales. Esto es tan cierto, sostiene, para las óperas como para la vida de una persona. Citando investigaciones sobre la calidad de vida percibida, Kahneman muestra cómo «los momentos culminantes y los finales importan, pero la duración no». Es decir, una persona que vive 60 años extremadamente felices y luego muere repentinamente es considerada sistemáticamente como alguien que ha tenido una vida mejor que una persona que vive cinco años más «ligeramente felices». De igual manera, al planificar unas vacaciones, el yo que recuerda lleva las riendas: muchas personas no se molestarían en hacer un viaje del que no pudieran traer recuerdos felices.
Capítulo 37: Bienestar experimentado
Kahneman analiza algunos enfoques estándar para medir la felicidad, métodos que considera demasiado dependientes del yo que recuerda, en lugar del yo que experimenta. Presenta sus propios esfuerzos para medir el índice U de un individuo, un término que él y sus colegas utilizaron para indicar el porcentaje de tiempo transcurrido en un estado desagradable. Dicho índice, sugiere, también puede aplicarse en conjunto como una medida imprecisa del bienestar de una población. Las cosas que afectan profundamente el bienestar en el momento, informa Kahneman, pueden tener un efecto menor o incluso opuesto en la satisfacción vital general, y viceversa.
Capítulo 38: Pensando en la vida
Finalmente, Kahneman profundiza en los problemas inherentes a cualquier intento de medir la satisfacción vital. Revisa algunos experimentos en los que las medidas de satisfacción vital se modifican considerablemente tanto por sucesos triviales (p. ej., encontrar una moneda) como por eventos importantes (p. ej., un matrimonio reciente). En conjunto, Kahneman describe estos resultados como evidencia de la ilusión de enfoque, en la que las personas dan una importancia exagerada a lo que piensan en el momento. Al considerar la compra de un auto nuevo, por ejemplo, las personas suelen sobreestimar el papel que este desempeñará en su felicidad general. Esta ilusión compromete las predicciones sobre qué les traerá felicidad futura.
Conclusión
Pensar rápido, pensar despacio concluye con una revisión de las tres dicotomías principales presentadas en el libro: Sistema 1 versus sistema 2; humanos versus economía; el yo que recuerda versus el yo que experimenta.
Los "dos yoes" se abordan primero, ya que su aparición fue más reciente. Los humanos dependen de su memoria imperfecta para tomar decisiones, por lo que el yo que recuerda está al mando cada vez que se elige una opción sobre la felicidad futura. Esto es cierto incluso si el yo que experimenta — el yo que vive los resultados de la decisión momento a momento — puede experimentar dolor o placer que difieren sistemáticamente de los predichos por el yo que recuerda. Lo que constituye una experiencia placentera no siempre es lo que crea un recuerdo feliz, y las personas a menudo toman decisiones subóptimas porque olvidan aspectos importantes de sus experiencias pasadas. Kahneman insta a psicólogos y legisladores a adoptar definiciones de bienestar que integren las experiencias, los recuerdos y los objetivos de una persona.
Los «econs» (término tomado de Richard Thaler y Cass Sunstein) son seres ficticios, perfectamente lógicos, que siguen las sencillas reglas de la economía racional. No cometen errores de razonamiento ni sucumben a sesgos cognitivos. Los humanos, a diferencia de los econs, son los seres lógicamente falibles que pueblan el mundo real y participan en su economía. El libertarismo, sugiere Kahneman, se basa en el supuesto de que las personas son econs, siempre buscando racionalmente su propio interés. Los economistas conductuales, como Kahneman y sus colegas, son escépticos sobre la racionalidad de los humanos y favorecen programas de políticas diseñados para ayudar a las personas a tomar mejores decisiones. Kahneman cita varios ejemplos de paternalismo libertario, un enfoque en el que se guía a las personas hacia decisiones responsables sobre su salud y sus finanzas, pero no se las obliga a hacerlo. (ver Nudge (2008), La teoria del empujoncito)
Finalmente, Kahneman regresa a los Sistemas 1 y 2, un par introducido en los primeros capítulos. Estos son los términos que Kahneman utiliza para los dos sistemas diferentes que la mente humana utiliza para resolver problemas y emitir juicios. El Sistema 1, recuerda al lector, es el sistema "rápido" de patrones cognitivos en gran medida inconscientes que se utiliza para encontrar soluciones rápidas y aproximadas. El Sistema 2 es el sistema deliberado y "lento" que a veces sirve para corregir los errores de intuición y sesgo. Reconocer los propios errores cognitivos es difícil; reconocer los errores en el pensamiento ajeno es algo más sencillo. En cualquier caso, sugiere Kahneman, el vocabulario ofrecido en Pensar rápido, pensar despacio hace que el esfuerzo sea más fructífero.
Temas
Dos estilos de pensar, y ambos tienen defectos
Los dos estilos dan título al libro. El estilo rápido, que Kahneman llama Sistema 1, representa la intuición. El Sistema 2 se activa cuando el Sistema 1 se descontrola, pero el Sistema 2 es "perezoso". Ambos sistemas cometen errores. El Sistema 1 a menudo sustituye la razón por la intuición, o una pregunta fácil por una difícil, o llega a conclusiones precipitadas basándose en estereotipos. A menudo, estos hábitos de pensamiento son lo suficientemente rutinarios como para llamarse heurísticas, reglas generales que facilitan el pensamiento, pero conducen a errores predecibles.
Ambos sistemas tienden a centrarse en ciertos hechos y a excluir otros, y ambos prefieren la narrativa, especialmente en forma de explicaciones causales, incluso en situaciones donde la verdadera historia se centra en acciones del azar. Ninguno de los dos sistemas posee un conocimiento profundo de la probabilidad o la estadística, pero el Sistema 2 al menos puede ser entrenado. Desafortunadamente, las deficiencias de los Sistemas 1 y 2 no conducen a la humildad. Al contrario, las personas tienden a ser ciegas ante sus errores y a confiar demasiado en sus juicios.
El modelo estándar de elección racional
La economía, tal como se enseña en la mayoría de los libros de texto introductorios, asume que los seres humanos buscan maximizar la utilidad esperada, lo cual es casi, pero no exactamente, lo mismo que maximizar la recompensa monetaria esperada. Según la teoría prospectiva, la explicación alternativa de la elección de Kahneman, los seres humanos reales difieren en varios aspectos de los electores ideales descritos por la teoría de la utilidad esperada. Los seres humanos reales:
(1) Se apegan al status quo y lo prefieran a lo que de otra manera podría verse como una alternativa igualmente buena.
(2) Discriminan con mayor precisión entre pequeñas ganancias y pérdidas, en relación con el statu quo, que entre grandes ganancias y pérdidas.
(3) Reaccionan con mayor fuerza a las pérdidas que a las ganancias de igual tamaño, un comportamiento llamado “aversión a la pérdida”.
Los seres humanos también dan demasiada importancia a los acontecimientos excepcionales, especialmente a los que se imaginan con facilidad y viveza (quizás debido a la cobertura mediática de dichos acontecimientos). Finalmente, los humanos no juzgan bien su propia felicidad. Sus recuerdos de acontecimientos pasados no reflejan la verdadera combinación de disfrute e infelicidad que experimentaron en su momento. En consecuencia, no son capaces de elegir lo que les traerá mayor placer.
Las organizaciones pueden fomentar juicios y elecciones más racionales.
Aunque Kahneman cataloga decenas de errores a los que las personas son propensas, no es simplemente pesimista. Las organizaciones y los gobiernos pueden adoptar y fomentar prácticas que fomenten juicios y decisiones más racionales y, por lo tanto, beneficien a las personas. Por ejemplo, una organización puede promover la planificación racional exigiendo la revisión de los resultados de proyectos similares e invitando a los planificadores a imaginar cómo podría fracasar el proyecto (un ejercicio denominado «premortem»).
Una organización también puede mejorar sus proyecciones del desempeño futuro de sus empleados al confiar menos en la intuición de los entrevistadores y más en evaluaciones simples basadas en algoritmos. Tanto las organizaciones como los gobiernos pueden optimizar los resultados de muchas decisiones individuales si las formulan adecuadamente. Por ejemplo, se puede fomentar la participación en un plan de empresa o en un programa de donación voluntaria de órganos estableciendo la participación como opción predeterminada, con una opción de exclusión voluntaria gratuita.
La heurística y nuestro cerebro de cazadores-recolectores
En las sociedades de cazadores-recolectores, donde el tiempo y la información eran limitados, las estrategias de atajo — como "copiar a los exitosos", "preferir alimentos familiares" y "confiar en los parientes" — reducían la costosa deliberación y mejoraban la supervivencia. Esas mismas heurísticas aún rigen las decisiones modernas: nos basamos en la prueba social al elegir productos, preferimos alimentos ricos en calorías que antes significaban seguridad energética y, en situaciones de estrés, recurrimos a rutinas familiares. Las heurísticas eficientes pueden fallar en contextos novedosos, generando sesgos como la sobregeneralización, los estereotipos y la susceptibilidad a señales persuasivas que eran poco comunes en entornos ancestrales.
Los primeros humanos que inferían rápidamente las causas del crujido en los arbustos o los patrones en la distribución de recursos tenían más probabilidades de sobrevivir. Esta predisposición a percibir intenciones o estructuras — a veces inexistentes — facilita el aprendizaje y la coordinación social, pero también alimenta el pensamiento conspirativo, la superstición y la sobreinterpretación de eventos aleatorios en la actualidad. En entornos sociales, la búsqueda de patrones se combina con el sesgo de prestigio (aprender de otros con un estatus alto) para crear una poderosa transmisión cultural. Algunos modelos exitosos pueden difundir normas y habilidades rápidamente mediante la imitación, en lugar de la instrucción explícita.
En grupos de unas pocas docenas de personas, la reputación, la reciprocidad y las normas eran los principales mecanismos de imposición; la vergüenza, el chisme y el castigo mantenían la cooperación. Estas sensibilidades evolucionadas explican por qué los humanos modernos se ven profundamente afectados por la aprobación social y las señales de estatus, incluso cuando estas señales están mediadas por pantallas. Heurísticas sociales como "castigar a los oportunistas" y "recompensar a los cooperadores" aún sustentan la acción colectiva, pero en sociedades grandes y anónimas, los ciclos de retroalimentación son más débiles, lo que dificulta el mantenimiento de la cooperación sin instituciones que recreen la responsabilidad en pequeños grupos.
Los cazadores y recolectores vivían con una gran incertidumbre y consecuencias inmediatas, por lo que valorar las recompensas a corto plazo y el aprendizaje inmediato era racional. Hoy en día, ese mismo sesgo dificulta la planificación a largo plazo (ahorros para la jubilación, salud preventiva y acción climática). Los beneficios abstractos y diferidos no pueden competir con las gratificaciones vívidas e inmediatas. Las soluciones prácticas — microrecompensas, progreso visible y compromisos sociales — funcionan porque alinean los sistemas modernos con las heurísticas ancestrales en lugar de intentar anularlas por completo.
No hay comentarios:
Publicar un comentario