miércoles, 14 de marzo de 2012

Las falacias de Amos Tversky

Escucha el podcast
Amos Tversky, psicólogo israelí nacido en Haifa el 16 de marzo de 1937 y muerto en Stanford (California, EE.UU.) el 2 de junio de 1996, fue un pionero de la ciencia cognitiva, el estudio de cómo el cerebro transforma y representa la información. Junto con Daniel Kahneman desarrolló la teoría de las perspectivas, por la que Kahneman recibió el premio Nobel de Economía en 2002. La teoría de las perspectivas trata de explicar la irracionalidad de ciertas decisiones económicas por la influencia de la percepción del riesgo.



Uno de los campos de estudio de Tversky fue el de los sesgos o prejuicios cognitivos, esquemas de pensamiento irracional causados por errores inconscientes de percepción, evaluación o interpretación de la realidad. Entre estos prejuicios, Tversky estudió varias falacias lógicas muy extendidas, como la falacia de la conjunción y la falacia de la probabilidad a priori.

La falacia de la conjunción procede de la tendencia a basar el juicio más en informaciones personalizadas que en estadísticas. El ejemplo más conocido de esta falacia, el problema de Linda, fue formulado por Tversky y Kahneman en 1982:

Linda tiene 31 años, es soltera, abierta e inteligente. Estudió Filosofía en la Universidad. Durante sus estudios, le preocupaban la discriminación y la justicia social, y participó en manifestaciones antinucleares. ¿Cuál de las dos opciones siguientes es más probable?
1) Linda es cajera en un banco.
2) Linda es cajera en un banco y una activa feminista.

El 85% de los encuestados elige la segunda opción. Sin embargo, la segunda opción es estadísticamente menos probable que la primera, puesto que es sólo un caso particular de ésta; la probabilidad de que dos sucesos ocurran en conjunción es siempre menor que la probabilidad de que ocurra sólo uno de ellos. Si se cumple que es cajera y feminista, entonces se cumple que es cajera. Aunque supongamos que la probabilidad de que Linda sea cajera sea muy baja (por ejemplo, un 5%) y la probabilidad de que sea feminista sea muy alta (por ejemplo, un 95%), la probabilidad de la segunda opción sigue siendo menor que la de la primera: P1 = 0,05 y P2 = 0,05 x 0,95 = 0,0475 < 0,05. Se tiene tendencia a elegir la segunda opción porque parece más representativa de la personalidad descrita, aunque matemáticamente es menos probable. En palabras del biólogo y divulgador Stephen Jay Gould, "me encanta especialmente este ejemplo, porque sé que la afirmación [combinada] es menos probable; sin embargo, un pequeño homúnculo dentro de mi cabeza sigue brincando y gritándome «pero no puede ser sólo cajera de un banco, ¡mira la descripción!»".

La falacia de la probabilidad a priori se manifiesta en el olvido de considerar la mayor o menor frecuencia con la que ocurre un suceso a la hora de evaluar una probabilidad que depende de esa frecuencia:

En una ciudad de un millón de habitantes se esconden cien terroristas fichados. Para capturarlos, las autoridades instalan cámaras de vigilancia equipadas con un sistema de reconocimiento facial automático. Este sistema tiene una tasa de error del 1%, tanto en falsos positivos como en falsos negativos. O sea, que uno de cada cien terroristas pasará desapercibido, y uno de cada cien no-terroristas será identificado como terrorista por error. Cuando el sistema hace una identificación, ¿qué probabilidad hay de que realmente sea un terrorista?

La respuesta más común es que hay un 99% de probabilidades de que se trate de un terrorista, ya que la tasa de error es del 1%. Pero no es así. El cálculo de probabilidades debe tener en cuenta todos los casos posibles, y debido al pequeño porcentaje de terroristas en la población, habrá muchos más casos de no-terroristas identificados por error que de terroristas identificados correctamente. Si toda la población de la ciudad pasase ante la cámara, 99 de los 100 terroristas serían identificados, pero también lo serían 9.999 de los 999.900 no-terroristas, debido al 1% de falsos positivos. Así que de las 10.098 identificaciones positivas realizadas por el sistema, sólo 99 son correctas. Esto representa una tasa de acierto de poco más del 0,98%. Lo que demuestra, dicho sea de paso, que en el mundo real los sistemas de seguridad de este tipo son inútiles.

4 comentarios:

  1. Sr Neutrino:
    ¿Pero entonces, Tversky era falaz, o era un refutador de falacias? No queda claro.

    ResponderEliminar
  2. El titular del post es falaz

    ResponderEliminar
  3. Casi todas nuestras opiniones espontáneas están basadas en falacias derivadas de la simplificación con que opera inicialmente el conocimiento. La sabiduría es gris.

    ResponderEliminar