viernes, 6 de agosto de 2010

INCERTIDUMBRE Y PROBABILIDAD SUBJETIVA EN LA TEORÍA DE DECISIÓN CONDUCTUAL

Rev. De Psicol. Gral y Aplic., 1991, 44(2), 199-208
H. GAMBARA D´ERRICO
Universidad Autónoma de Madrid

El presente artículo constituye un trabajo de carácter teórico sobre el tema de la toma de decisiones bajo incertidumbre. Fundamentalmente, se han analizado cinco aspectos, a saber: 1) el propio concepto de incertidumbre; 2) la relación entre probabilidad e incertidumbre, así como los distintos enfoques existentes de la probabilidad; 3) la elicitación y evaluación de probabilidades; 4) los sesgos principales derivados de la estimación de probabilidades, y, por último; 5) las expresiones verbales como alternativa a las probabilidades en la representación de la incertidumbre.

INTRODUCCIÓN

El objetivo de este artículo es presentar, de una manera sucinta y global, el amplio campo de investigación que abarca el estudio de la toma de decisiones con incertidumbre, y su estrecha relación con las nociones de probabilidad.
Para una mayor claridad de exposición se ha dividido el presente trabajo en cinco apartados. El primero de ellos trata de delimitar el papel que cumple la incertidumbre en la toma de decisiones. El segundo apartado, estrechamente relacionado con el primero, desarrolla el concepto y uso de la probabilidad dentro de la teoría de decisión; da cuenta de las distintas aproximaciones sobre la probabilidad y establece la relación existente entre la noción de incertidumbre y de probabilidad subjetiva. el tercer apartado describe los principales métodos de elicitación de probabilidades, así como la evaluación de las mismas. A continuación, en el cuarto, se hace una breve referencia a los sesgos principales derivados de la estimación de probabilidades. El quinto y último apartado está dedicado a otras ramas de representación de la incertidumbre como es el caso de las expresiones verbales.

I. La incertidumbre

Conceptos que aparentemente están bien definidos y delimitados, se vuelven confusos y son objeto de vivas polémicas al profundizar en el campo de estudios de la toma de decisiones bajo incertidumbre. Se trata de conceptos tan conocidos como el de incertidumbre y probabilidad.
El concepto de incertidumbre vincula a las clasificaciones que generalmente suelen realizarse con respecto a las teorías de decisión. Sin embargo, dichas clasificaciones frecuentemente no coinciden para los distintos actores, debido, quizás, a la mencionada falta de claridad. A título ilustrativo haremos referencia a la clasificación de Coombs, Dawes y Tverski (1970) y a la de Slovic, Lichtenstein y Fischhoff (1988). A la primera de ellas por ser una de las primeras clasificaciones realizadas dentro del campo de la toma de decisiones; a la segunda por ser la más reciente dentro de literatura que aborda este campo de estudios.
Coombs, Dawes y Tverski (1970) distinguen dos tipos de problemas de decisión: las decisiones con conocimiento incompleto y las decisiones con preferencias inseguras. Para estos autores, ambos tipos de decisiones están ligadas a la incertidumbre, aunque en el primer caso esta incertidumbre está vinculada a los estados del mundo y el segundo al propio decisor. Así, las decisiones con conocimiento incompleto son abordadas por las teorías de elección de riesgo y las decisiones de preferencias inseguras por las teorías probabilísticas de elección.
Slovic, Lichtenstein y Fischhoff (1988), distinguen entre dos grandes corrientes: teorías de elección con y sin riesgo. Las teorías de elección sin riesgo, corresponden básicamente a las primeras teorías económicas de decisión, cuyo objeto de estudio son las decisiones que no implican incertidumbre. En este tipo de decisiones se supone que el decisor conoce todo los posibles cursos de acción de la decisión y sus consecuencias, al tiempo que es sensible a las diferencias existentes entre las alternativas. Se trata de un decisor racional. Las teorías de elección con riesgo, por el contrario, tienen en cuenta la existencia de la incertidumbre. (Un ejemplo de estas teorías sería la teoría de la utilidad esperada –Von Neuman y Morgensten, 1947).
Como se observa, aunque la incertidumbre pueda ser la base de clasificación de las teorías existentes, no parece que haya una delimitación clara a la vista de los diversos autores.
Se han dado, sin embargo, intentos de definir y delimitar el concepto que estamos abordando:
Por ejemplo, Knight (1921) y Keynes (1921) distinguen entre riesgo e incertidumbre. Para estos autores el riesgo es algo mensurable, que incluye situaciones en las que las distribuciones de probabilidad de las respuestas son conocidas, bien por la realización de cálculos a priori o bien por las estadísticas derivadas de la experiencia. Por el contrario, la incertidumbre correspondería a aquellas situaciones únicas donde no son aplicables ni los cálculos ni las experiencias pasadas.
A su vez, Veseley y Ramuson (1984) distinguen dos fuentes de incertidumbre: por una parte la incertidumbre física, debida generalmente a la variabilidad estocástica, a la medida o al error de muestreo, que puede expresarse mediante distribuciones de probabilidad; y por otra parte la falta de conocimiento.
Wallsten y Forsyth (1985), y Budescu y Wallsten (1987), diferencian entre incertidumbres precisas e incertidumbres vagas. Definen la incertidumbre precisa como aquella que puede expresarse en términos de una estimación de un punto de probabilidad o mediante una distribución de probabilidad de segundo orden sobre los valores de probabilidad; para qué lo anterior pueda ocurrir, la naturaleza de la información deberá garantizar la estimación de este tipo de incertidumbre y, además, los valores estimados deberán satisfacer los requisitos de los axiomas de probabilidad. El resto de las incertidumbres serán del segundo tipo, el cual está estrechamente relacionado con la ambigüedad lingüística.
Lo que sí parece estar claro es que la toma de decisiones con incertidumbre implica una toma de decisiones con conocimiento incompleto, bien sea de las alternativas de elección, los cursos de acción o de las consecuencias de nuestras elecciones, bien se deba al propio decisor, a la tarea o al contexto.
Así, el Diccionario de la Real Academia Española, define la incertidumbre como duda, perplejidad, falta de certeza, y esta última como ‘conocimiento seguro y claro de cualquier cosa’.
En consecuencia, cuando hablamos de incertidumbre estamos refiriéndonos más bien a un continuo que va desde la certidumbre absoluta hasta la imposibilidad. Ante una decisión con incertidumbre, distintos decisores tendrán distintos grados de certeza, distintas opiniones acerca de la verosimilitud de las proposiciones implicadas. Y el grado de certidumbre del decisor podrá variar en momentos y situaciones diversas ante un mismo problema de decisión. De esta manera, la incertidumbre se convierte en una propiedad de nuestro propio conocimiento sobre los diversos sucesos, pero no en una propiedad de los sucesos en sí mismos (Von Winterfeldt y Edwards, 1986).
Una forma de expresar esa incertidumbre inherente en la toma de decisiones, aunque no la única, como veremos más adelante, es mediante el uso de probabilidades.

II. Concepto y uso de la probabilidad en el marco de la teoría de decisión, su relación con la incertidumbre

En relación a los orígenes de la probabilidad parece que los egipcios ya realizaban juegos de azar que implicaban el cálculo de probabilidades; sin embargo, la teoría de la probabilidad es relativamente reciente. Es en los siglos XVII y XVIII cuando se encuentran estudios sobre juegos de azar, con matemáticos como Edmund Halley, Pascal, Bernoulli y Laplace.
Al igual que ocurría con la incertidumbre, un concepto como el de ‘probabilidad’, aparentemente claro y preciso, es un concepto que también ha suscitado polémicas dentro de este campo de estudios.
La mayoría de los autores están de acuerdo en que una probabilidad es un número real entre 0 y 1, ambos inclusive, y que estos números deben obedecer a ciertas leyes. Todas estas leyes derivadas de la regla básica de que la suma de probabilidades de sucesos mutuamente excluyentes debe ser 1. Sin embargo, existen otros enfoques.
Cabe distinguir cuatro enfoques principales, a saber: 1) Frecuencialista; 2) lógico; 3) Axiomático, y 4) Personalista, Subjetivista o Bayesiano.
[Para un estudio más detallado de las distintas aproximaciones de la probabilidad, remitimos al lector a los trabajos de Slovic, Lichtenstein y Fischhoff (1988); Watson y Buede (1987). Trabajos comparativos son los de Fine (1973);Weatherford (1982) y Hawking (1975).]

1. La teoría frecuencialista

Esta teoría se fundamenta en el supuesto de que el mundo es estacionario, o lo que es lo mismo, que el futuro será como el pasado, y por lo tanto los datos del pasado servirán como predictores del futuro. Desde este punto de vista, la probabilidad viene a definirse como una medida de la frecuencia relativa de los sucesos. Así, la probabilidad de un suceso o evento es la frecuencia, a largo plazo, de ocurrencia de un suceso en una repetición infinita de experimentos; es como si se tratara de una propiedad objetiva del mundo real.
Por ejemplo, la probabilidad de que una persona con depresión se recupere por remisión espontánea será simplemente la proporción de depresivos conocidos que acaban curándose de dicha manera.
Cuando una probabilidad difiera de la frecuencia relativa observada será injustificada e incorrecta.
Evidentemente, la principal ventaja de esta aproximación es su sencillez de cálculo. Ahora bien, imposibilita la realización de juicios de probabilidad para sucesos únicos. Otro inconveniente de esta teoría es el hecho de que ciertos sucesos pueden clasificarse de muy diversas formas, de manera que la frecuencia relativa de un suceso dependerá de cómo se haya clasificado este.

2. La teoría lógica de la probabilidad

Es en la teoría asumida en la mayoría de los tratados introductorios sobre probabilidades. Se basa en la definición de un conjunto de proposiciones lógicamente equivalentes o intercambiables.
Fue Carnap (1950) quien definió la probabilidad de una determinada proporción X, como la proporción de los ‘mundos posibles’ intercambiables en los que se cumple X.
El principal inconveniente derivado de esta teoría es el hecho de que habitualmente es imposible encontrar sucesos intercambiables. Baron (1988) aduce un ejemplo similar al siguiente: para evaluar el juicio de probabilidad que realiza un médico sobre mi garganta, pongamos por caso, no servirá de mucho que le pregunte acerca de la proporción de mundos posibles en los que tendré una infección de garganta.

3. Enfoque formal, axiomático o matemático

Define la probabilidad, P(A), como un número real que ha de cumplir tres axiomas. Dado un espacio muestral E, la probabilidad del suceso A, deberá cumplir que: a) P(A) >=0, b) P(E) =1 y c) P(A1 U A2 U … U Ak) = P(A1) + P(A2) + … + P(Ak) , siendo los A1 mutuamente exclusivos.
Las teorías anteriores definen la probabilidad como algo objetivo y, por esta misma razón, se han mantenido durante largo tiempo en el contexto científico, a pesar de no ser tan útiles a la hora de ayudar a la gente a modelar sus percepciones de la incertidumbre.

4. La teoría personalista o subjetivista

Para algunos autores como Savage (1954); Edwards, Lindman y Savage (1963), o de Finetti (1974), todas las probabilidades son subjetivas.
Este enfoque está basado en la teoría bayesiana de probabilidad y, por ello, se habla de enfoque bayesiano, subjetivista o personalista casi indistintamente, aunque algunos autores, como Von Winterfeldt y Edwards (1986), prefieren utilizar el término de probabilidades personales aduciendo, en primer lugar, que muchas probabilidades personales no son subjetivistas y, en segundo lugar, la posible interpretación peyorativa del término.
Esta teoría difiere de las anteriores, básicamente, por considerar la probabilidad como un juicio personal en relación a las posibilidades que tiene un suceso o una proposición de cumplirse y, por tanto, no habrá de asumirse necesariamente como un hecho objetivo (Savage, 1954).
A pesar de lo dicho anteriormente, este enfoque no excluye a los dos anteriores. Un juicio de probabilidad puede basarse en las creencias y conocimientos de una persona, lo cual puede implicar a las frecuencias o a un conjunto de posibilidades lógicas, pero también puede implicar cualquier otro tipo de conocimiento. Por ejemplo, si dos personas difieren en su conocimiento sobre un determinado suceso, pueden diferir también en sus juicios de probabilidad.
Mientras que para los enfoques anteriores la construcción y la evaluación de probabilidades siguen el mismo procedimiento, el enfoque subjetivista distingue entre construcción y evaluación (distinción sobre la que volveremos más adelante).
Su principal ventaja es que permite realizar juicios de probabilidad sobre sucesos únicos e irrepetibles. (por ejemplo, quién ganará las próximas elecciones).
En resumen, el punto de vista personal puede utilizar la frecuencia relativa o el análisis lógico para la construcción de probabilidades, pero también puede basarse en la comprensión que tiene un juez sobre un determinado suceso.
Por lo tanto, desde una óptica subjetivista o bayesiana una probabilidad es una descripción apropiada de la incertidumbre. Las probabilidades describen opiniones acerca de la veracidad o falsedad de las proposiciones implicadas en los sucesos. Ahora bien, estas probabilidades deben ser coherentes y, por tanto, obedecer a las leyes de probabilidad.
Slovic, Lichtenstein y Fischhoff (1988) señalan que, aunque es cierta la batalla existente (sobre todo entre frecuencialistas y bayesianos, o matemáticos y estadísticos). Ello no ha tenido una gran repercusión en el campo experimental de la psicología. De hecho, no suele estar claro el significado que un experimentador da a la probabilidad. Para estos autores: Si, por ejemplo, sabemos que en una urna hay 4 bolas rojas y 6 blancas, los dos enfoques (frecuencialista y subjetivista) estarán de acuerdo en la existencia de una probabilidad de 0,4 de ser roja una buena extraída aleatoriamente de la urna. Señalan que una posible clave para conocer el punto de vista del experimentador es que los subjetivistas suelen hablar de evaluación de probabilidades (implicando una búsqueda interna) mientras que los frecuencialistas suelen hablar de estimación de probabilidades (implicando la existencia de una respuesta externa).
Como se ha mencionado más arriba, no todas las opiniones numéricas sobre sucesos inciertos son probabilidades. Para que las opiniones sean tratadas como probabilidades deberán ser consistentes. Dicho de otra manera: es necesaria una coherencia reflejada por el cumplimiento de las reglas de probabilidad como sistema matemático.
Para la construcción de probabilidades dentro de esta perspectiva, se precisa un conjunto de supuestos acerca de los juicios de los sujetos. De satisfacerse estos supuestos, se podrá inferir un conjunto de números que reflejarán la percepción de los sujetos sobre la incertidumbre como se ha dicho, estos números deberán combinarse siguiendo las propiedades del cálculo de probabilidades.

Las propiedades básicas de dicho cálculo son:
  1. Regla de aditividad: P(A) + P(B) = P(AUB) si A y B son excluyentes.
  2. Regla del producto: P(A) x P(B) = P(AB) si A y B son independientes
  3. P(A) + P(B) =1
(También se establecen diversos axiomas de la probabilidad, en concreto cinco, los cuales pueden consultarse, por ejemplo, en Watson y Buede, 1987)

III. Elicitación y evaluación de probabilidades
Elicitación de probabilidades

A continuación, se resume los principales métodos de elicitación de probabilidades. El lector interesado en este tema, estrechamente vinculado con el análisis de decisión, podrá encontrar descripciones más detalladas, por ejemplo, en Seaver et al, 1978; Von Winterfeldt y Edwards, 1986; Watson y Buede, 1987.
Pueden clasificarse estas técnicas en dos grandes bloques: técnicas de elicitación directas y técnicas de elicitación indirectas.
Las técnicas de elicitación directa consisten en preguntar al sujeto por las probabilidades de los sucesos relevantes. Algunas variantes de este método proponen presentar al sujeto un valor de la variable aleatoria y preguntar por el percentil o distribución de probabilidad o por los apuestas (odds). También se puede presentar al sujeto un percentil, las apuestas o los logaritmos de las apuestas para preguntarle por el valor de la variable. (Las apuestas y los logaritmos de las apuestas suelen utilizarse cuando es importante la estimación de probabilidades pequeñas).
Por su parte, las diversas técnicas de elicitación indirectas se caracterizan porque en todas ellas se infieren las probabilidades a partir de juicios o decisiones que realice el sujeto. Entre estos métodos podemos citar el propuesto por Geller y Pitz (1968)
Figura 1. Representación de una adaptación a las jugadas encontradas por Von Winterfeldt y Edwards (1986). El decisor debe enfrentarse a un par de jugadas, para determinar, por ejemplo, la probabilidad del suceso: ‘lloverá mañana’. En la jugada 1, se especifica que, en caso de que mañana llueva se obtiene 1200 Ptas, en caso contrario no se gana nada. La jugada 2, se presenta en forma de ruleta con dos áreas (área roja y área verde), si la flecha se detiene en el área verde se irán a 1200 Ptas, si cae en el área roja no se obtiene ningún premio. Si el decisor prefiere la jugada dos, el analista de decisión irá reduciendo el área verde, hasta el momento que el sujeto sea indiferente entre una puesta u otra.

De esta manera:
P(lloverá) x U(1200) + P(no lloverá) x U(0) = P(verde) x U(1200) + P(rojo) x U(0)
Por tanto: P(lloverá) = P(verde)

Basado en el tiempo de respuesta, o el de Jense y Peterson (1973), basado en elecciones entre apuestas. La técnica más utilizada por los analistas de decisión es la desarrollada por Spetzler y Stael Von Holstein (1975), donde se elicitan las probabilidades utilizando una ruleta con dos áreas de colores diferentes, las cuales se van modificando conforme a dos apuestas hipotéticas hasta que para el decisor resultan indiferentes las dos jugadas (véase por ejemplo en figura 1). Las probabilidades se infieren a partir de las áreas de la mencionada ruleta. Tal y como señalan estos autores, la regla de oro de este método es la de no pedir al experto que realice ‘acrobacias mentales’ mientras responde a las preguntas de elicitación.
Otro método utilizado (y aplicado sobre todo en el área de la meteorología por Murphy y Winkler, 1984) son las ‘reglas de puntos son adecuadas’ (proper scoring rules). Se trata de un sistema de puntuación para recompensar al experto en función de la distribución de probabilidad que realiza, coincidiendo la recompensa máxima esperada que se recibe con la distribución de probabilidad subjetiva del decisor. (Sobre este método se puede consultar Matheson y Winkler, 1976.)
De cualquier manera, como señalan Watson y Buede (1987): ‘ningún método produce por sí mismo resultados válidos, pero la utilización múltiple de ellos durante la sesión de elicitación, conduce a mejorar los resultados en gran medida’ (P. 186).

La evaluación de probabilidades

Una vez elicitadas las probabilidades cabe preguntar cuándo y hasta qué punto, se considera que un juicio de probabilidad es correcto. Dicha cuestión vincula tanto a la construcción de probabilidades como a la evaluación de juicios de probabilidad. En cuanto a la construcción de probabilidades, éstas deberán ser coherentes de acuerdo con la teoría de probabilidad. La evaluación de probabilidades resulta una cuestión más difícil desde la teoría subjetiva, ya que aunque los jueces establezcan probabilidades coherentes, la estimación de uno de ellos puede ser más acertada. Una evaluación completa de probabilidades sólo se podrá realizar después de conocer qué proposiciones son verdaderas o qué suceso se han ocurrido. Nos centraremos a continuación en este aspecto.
Para Wallsten y Budescu (1983), la probabilidad subjetiva es un constructo teórico individual no observable (no susceptible de observación) y, por tanto, deberá ser evaluado con los mismos criterios que habitualmente se utilizan para esta clase de constructos psicométricos o psicológicos. A tal fin, estos autores establecen cinco criterios de bondad de las probabilidades subjetivas: fiabilidad, consistencia interna, calibración, validez externa y validez de constructo, de entre los que la calibración se destacaría como el criterio más importante, ya que compara directamente la actuación del sujeto con la realidad empírica. Por este motivo se hará referencia a él en las próximas líneas.
Un aspecto de la validez de los juicios de probabilidad es la correspondencia entre las estimaciones de probabilidad y la veracidad de los sucesos. Si dichas estimaciones reflejan apropiadamente lo que uno sabe, deberá existir una relación sistemática entre probabilidad y veracidad de las proposiciones. Es precisamente a la formalización de esta propiedad a lo que se denomina ‘calibración’, estableciendo, por tanto, una relación entre la creencia del decisor sobre la veracidad de sus juicios y la ‘realidad’ de los mismos. En resumen, el grado de calibración se refiere a una medida de la validez de un conjunto de estimaciones de probabilidad.
Concretamente, se dice que un juicio está bien calibrado sí, ‘a largo plazo, para todas las proposiciones a las que se les asigna la misma probabilidad, la proporción verdadera es igual a la probabilidad asignada’ (Lichtenstein y Fischhoff, 1977, P. 161). Así, una persona buena calibradora expresará su confianza en concordancia con la exactitud de sus juicios; por ejemplo, las estimaciones de probabilidad de un sujeto de 0,80 estarán bien calificadas si el 80% de los sucesos sobre los que ha realizado dichas estimaciones acontecen. (Los estudios de calibración han recibido especial atención dentro del área de la meteorología en Estados Unidos, ya que los expertos se realizan habitualmente juicios de probabilidad en relación a eventos meteorológicos: por ejemplo, probabilidad de lluvia, de tornado, etc.)

IV. Sesgos de estimación de probabilidades

Uno de los problemas en la construcción, evaluación y elicitación de probabilidades es el hecho de que nuestros juicios de probabilidad frecuentemente se alejan de lo normativo o, en otras palabras, que parece que no somos buenos estadísticos intuitivos.
Debido a que existen innumerables trabajos donde se analizan los sesgos existentes en la estimación de probabilidades e inferencia (por ejemplo, Hogarth, 1980; Kahneman, Slovic y Tversky, 1982; Pérez Echeverría, 1988), aquí sólo vamos a citarlos brevemente con el objeto de hacer constar la importancia de este tema en el trabajo presentado.

Sesgos relacionados con datos sobre frecuencias. El Heurístico de accesibilidad

Los trabajos de Tversky y Kahneman (1973) muestran cómo los sujetos, a la hora de estimar frecuencias y probabilidades, se guían por el Heurístico de disponibilidad; es decir: se basan en la facilidad con la que recuerdan los sucesos. Este heurístico puede llevar a cometer sesgos debido a factores como la familiaridad, la recencia, la prominencia emocional, etc.
Aparte del trabajo de los mencionados autores, otro ejemplo lo encontramos en Lichtenstein et al. (1978), donde los sujetos sobreestiman las frecuencias de causas de muertes dramáticas (accidentes, homicidios), mientras que ocurría lo contrario con las causas de muerte no tan dramáticas (asma, diabetes). Lo que explica que, en muchas ocasiones, se sobrestimen los riesgos.
Efectos de este heurístico se pueden encontrar también en la utilización de árboles de decisión. Fischhoff, Slovic y Lichtenstein (1978) pidieron a sus sujetos que estimaran la probabilidad de cada una de las ramas de un árbol de decisión, en relación a las causas de que un coche no arrancara. Incluyéndose la categoría ‘otros problemas’. Cuando presentaron el árbol de decisión de manera incompleta (faltando dos de las ramas principales), los sujetos apenas modificaron la probabilidad de la rama correspondiente a ‘otros problemas’, subestimando, por tanto, esta probabilidad. La conclusión a la que llegaron los autores fue que cuando algo no está representado en nuestro análisis tendemos a no pensar en ello (Out of sight, out of mind, P. 343).
El anclaje y ajuste es otro tipo de sesgo derivado del heurístico de accesibilidad (De Vega, 1984). Tversky y Kahneman (1974) demostraron experimentalmente el efecto del anclaje, consistente en la realización de inferencias, a menudo sesgadas, sobre la base de estimaciones a partir de un dato inicial. Tversky y Kahneman, presentaron a sus sujetos una ruleta numerada del 0 al 100, para que seleccionasen un número al azar. Seguidamente se pedía a los sujetos que estimasen el porcentaje de países africanos pertenecientes a las Naciones Unidas, comprobándose que la cifra obtenida en la ruleta influía en la estimación que realizaban los sujetos. Cuando la cifra era menor los sujetos realizaban estimaciones más bajas que cuando el número obtenido al azar en la ruleta era mayor.

Juicios de probabilidad en función de la representatividad

Se ha observado cómo los sujetos utilizan la estrategia de representatividad cuando tienen que estimar probabilidades de un determinado suceso y éste es similar a la población de partida o refleja las características del proceso por el cual se ha exagerado. A consecuencia de ello, los sujetos cometen diversos sesgos, entre ellos:
a) Una insensibilidad a la probabilidad previa de los resultados que conduce a la llamada falacia de los datos base. Un ejemplo típico propuesto por Kahneman y Tversky (1973) es aquel en que se describe a un sujeto y se pide que se estime si es abogado un ingeniero. Aunque a los sujetos se les proporcione las probabilidades previas sobre una u otra profesión, éstas no suelen considerarse. Sin embargo, los sujetos sí utilizan las probabilidades previas correctamente cuando carecen de otra información.
Bar–Hillet (1980) propone que la información de los datos base se ignora cuando los sujetos consideran que ésta es relevante para el juicio que se les pide, utilizándose cuando piensan que existen relaciones causales entre los datos. Otros casos en los que parecen tenerse en cuenta los datos son cuando estos hacen referencia a una información individualizada o cuando son básicamente datos estadísticos.
[Trabajos de esta falacia los encontramos en Kahneman y Tverski (1972); Bar–Hillel (1980); Bar–Hillel y Fischhoff (1981); Carrol y Siegler (1977); Hammerton (1973); Lyon y Slovic (1976); Nisbett y Borgida (1975), Nisbett, Borgida, Crandell y Reed (1976). Trabajos realizados con tareas de la vida son los de Meehl y Rosen (1955); Dershowitz (1971); Mc Gargee (1976) –contextos judiciales-; Lykken (1975) –pruebas de detección de mentiras-; Oskamp (1962) –estudios de casos-y Eddy (1982)-contextos médicos].
b) Con sesiones erróneas sobre el azar. Un ejemplo típico de este fenómeno es que se denomina la falacia del jugador, según la cual los sujetos consideran más probable que, al lanzar una moneda, se obtenga el resultado de: ‘O XXO XO’ que ‘OOOXXX’ (O: cada y X: Cruz).
c) Insensibilidad al tamaño de la muestra. Una consecuencia de ello es lo que Tverski y Kahneman llaman ‘ley de los pequeños números’. Estos autores observaron, por ejemplo, que los sujetos consideraban igual de probable que el número de nacimientos de niños varones en un día se alejase de la media, con independencia de que se tratase de un hospital grande (donde se producen más nacimientos diarios) o un hospital pequeño. (Véanse por ejemplo, Kahneman y Tverski, 1972, 1973; Tversky y Kahneman, 1971, 1974.)

d) Sesgos relacionados con la combinación de probabilidades:
d.1) El conservadurismo

Este sesgo suele reflejarse cuando se analiza si la gente se comporta o revisa la información nueva de acuerdo con el teorema de Bayes. Los primeros trabajos en este terreno se llevaron a cabo en los años 60 y fueron realizados por Edwards y sus colaboradores (Phillips, Hays y Edwards, 1966; Phillips y Edwards, 1966; Peterson y Beach, 1967; Edwards, 1968). Los resultados mostraban que los sujetos no revisaban sus opiniones tal y como lo requería la regla bayesiana; no modificaban lo suficiente sus percepciones de incertidumbre ante nuevos datos. A este hecho se le llamó conservadurismo.
Las primeras explicaciones sobre este fenómeno hablaban de: 1) la preferencia por no responder con números extremos -respuestas sesgadas-; 2) la infravaloración del impacto diagnóstico de los datos, y 3) de la agregación inadecuada del conjunto de varios datos aunque se perciban correctamente cada uno de ellos.
Trabajos más recientes, en los que se critica fundamentalmente la complejidad de la tarea presentada a los sujetos, son los de Beach, Wise y Barclay (1972), Vlek y Wagenaar (1979).
(Para una revisión de estos trabajos remitimos al lector a Slovic y Lichtenstein, 1971, y Edwards y Von Winterfeldt, 1986.)

d.2) Sesgos de conjunción de probabilidades

La regla de la conjunción nos dice que la probabilidad conjunta de los sucesos, P(AB), no puede ser mayor que la probabilidad de los sucesos independientes, P(A) y P(B). De nuevo Tversky y Kahneman (1983) observaron cómo los sujetos violaban tal regla cuando los sucesos conjuntos resultaban más representativos que cada uno de los sucesos independientes. Así, los autores presentaron a los sujetos la descripción de una persona, para pedirles después que indicaran las actividades más probables que desempeñaba tal persona; la mayoría de los sujetos consideraron más probable que esa persona fuera, por ejemplo, contable y activista del movimiento feminista (conjunción de sucesos) que sólo contable.
Bar–Hillel (1973) y Beyth–Marom (1981), hallaron que las probabilidades de conjunciones se sobrestimaban, mientras que las probabilidades de sucesos disjuntos se infraestimaban.

El sesgo de sobreconfianza

Este sesgo está ligado totalmente a los estudios experimentales realizados sobre calibración. El principal resultado ha sido la mala calibración general de los sujetos ante cuestiones de dificultad moderada, que suele traducirse en la manifestación de una sobreconfianza generalizada de los sujetos, la cual se incrementa con la dificultad de la tarea. En este sentido, se observa que los sujetos sobreestiman su conocimiento o la frecuencia de ocurrencia de determinados sucesos. Un resultado típico es, por ejemplo, el hecho de que sólo el 75% de los sucesos sobre los que el sujeto ha manifestado una confianza de 0,90 son acertados. Fischhoff, Slovic y Lichtenstein (1977) comprobaron que sus sujetos estaban equivocados en el 15% de las ocasiones cuando expresaba estar 100% seguros de la veracidad de los juicios, manifestando tal seguridad que aceptaban apuestas basadas en ellos. Cuando los sujetos estiman probabilidades moderadas y altas suelen presentar sobreconfianza; sólo ante probabilidades bajas los sujetos reflejan una infraestimación de su confianza. El patrón típico hallado en los trabajos sobre confianza y calibración está representado en la figura 2.
Una revisión sobre este punto se puede encontrar en Lichtenstein, Fischhoff y Phillips (1982).
Figura 2. Representación del patrón típico encontrado en los estudios sobre calibración y confianza. La calibración perfecta está representada por la diagonal. En el eje de las abcisas se indican las respuestas medias de probabilidad de los sujetos (entre 0, 5 y 1, para tareas de elección entre dos alternativas). En el eje de las ordenadas se representa la proporción correcta de los eventos.

El sesgo de retrospección (hindsight bias)

Fischhoff (1974) fue quien definió este sesgo que, en cierta medida, consiste en otra forma de sobreconfianza.
Se manifiesta en el hecho de que, cuando se informa sobre la ocurrencia de un suceso, se tiende a asignar una probabilidad más alta a posteriori que la probabilidad que se había asignado al hacer la predicción; de esta manera, cuando se informa sobre un determinado hecho se propende a verlo como inevitable (algo que Fischhoff relaciona con un determinismo similar a las teorías de la inevitabilidad histórica).
Fischhoff llama la atención sobre el papel de los historiadores, ya que se les pide predecir el futuro y ‘dar sentido’ al pasado. El intento de comprender o de explicar un determinado acontecimiento parece inducir a incrementar la prominencia de los datos y de los motivos que puedan integrarse en patrones explicativos coherentes. Los datos que no puedan integrarse en tales patrones tienden a olvidarse, desvalorizarse o son reinterpretados de forma que encaje en él la explicación dominante.
Un efecto secundario de este sesgo es la reducción de lo ‘sorpresivo’ de los resultados o acontecimientos. En este sentido cabe destacar el trabajo de Slovic y Fischhoff (1977) en relación a la evaluación de trabajos científicos.
Otros trabajos sobre este sesgo nos encontraremos en Fischhoff (1982), Fischhoff y Beyth (1975); Verplanken y Pieters (1988).
V. Representaciones alternativas de la incertidumbre: las expresiones verbales
Las palabras son el medio más común de comunicación con otras personas acerca de nuestras opiniones y, por tanto, como apuntan Von Winterfeldt y Edwards (1986), son el más familiar e importante competidor de la probabilidad a la hora de representar la incertidumbre.
Budescu y Wallsten (1987) apuntan tres razones por las cuales mucha gente prefiere utilizar expresiones verbales de probabilidad: a) con frecuencia la información en la que basamos los pronósticos o evaluaciones no es numérica o no es susceptible de ser traducida de una manera natural a probabilidades numéricas; b) la traducción de la información a una forma numérica puede sugerir un nivel de precisión y confianza que no sea el apropiado, y c) mucha gente cree que comprende y puede responder mejor a la información cuando está en verbal que cuando es numérica.
Zimmer (1983) señala que hasta el siglo XVII no se desarrollaron formalmente los conceptos de probabilidad, mientras que las expresiones sobre los distintos grados de incertidumbre son anteriores. Zimmer (1984) afirma que la gente maneja la incertidumbre a partir de expresiones verbales y de las reglas asociadas de conversión, pero no mediante números. Por otro lado, apunta que la capacidad de comprender y utilizar apropiadamente el lenguaje se desarrolla antes que el dominio y la comprensión del sistema numérico.
Un enfoque experimental clásico en el estudio de las expresiones verbales de incertidumbre ha sido pedir a los sujetos los equivalentes numéricos a diversas frases de probabilidad. El resultado más contundente de estos trabajos es la existencia de una gran variabilidad inter sujetos de los valores numéricos asignados a los términos de probabilidad y un gran solapamiento entre ellos (por ejemplo, Lichtenstein y Newman, 1967). Como consecuencia de ello, Beyth-Maron (1982) aconseja la utilización de números en lugar de expresiones verbales.
Otros resultados importantes se refieren a la relevancia del contexto y a la llamada paradoja de preferencia. Se ha observado que las interpretaciones de las expresiones verbales de probabilidad varían según el contexto (Wallsten, Fillenbaum y Cox, 1986; Zimmer, 1984; Brun y Teigen, 1988). En este sentido también se ha comprobado que los sujetos prefieren recibir la información incierta expresada por probabilidades numéricas pero utilizan expresiones verbales para dar tal información, aspecto éste al que hace referencia la citada paradoja (Erev y Cohen, en prensa).
Actualmente se están desarrollando modelos para representar el significado vago de las expresiones verbales (en el sentido de incertidumbre vaga definida en el primer apartado por Budescu y Wallsten, 1987). Éstos modelos (véase por ejemplo, Wallsten et al., 1986; o Rappoport, Wallsten y Cox, 1987) se apoyan en la teoría de conjuntos difusos (Zadeh, 1965).

Conclusiones

Dentro del campo de estudios de la toma de decisiones nos hemos centrado en la incertidumbre. No hemos hablado de las diversas teorías o modelos desarrollados, sino que hemos abordado, desde el inicio del presente trabajo, la incertidumbre como un estado del sujeto, si bien motivado tanto por factores internos como externos. Un estado con el que hay que tomar decisiones, que hay que representar y que comunicar, de ahí el sentido de los apartados de este artículo. Se ha dado cuenta de los principales enfoques de probabilidad, como una vía que intenta acercarse a las representaciones inciertas de los sujetos, culminando en enfoque personalista o subjetivista.
Ahora bien, es necesario que esas probabilidades, representativas de la incertidumbre, puedan elicitarse de manera parsimoniosa y coherente, sobre todo cuando se hace necesario minimizar los posibles errores en una decisión. A este respecto, la elicitación y evaluación de probabilidades son aspectos de gran relevancia para el análisis y ayuda a la toma de decisiones. De hecho, para el desarrollo de árboles de decisión –principal herramienta de trabajo de los analistas- es imprescindible la estimación de probabilidades para las diferentes ramas.
Tanto los analistas, como los decisores que no recurren a ellos, deberán ser al menos sientes de sus propias limitaciones a la hora de utilizar probabilidades. En relación con esta área, siguen siendo necesarias teorías completas que expliquen estos errores, así como procedimientos para corregirlos. Por otra parte, no hay que olvidar las motivaciones de los decisores: parece obvio que la incertidumbre produce ansiedad y, en este sentido, a veces lo que predomina es la necesidad de reducirla o evitarla. Tampoco hay que despreciar el papel potencial de la instrucción, sobre el desarrollo de las nociones de probabilidad y la minimización de sesgos.
Otra cuestión importante hace referencia a las representaciones verbales de la incertidumbre. Aunque, como se ha mencionado en el correspondiente apartado, están surgiendo modelos que tratan de representar las ‘incertidumbres vagas’, quedan aún muchas preguntas sin contestar: ¿nuestras representaciones de incertidumbres son numéricas o verbales?; ¿lo son siempre, o dependen del problema presentado?; ¿cómo se combinan las expresiones verbales?; ¿es posible establecer una relación entre expresiones verbales y numéricas?.
Por último, nos gustaría insistir en el carácter global del presente trabajo; cuyo objeto, ya lo apuntábamos al principio, no ha sido otro que el de mostrar una visión general de algo tan incierto como la propia incertidumbre, y el de reflejar un campo de estudios complejos y amplio, que implica una gran variedad de aspectos estrechamente interconectados, que tratan, poco a poco, de comprender cómo se desarrollan y se expresan los propios sentimientos de incertidumbre.
Nota: quiero manifestar mi agradecimiento a O. G. León, I. Montero y R. Adarraga por sus comentarios en relación al presente trabajo.

Referencias

Bar-Hillel, M, (1973): On the subjective probability of compound events, Organizational Behavior and Human Performance, 9, 396-406
Bar-Hillel, M. (1980): The base rate fallacy in probability judgments, Acta Psychological, 44, 211-233
Bar-Hillel, M. y Fischhoff, B. (1981): When do base rates affect predictions?, Journal of Personality and Social Psychology, 41, 671-680.
Baron, J. (1988): Thinking and Deciding, Cambridge: Cambridge University Press.
Beach. L.R.; Wise, J.A. y Barclay , S. (1970); Sample proportion and subjective probability revisions, Organizational Behavior and Human Performance, 5, 183-190.
Beyth-Maron, R. (1982): How probable is probable? Numerical translation of verbal probability expressions, Journal of forecasting, f, 257-269
Budescu, D.V., y Wallsten, T.S. (1987): Subjective estimation of precise and vague uncertainties. E.G. Wright, y P. Ayton (eds); Judgmental Forecasting, John Wiley & Sons Ltd
Brun, W., y Teigen, K.H. (1988): Verbal probabilities: Ambiguous, context dependent, or both?, Organizational Behavior and Human Decision Processes, 41, 390-404.
Carnap, R. (1950): Logical Foundation of probability, Chicago: University of Chicago Press
Carroll, J.S. y Siegler, R.S. (1977): Strategies for the use of base rate information, Journal of Applied Psychology, 62, 595-602
Coombs, C.H. Dawes, R.M., y Tversky, A. (1970); Mathematical Psychology; An Elementary introduction, Englewood Cliffs, NJ: Prentice Hall.
Dershwitz, A. (1971): Imprisonment by judicial hunch, American Bar Association Journal, 57, 560-564
Eddy, D.M. (1982); Probabilistic reasoning in clinical medicine; Problems and opportunities. En D. Kahneman, P. Slovic, y A. Tversky (eds.): Judgment under Uncertainty: Heuristics and Biases, Cambridge: Cambridge University Press, pp. 249-267.
Edwards, W. (1968); Conservatism in human information processing. En B. Kleinmutz (ed.): Formal Representation of human Judgment, New York; Wiley, pp. 17-52.
Edwards, W.; Lindman, H., y Savage, L.J. (1963); Bayesian statistical inference for psychological research, Psychological Review, 70, 193-242.
Erev, I. y Cohen, B.L. (en prensa); Verbal versus numerical probabilities: Efficiency, biases, and the preference paradox, Organizational Behavior and Human Decision Processes
De Fine, T.L. (1973); Theories of Probability, New York: Academic Press
De Finetti, B. (1974): The true subjective probability problem. En C.A., Stael von Hollstein (ed.): The concept of Probability in Psychology Experiment, Dordrecht-Holland, Reidel.
Fischhoff, B. (1974): Aspects of Historical Judgment, Tesis doctoral sin publicar, Hebrew, Israel: University of Jerusalem
Fischhoff, B. (1982): For those condemned to study the past. En D. Kahneman, P. Slovic, y A. Tversky (eds.) Judgment under Uncertainly: Heuristics and Biases. New York: Cambridge University Press, pp. 422-44
Fischhoff, B.; y Beyth-Marom, R. (1975): I Knew it would happen. Remembered probabilities of once-future things, Organizational Behavior and Human Performance, 14-16
Fischhoff, B., Slovic , P., y Lichtenstein, S. (1977): Knowing with certainly: The appropriateness of extreme confidence, Journal of Experimental Psychology: Human Perception and Performance, 3. 552-564
Fischhoff, B.; Slovic, P. y Lichtenstein, S. (1978); Fault tress: Sensitivity of estimated failure probabilities to problem representation, Journal of Experimental Psychology: Human Perception and Performance, 4, 330-334
Geler, E.S., y Pitz, G.F. (1968): Confidence and decision speed in the revision of opinion, Organizational Behavior and Human Performance, 3, 190-201
Hacking, I. (1975): The Emergence of Probability. Cambridge University Press.
Hammerton, M. (1973): A case of radical probability estimation, Journal of Experimental Psychology, 101, 250-254
Hogarth, R. M. (1980); Judgment and Choice: The Psychology of Decision, Chichester; Wiley.
Jensen, F.A., y Peterson, C.R. (1973); Psychological effects of proper scoring rules, Organizational Behavior and human Performance, 9, 307-317
Kahneman, D.; Slovic, P., y Tversky, A. (eds.) (1982): Judgment under Uncertainly; Heuristics and Biases, New York; Cambridge University Press.
Kahneman, D., y Tversky, A. (1972); Subjective probability: A. judgment of representativeness, Cognitive Psychology, 3, 430-454.
Kahneman, D., y Tversky, A. (1973); On the psychology of prediction, Psychological Review, 80, 327-351.
Keynes, J.M. (1921): A Treatise on Probability, London; Macmilan
Knight, F.H. (1921): Risk, Uncertainly, and profit; Boston; Hought Miffin
Lichtenstein, S., y Fischhoff, B. (1977); Do those who know more about how much they know?, Organizational Behavior and Human Performance, 20, 159-183
Lichtenstein, S., y Fischhoff, B.; y Philips, L.D. (1982): Calibration of probabilities; State of the art to 1980. En D. Kahneman; P. Slovic, y A. Tversky (eds.): Judgment under Uncertainty; Heuristics and Biases, New York; Cambridge University Press
Lichtenstein, S., Slovic, P.; Fischhoff, B.; Layman, M., y Combs, B. (1978): Judged frequency of lethal events. Journal of Experimental Psychology: Human Learnig and Memory, 4, 551-578.
Lichtenstein, S. y Newman, J.R. (1967): Empirical scaling of common verbal phrases associated with numerical probabilities. Psychonomic Science, 9, 563-564.
Lykken, D.T. (1975): The right way to use a lie detector. Psychology Today, 8(10), 56-60.
Lyon, D. Slovic, P. (1976): Dominance of accuracy information and neglect of base rates in probability estimation, Acta Psychological, 40, 287-298.
Mac Gargee, E.I. (1976): The prediction of dangerous behavior, Criminal Justice and Behavior, 3, 3-22.
Matheson, J.E., y Winkler, R.C. (1976): Scoring rules in probability assessment and evaluation. Management Science, 29, 352-362
Marks, D.F., Clarkson, J.K. (1972): An explanation of conservatism in the book bag-and-poker chips situation, Acta Psychological, 36,145-160
Meehl, P.E., y Rosen, A. (1955): Antecedent probability and the efficiency pf psychometric signs, patterns, or cutting scores. Psychological Bulletin, 52, 194-216
Murphy, A.H., y Winkler, R.C. (1984): Probability forecasting meteorology, Journal of the American Statistical Association, 79, 489-500
Nisbett, R.E., y Borgida, E. (1975): Attribution and the psychology of prediction, Journal of Personality and Social Psychology, 32, 932-943
Nisbett, R.E.; Crandal, R., y Reed, H. (1976): Popular induction: Information is not necessarily informative. En J.S. Carroll & J.W. Payne (eds.), Cognition and Social Behavior, Hillsdale, NJ: Prentice-Hall. Pp. 113-133
Oskamp (1962): Overconfidence in case-study judgments, Journal of Consulting Psychology, 23, 411-415.
Peterson, C.R., y Beach, L.R. (1967): Man as an intuitive statistician, Psychological Bulletin, 68, 29-46
Pérez Echeverria, M.P.; Razonamiento probabilístico y correlacional. Influencia de teorías previas y de datos, Tesis doctoral sin publicar, 1988, Universidad Autónoma de Madrid.
Phillips, L.D.; Hays, W.L., y Edwards, W. (1966): Conservatism in a simple probability inference task, IEEE Transactions on Human Factors in Electronics, 7, 7-18
Phillips, L.D., y Edwards, W. (1966): Conservatism in a simple probability inference task, Journal of Experimental Psychology, 72, 346-354.
Rapoport, A.; Wallsten, T.S., y Cox, J.A. (1987). Direct and indirect scaling of memberships functions of probabilities phrases. Mathematical Modeling, 9, 397-417.
Savage, L.J. (1954): The Foundation of Statistics, New York: Wiley
Seaver, D.A. (1978): Correlational Analysis of Approximations and Sensitivity for Multiattribute Utility, Manuscrito sin publicar
Slovic, P., y Fischhoff, B. (1977): On the psychology of experimental Surprises, Journal of Experimental Psychology: Human Perception and Performance, 3, 544-551
Slovic, P., y Lichtenstein, B. (1971): Comparison of Bayesian and regression approaches of the study of information processing in judgment, Organizational Behavior and Human Performance, 11, 172-194
Slovic, P.; Lichtenstein, S., y Fischhoff, B. (1988): Decision Making, En R.C. Atkinson; R.J. Hernstein: G. Lindzey, y R.D. Luce (eds.): Handbook of Experimental Psychology; Volume 2; Learning and Cognition, New York; Wiley. Pp. 673-738
Spetzler, C.S., y Stael von Holstein, C.A.S. (1975): Probability encoding in decision analysis, Management Science, 22, 340-358
Tversky, A., y Kahneman, D. (1971): Belief in the law of small numbers, Psychological Bulletin, 76, 105-110.
Tversky, A., y Kahneman, D. (1973): Availability: A heuristic for judging frequency and probability, cognitive Psychology, 4, 207-232
Tversky, A., y Kahneman, D. (1974): Judgment under uncertainty: Heuristics and biases, Science, 185, 1124-1131.
Tversky, A., y Kahneman, D. (1983): Extensional vs. Intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 91, 293-315.
De Vega, M. (1984): Introducción a la psicología cognitiva. Madrid Alianza Editorial, S.A.
Verplanken, B., y Pieters, R.G.M. (1988): Individual differences in reverse hindsight bias: I never thought something like Chernobyl would happen. Did i?, Journal of Behavioral Decision Making, 1, 131-147
Veseley, W.E., y Ramuson, D.M. (1984): Uncertainties in nuclear probabilistic risk analyses. Risk Analysis, 4, 313-322.
Vlek, C., Wagenaar, W.A. (1979): Judgment and decision under uncertainty. En J.A. Michon; E.G. Eijkman y L.F. W. Deklerk (eds.): Handbook of Psychonometrics II, Amsterdam: North-Holland, pp. 253-345
Weatherford, R. (1982): Philosophical Foundation of Probability Theory, London; Rutledge and Kegan Paul. Von Neumann, J., y Morgenstern, O. (1947): Theory of Games and Economic Behavior, Princeton, NJ: Princeton University Press
Von Winterfeldt, D. y Edwards, W. (1986): Decision Analysis and Behavioural Research, Cambridge. Cambridge University Press.
Wallsten, T.S.; Fillenbaum, S. y Cox, J.A. (1986): Base rate effects on the interpretations of probability and frequency expressions, Journal of Memory and Language, 25, 571-587.
Wallsten, T.S. y Forsyth, B.H. (1985): On the usefulness, representation, and validation of non-additive probability judgment for risk assessment, Manuscrito sin publicar.
Wasllten, T.S. y Budescu, D. (1983): Encoding subjective probabilities: A psychological and psychometric review. Management Science, 29, 151-173
Wallsten, T.S.; Budescu, D.V.; Rapoport, A.; Zwick, R., y Forsyth, B. (1986): Measuring the vague meaning of probability terms, Journal of Experimental Psychology: General, 115, 348-365.
Watson, S.R., y Buede, D.M. (1987): Decision Synthesis. The Principles and Practice of Decision Analysis. The Principles and Practice of Decision Analysis, Cambridge: Cambridge University Press
Zadeh, L.A. (1965): Fuzzy sets, Information and Control, 8, 338-253
Zimmer, A.C. (1983): Verbal versus numerical processing of subjective probabilities. En R.W. Scholz (ed.): Decision Making under Uncertainty, Amsterdam: North-Holland, pp. 159-182.
Zimmer, A.C. (1984): A model for the interpretation of verbal predictions, international Journal of man-Machine Studies, 520, 121-134.

1 comentario:

Jorge Ramiro dijo...

Yo aprendí a calcular la probabilidad en la toma de decisiones a través de un curso de probabilidad y estadistica que hice, de management. Es orientado a la empresa.