Ir al contenido principal

El Que de la Probabilidad

HOMENAJE AL PROFESOR SIXTO RIOS
TRABAJOS DE ESTADISTICA Y DE INVESTIGACIÓN OPERATIVA
Vol. 36, Núm 3, 1985, pp. 185 a 197
EL QUE DE LA PROBABILIDAD
Segundo Gutiérrez-Cabria
Departamento de Estadística e Investigación Operativa
Universidad de Valencia

Se estudia el complejo concepto de probabilidad en sus aspectos matemático y filosófico poniendo énfasis especial en su estatus ontológico

Palabras clave: Dogmatismo; Ontología; Probabilidad; Grado de creencia; Aleatoriedad; Coherencia; Relación lógica; Grado de confirmación; Causal; Casi-causal; Soporte inductivo

Clasificación AMS (1980): Primaria, 60ª05; Secundaria, 03B30

What is probability?
The concept of Probability is studies under their mathematical and philosofical aspect; special emphasis is laid on it ontological status
Key words: Dogmatism; ontology; Probability; Degree of bilief; Randomness; Coherence; Logical relation; Degree of confirmation; Causal, Cuasi-causal; Inductive support.
AMS Classification (1980): Primary, 60A05; Secondary, 03B30
0. INTRODUCCION
“Todo el mundo habla de probabilidad, pero nadie puede explicar, de modo que pueda ser aceptable para los demás, lo que se entiende por ello”. (Garret Birkhoff. “Lattice theory”).
Estas palabras de Birkhoff son innegables y señalan la dificultad de adentrarse en lo que expresa el título de este trabajo. La probabilidad está constantemente presente en el lenguaje popular y en el mundo de la cultura; bajo formas distintas, ha invadido también el campo de la ciencia y de la filosofía. Y esto porque el conocimiento cierto, tanto en el sentido de inmediatez como en el de verdad lógica o en el de completa precisión en la medida, es algo perfectible.
En este trabajo, y como homenaje al Profesor Ríos, maestro de maestros, a quien debemos la vocación de estos temas, ofrecemos algunas de nuestras reflexiones sobre la materia.
En las dos primeras secciones nos ocupamos de los aspectos matemático y filosófico de probabilidad, señalando la improcedencia del estudio exclusivo del primero sin prestar la atención debida al segundo, sin el cual, por otra parte, el primero no tiene verdadero interés. En la sección tercera se estudia la validez ontológica de las distintas interpretaciones de la probabilidad. Se analiza de modo particular, en la última sección, la probabilidad subjetiva por ser hoy la que ofrece mayor aceptación, si bien se dan en ella problemas graves aun no resueltos.

1. DOGMATISMO MATEMÁTICO
La probabilidad introducida axiomáticamente es un indefinible. La estructura no está, por su misma naturaleza, relacionada con al observado o experimentado, algo que está fuera de al mente. Existe en el vacio por derecho de su esencia como ente lógico. El concepto de probabilidad, así concebido, existe únicamente como sujeto de un sistema de relaciones y su significado viene delimitado por el de axiomas.
La teoría de la probabilidad se erige así como una rama de la matemática, un capítulo de la teoría de la medida.
Aporta, en cambio, una estructura abstracta inmensamente fecunda que permite obtener probabilidades complejas a partir de otras más simples, sin tener en cuenta al valor concreto de unas u otras.
Como toda teoría matemática pura, el tratamiento axiomático de la probabilidad es de nula utilidad en tanto no se den a sus términos indefinidos interpretaciones concretas, esto es, definiciones semánticas que conviertan los axiomas del cálculo en aserciones significativas.
Ahora bien, no es posible dar una aplicación específica a una teoría pura sino mediante convenciones adicionales, no derivables de consideraciones estrictamente matemáticas. El establecimiento de estas convenciones suele eludirse en los libros de texto y en las aulas; suele considerarse como una tarea básicamente práctica que no necesita ninguna discusión teórica. Se proclama, por el contrario que debe entenderse como probabilidad todo cuanto satisface los axiomas de la teoría de la probabilidad y solo aquello. Esta idealización de la probabilidad, anclada en un dogmatismo matemático y con escasas referencias a la realidad, constituye un escollo grave para su debida comprensión total.

2. ASPECTOS FILOSÓFICOS
En contraste con lo anterior existen interpretaciones de la probabilidad que la entienden como modos de describir aspectos del mundo observable.
La semilla de todas estas teorías está en lo que puede denominarse “sentido común de probabilidad”, concepto próximo a lo que Toulmin (1958) llama “probabilidad informal”.
Cuando alguien dice: “dadas las actuales circunstancias de humedad, temperatura, etc., “es probable” que llueva mañana”, está intentando formular un juicio acerca de una situación de interés en ambiente de incertidumbre. El juicio así formulado puede ser meramente cualitativo. El sujeto puede ser cualquier persona del común de las gentes. La situación puede ser real o imaginada
La incertidumbre del sujeto guarda relación con la mayor o menor evidencia que presente la situación de interés. Esta evidencia puede tener diversas procedencias, dando origen a concepciones de la probabilidad también diversas por sus aplicaciones, y puede alcanzar distintos grados, en lo que da lugar a que el juicio emitido sea más o menos objetivo.
A partir, pues, de este “sentido común” de probabilidad y teniendo en cuenta el origen y grado de evidencia que posee el sujeto, podemos distinguir estos tratamientos:
(i) Pueden contemplarse los resultados provenientes de la puesta en ejecución de un aparato que sirve de instrumento a un experimento: resulta así la concepción frecuentista y la frecuencialista de Von Mises (1957).
(ii) Puede examinarse el aparato mismo y sacar deducciones de su estructura: simetría, razón insuficiente para considerar unas respuestas más próximas a la “certeza” que otras… Tenemos así la definición de Laplace.
(iii) Puede apelarse a la aleatoriedad objetiva que se supone existe en la naturaleza y que produce lo que en inglés se conoce con el nombre de “Chance”, oportunidad u ocasión, como medida de probabilidad de un acontecimiento natural cualquiera.
(iv) Puede concebirse la probabilidad como una relación en el contexto de los razonamientos inductivos. Esta relación lógica, o probabilidad lógica, ha adoptado dos formas históricamente importantes:
a. Como relación entre premisas y conclusión en la teoría de la argumentación, según Keynes (1921) y la escuela de Cambrigde;
b. Como relación entre datos e hipótesis, tal como aparece en la teoría de la confrontación de Carnap (1950).
Estas cuatro concepciones de la probabilidad suelen catalogarse, por la mayor parte de los autores como probabilidades objetivas, si bien se reducen en última instancia a establecer vínculos entre la prueba experimental y las conclusiones, a contar casos. Pero ¿Qué casos? La selección de casos a contar es algo de gusto personal, algo subjetivo. De la probabilidad como relación lógica ha escrito Mackie (1973) que “aunque es un concepto de algo objetivo, un crítico puede decir que, en fin de cuentas, tiene sólo status subjetivo”.
(v) Puede apelar el sujeto a sus propias creencias acerca de la situación real y medir el grado de estas creencias sobre la base de lo que está dispuesto a aportar en su defensa. Estos grados de creencia tienen como única restricción el que pertenezcan a una persona racional y coherente.
Pueden invocarse otros criterios tendentes a medir el estado de incertidumbre del sujeto en base a sus “propensiones” (Popper, 1967), a su “sorpresa potencial” (Shackle, 1967) ante la situación contemplada, etc.
La justificación de esta variedad de tratamientos está en la variedad de aplicaciones que sólo en el caso informal y en el frecuentista no ofrece ninguna clase de dudas. Algunas de estas concepciones pueden explicarse por la mutación o extensión natural de otras; en ningún caso posible reducirlas a una sola por no ser válidas todas las transiciones entre ellas. Unas utilizan los teoremas de Bernoulli y otras no.
3. STATUS ONTOLÓGICO DE LA PROBABILIDAD

Hemos introducido los conceptos mas utilizados de probabilidad. Nos resta analizar si el uso que de ellos se hace es correcto. Nuestros razonamientos serán, dada la limitación de espacio.
1. El “sentido común” de probabilidad no presenta problemas. Cuando el pueblo dice “es probable P” hace una afirmación cautelar acerca de P. Admite tanto la defensa de P como su refutación
2. En el caso “frecuentista”, esto es, cuando la probabilidad se toma como equivalente a la “proporción” o “frecuencia relativa” en una clase finita, tampoco aparecen dudas ontológicas. Si la clase finita consta de elementos E, debe haber algún número definido de tales elementos. Una “proporción”, entre uno y cero (inclusives), de estos elementos E, serán V, en tanto que V sea un carácter distintivo preciso que obedezca, dentro de la clase E, las leyes de “no contradicción” y “medio excluso”.
Esta “proporción” será entonces la probabilidad en sentido “frecuentista” de los E que son V, y estas probabilidades, interpretadas como tales proporciones, obedecerán las reglas del Cálculo de Probabilidades.
Los demás conceptos de probabilidad son objeto de diversas clases de escepticismo
3. Tanto las probabilidades tipo Laplace como las probabilidades lógicas pueden englobarse bajo el epíteto de probabilidades racionales.
Al sujeto de tales probabilidades se le puede argumentar así: Puedes decir que conoces P (verdad de la proposición o realidad del suceso) o que no la conoces; si no la conoces no tienes razón suficiente para creer en ella; si la conoces no hay lugar a la probabilidad; no hay, pues, ningún grado de justificada creencia entre 0 y 1. No es fácil tomar un punto de partida para argumentar satisfactoriamente en favor o en contra de posición tan extrema
Este escepticismo puede apoyarse en la dificultad real de aplicar buenas razones para creer en un plausible “recuento” de lo que hay en el mundo. Existe una tendencia natural a formar creencias influidos por ciertas circunstancias (ambiente, sino de la época) o a manejarlas de determinados modos. Quizá la nota sobresaliente en este punto es la constatación de cómo esta la clase de escepticismo acusa su presencia respecto a la probabilidad racional.
Si negamos la objetividad racional, negamos la posibilidad de que alguien tenga buenas aunque no concluyentes razones para creer algo y, dado que hay muy pocas creencias para las que tenemos razones concluyentes, este modo de razonar nos llevaría a un escepticismo de orden superior que nos dejaría en un estado intelectual vacío. Existen cosas que debemos creer y no podemos admitir que no nos asista el derecho de hacerlo
4. La probabilidad lógica admite nuevos matices. La relación lógica entre premisas y conclusión, entre la verdad contenida en una proposición (Q) y un cuerpo de evidencia (P) que contiene toda la verdad, se hace más patente si se expresa en forma de “silogismo proporcional”. Dado P y nada externo a P que sea relevante para Q, si se puede asignar a Q un grado de creencia medido por x%, se podrá expresar esto así: P “probabiliza” Q al x%.
La relación requerida aparece así clara y sin los problemas de la terminología “intuicionista” tan en boga en los tiempos de Keynes. Pero sería una falacia identificar la verdadera relación soporte con esta relación formal del silogismo emparentada con aquella. La detentación de este exige cierto grado de intuición
El problema ontológico de la probabilidad lógica queda reducido al más simple del modelo Laplaciano, siempre que las probabilidades de éste hayan sido bien establecidas y que las proposiciones generales sustenten los condicionamientos del silogismo. Esto es, con referencia al silogismo anterior, podemos enunciar: “Siempre que alguien conozca una proposición de la misma forma que P y, en nada relevante, distinta de ella, está autorizado a dar a la correspondiente proposición de la misma forma que Q, el grado de x% de creencia”.
5. La probabilidad como “chance”, azar, oportunidad, algo que está en la misma naturaleza de los hechos o se las cosas, es la interpretación más cuestionada.
Puede considerársela como la contraparte intederminista de la necesidad causal determinista. Con esto se señala que sólo puede existir “chance” dentro de un contexto indeterminista, donde la aleatoriedad debe aparecer de algún modo en la naturaleza (simetría, etc) o en la realización de la prueba (impulso dado, etc.). La “chance” se presenta así como una “potencia” algo presente en cada instancia y que tiende producir, a generar.
Muchos físicos afirman que átomos y partículas subatómicas son indeterministas y que la proporción de átomos que se desprenden de un isótopo radioactivo, en un tiempo t, converge al límite 1-2-1/t, cuando el número de átomos expuestos crece y donde T es la “vida media” de dichos átomos. Parece lógico entonces, por el teorema de Bernoulli, asignar a estos átomos idénticos, la misma “chance” de desintegrarse en el tiempo t, la cual sería medida precisamente por 1-2-1/t . Pero esto equivale a suponer que si un conjunto de átomos es abandonado por las libres fuerzas desintegradoras, al variar el tiempo t de exposición, la frecuencia relativa del número de los que se desintegran tiene como límite el antes mencionado. Existiría entonces en la estructura de los átomos de radio, por ejemplo algo contingentemente correlacionado con su límite frecuencial de desintegración en el tiempo t, mientras que una clase diferente de átomos (por ejemplo de radón) estaría contingentemente correlacionada con una distinta distribución de frecuencias en el mismo tiempo t.
La licitud de la aplicación de la probabilidad como “chance” esta así, ligada a dos realidades físicas: la frecuencia de desintegración en átomos idénticos y la estructura de estos átomos, la cual está conectada con esa frecuencia por una contingente ley “casi-causal”.
La “probabilidad-propensión” de Popper (1959) es una extensión de la “probabilidad-chance”, tal como la hemos definido. A la distribución de “chances” correspondería una distribución de propensión y cada una de ellas sería una propiedad “disposicional” de la estructura experimental. Así, al lanzar un dado existiría una “disposición” (mejor quizá predisposición) a la obtención de una cara que dependerá de la calidad del dado (cargado en un sentido o correcto), del impulso de lanzamiento y del campo gravitatorio.
Sólo esta “disposición” puede otorgar a la “propensión” un carácter que emana de la prueba individual y no de la serie de pruebas que caracteriza a la interpretación frecuencial; si bien, estas vinculaciones en cada prueba son tan integradas, gracias al teorema de Bernoulli, que, en el límite, propensión implica límite frecuencial.
Se trata pues de una teoría distintiva que postula un elemento adicional en la ordenación de hechos y fenómenos de probabilidad, pero abierta a muchas objeciones que impugnan su interpretación racionalista.
5. LA PROBABILIDAD SUBJETIVA
El status ontológico de la probabilidad subjetiva está inmerso en la noción que hemos llamado “sentido común” de probabilidad: intento de juicio, acerca de una situación incierta a cargo de un sujeto. El elemento nuevo que añade la probabilidad subjetiva es la coherencia en los juicios de ese sujeto. De Finetti (1968) lo dice claramente “Autores propiamente subjetivistas (como el presente) piensan que coherencia es todo lo que la teoría puede prescribir”. Por su parte, Lindley (1977) escribe: “La base del argumento Bayesiano se apoya enteramente en el concepto de coherencia; consecuentemente, coherencia debe ser el principal (¿único?) Instrumento en la aplicación del argumento”.
La coherencia en los grados de creencia de una persona equivaldría a que verificaran los axiomas de probabilidad matemática como demostró De Finetti (1963). La coherencia le llevaría a un sujeto a no apostar en su contra; el axioma de aditividad implica que si el grado de creencia en S es p y el de no-S es q, debe cumplirse p + q = 1. Supongamos, por el contrario, p ≠ 1 – q, pongamos por caso, p<>(i) Si M es una cantidad de dinero, esa persona deseará apostar M(1-p) contra Mp sobre la verdad de S
(ii) Análogamente, ya que su grado de creencia en no-S es q, querrá apostar M(1-q) contra Mq sobre la verdad de no-S. Si resulta efectivamente verdadero, el saldo neto de ambas apuestas es Mp-M(1-q) = -M(1-q-p) <>
Hay numerosas y profundas lagunas en este razonamiento. Hay en él una asunción oculta: las “querencias” a apostar son la contraparte de una distribución de “esencias”. No podemos afirmar que un hombre no es racional si está dispuesto a efectuar apuestas incoherentes, puede haber motivaciones que justifiquen, en ciertos casos, este tipo de apuestas. Ni se puede afirmar que un conjunto de creencias justificadas racionalmente, debe poseer grados en correspondencia con un conjunto coherente de razones de apuestas. Las creencias en sí, aisladas de cualquier método que pretenda medir su grado de intensidad, no ofrecen vinculaciones muy precisas con la coherencia.
A pesar de estas dificultades, nosotros admitiríamos es que para que un conjunto de creencias sea racionalmente justificado debe ser tal que pueda ser medido por un conjunto coherente de probabilidades matemáticas, esto es, conformes con los axiomas.
Salvadas estas dificultades, la probabilidad subjetiva se integra plenamente en las “teorías empiristas” de la ciencia. En un sentido directo y correcto, la lógica de las “creencias científicas” es trivial cuando los estados de la naturaleza son conocidos. Admitida la probabilidad subjetiva, la lógica inductiva, que se apoya en ella, es una clara extensión de la lógica deductiva clásica y el carácter de esta extensión, en términos generales, es hoy claramente reconocido. Pero faltaríamos a lo cánones de filosofía si este status ontológico de la probabilidad subjetiva nos impidiera ver en ella dificultades no superadas totalmente. Nos vamos a referir aquí a tres tipos de problemas que afectan a la consistencia de la teoría. Estos problemas se refieren al uso de axiomas estructurales que no son de pura racionalidad, a la inexactitud de las medidas empleadas y a la extensión de la teoría a nuevas y sorprendentes situaciones encontradas

5.1 EL PROBLEMA DE LA RACIONALIDAD DE LOS AXIOMAS

Suppes (1956) distingue entre axiomas de estructura y axiomas de racionalidad. Los primeros se oponen a los segundos en que requieren la presencia en el ambiente de alguna característica especial y no imponen ninguna restricción en la racionalidad del decisor que debe satisfacerse siempre y en todas partes; en la mayor parte los casos son de carácter existencial. Con referencia a la axiomática de Savage (lo mismo se diría “mutatis mutandis” de las demás) hay por lo menos dos axiomas estructurales: el quinto (exclusión del caso en que todas las consecuencias son equivalentes en utilidad) y el sexto (existe una partición de los estados de la naturaleza tal que, si A es menos probable que B, la unión de cada elemento de la partición con A es menos probable que B) representan asunciones acerca del ambiente que debe, o no debe, existir con exclusión de referencia acerca de la racionalidad que sería satisfecha por cualquier persona racional.
Savage pretendió defender su axioma 6º manteniendo su aplicabilidad en el caso de que existiera una moneda que el decisor cree correcta a lo largo de una serie de lanzamientos. El problema de decisión que tiene un enfermo sobre si someterse o no a una arriesgada operación, se resolvería así lanzando una moneda. Este proceder removería los cimientos de la probabilidad subjetiva reduciendo el problema a la construcción de sucesiones de Bernoulli, y sería psicológicamente irreal que por este camino se llegara a una decisión racional. Elaborar un mecanismo de aleatorización, a fin de ampliar el espacio de decisión, iría en contra de la actitud adoptada por los bayesianos con respecto a la aleatoriedad. Suppes (1974) formaliza las ideas anteriores.

5.2 INEXACTITUD DE LAS MEDIDAS
Carece de sentido hablar de una teoría sobre una medida sin que existan procedimientos que permitan valorar la precisión de esa medida, esto es, un tratamiento acerca de la naturaleza de los errores en las mediciones y alguna estimación de los mismos. Precisamente, una de las mayores aportaciones a la metodología general científica ha sido el tratamiento probabilístico de la “teoría de los errores” en la medida. Sin este tratamiento, gran parte de la ciencia más exacta y más sofisticada de este siglo y última parte del anterior, habría seguido un camino más lento, sino imposible, en la confrontación entre teoría y hechos.
Ahora bien, si a alguien se le dice que diga lo que cree acerca de la “probabilidad de que llueva mañana”, es difícil concebir un procedimiento que permita asignar errores de medida al proceso que conduce a esas creencias. De hecho, no tenemos noticia de que se haya desarrollado hasta la fecha ninguna teoría, sobre este tema, análoga a la teoría de errores de observación de las ciencias empíricas.
Con todo, ha habido trabajos prometedores que asignan a la ocurrencia de un suceso, no probabilidades exactas, pero sí cotas superiores e inferiores de esas probabilidades. La idea de estas cotas late en la memoria de Bayes (1763), pero su estudio sistemático es reciente. Citaremos, como más importante los trabajos de Smith (1961), Good (1962) y más recientemente el ya mencionado de Patrik Suppes (1974).
Suppes construye una axiomática, la primera conocida, sencilla y elegante, sobre la medida inexacta de los grados de creencia. Surge al final la duda de si el problema de la medida exacta de probabilidad ha sido sustituido por el nuevo problema de la medida exacta de probabilidades superiores e inferiores
El problema de la precisión en la medida de los grados de creencia, sigue abierto.
5.3 EL CONSERVADURISMO
Edwards (1968) llama “conservadurismo” (conservatism) a una clase de desviaciones caracterizadas por el hecho de que el sujeto revisa sus probabilidades subjetivas con menor intensidad que lo haría una persona ideal racional que satisface la regla de Bayes. El caso opuesto, aquel en que la revisión sobrepasa las predicciones de la regla de Bayes, se llama “radicalismo”. Pitz (1969) y Cohen et.al. (1972) demostraron que la tasa de revisión depende de la estructura de las series de entrada de datos que no es detectada por la regla de Bayes; una especie de reacción o “inercia” ante dicha ley. Por el contrario, Kahneman y Tverky (1971), dentro de un contexto distinto, encuentran que los sujetos llevan a cabo sus asignaciones de probabilidad sin tener en cuenta el tamaño de la muestra, al revés de lo que prescribe la regla de Bayes
En la década 1960-70 han sido llevados a cabo por psicólogos numerosos experimentos a los que han seguido amplios debates en torno a la existencia y posibles explicaciones del “conservadurismo” en el proceso de la información humana. Amplia reseña se encuentra en las obras de Du Charme (1970) y Slovic y Lichtenstein (1971).
5.4 EL PROBLEMA DE LA CONFUSIÓN

Relacionado con le problema anterior está el que los psicólogos denominan “l problema de la confusión”.
Una “probabilidad subjetiva” es la expresión del grado de certeza sentido por personas de la vida real. Este concepto debe diferenciarse de la “probabilidad personal” definida como grado de certeza concebido por una persona racional ideal.
Por obvias razones, muchos psicólogos han considerado las probabilidades “subjetivas” como “personales”, con el fin de analizar hasta qué punto la coherencia contemplada en éstas se extiende a aquellas. Esto no deja de ser una aproximación. Pero la confusión surge no solo cuando se estudian los efectos de tratar las probabilidades subjetivas como personales, sino, además, cuando se asume algún tipo de “similitud” a priori entre una y otras, pues entonces corre peligro de perderse la distinción entre lo que es y lo que no es “interior” a la persona.
La asunción de similitud es una forma débil de asunción de identidad. La idea que late, en esta última, es que una persona representa su incertidumbre en una situación particular como una probabilidad personal; única, porque una persona ideal racional tiene u solo grado de incertidumbre para cada suceso. Tal valor único serviría entonces de valor de probabilidad interna “verdadera” del cual serán reproducciones más o menos válidas distintas expresiones de la probabilidad subjetiva.
El “problema de la confusión” presenta muchos aspectos como puede verse en el trabajo de Zeeuw y Wagenaar (1974). El principal es quizá la variedad de probabilidades subjetivas que se obtienen según los distintos modos de valoración de los grados de creencia.

6. CONCLUSIÓN FINAL
Hemos iniciado nuestro estudio preguntando por “el qué” de la probabilidad y nos hemos encontrado con concepciones distintas que hemos llamado deliberadamente “interpretaciones”, pues pensamos que todas pueden, con mayor o menor ingenio, dar fundamento al Cálculo de Probabilidades, donde encontrarían su unidad. Y esto, a causa de la economía y simplicidad de los axiomas que dicho Cálculo exige.
Pero hemos de insistir en que ninguna de dichas interpretaciones es plenamente satisfactoria, lo cual exige contemplar una variedad de ellas que para Carnap es de dos, para Suppes “a lo menos” tres , para Mackie cinco, y para algunos autores, más. La razón de esa variedad está en que se pide a la filosofía, en latería de probabilidad, requisitos difíciles de conciliar. Así, la filosofía cuestiona por qué unas veces se formulan juicios “a priori” y otras veces se habla de juicios “contingentes”; por qué a partir de unas premisas dadas se ha dar razón y defender la racionalidad y grados de confianza en las conclusiones; por qué se exige base matemática sólida a juicios; por qué, dadas estas dificultades, se ha de persistir en seguir hablando de probabilidad

REFERENCIAS

BAYES, T. (1973). An Essay towards solving a problem in the Doctrine of Chances. Phil. Trans., 53, 370-418
CARNAP, R. (1950). Logical Foundation of Probability. Chicago
COHEN, J., CHESNICK, E.I. y HARAN, D. (1972). A Confirmation of the Inertial –Ψeffect in Secuential choice and Decision. Brit. Jour. Of Psychology. 63, 41-46.
DU CHARME, W. (1970). Response Bias Explanation of Conservative Human Inference. Jour of Experimental Psichology, 85, 66-74
DEMPSTER, A.P. (1967). Upper and lower probabilities induced by multivalued mapping. Ann. Math Statist. 38, 325-40
DE FINETTI, B. (1973). La Previsión: Ses lois logiques, ses sources subjetives. Ann. De lÍnstitut Henri Poincaré. Paris, Gauthier-Villars.
DE FINETTI,B. (1968). International Encyclopedia of Social Sciences. Vol. 12. Mc. Millan and Fee Press
GOOD, I.J. (1962). Subjetive proability as the measure of a non-measurable set. In Logic, Methodology and of Science. Stanford: University Press
KAHNEMAN, D. y TVERSKY, A. (1970) Subjetive Probability: a Judgment of Representativeness. Cognitive Psychology. 3, 430-454
KEYNES, J. M. (1921). A. Tretise on Probability. London.
LINDLEY, D.V. (1978). The Bayesian Approach. Scand. J. Statist. 5, 1-26
MACKIE, J.L. (1973). Truth, Probability and Paradox.Oxford: University Press.
VON MISES. R. (1957). Probability, Statistics and Truth. New York.
PITZ, G.F. (1969). An Inertia Effect (Resistance to Chance) in the Revision of Opinion. Canadian Journal of Psychology, 23, 24-33
POPPER, K.R. (1959). The propensity Interpretation of Probability. British J. Philos Science. 0, 25-42
POPPER, K.R. (1967). La lógica de la investigación científica. Madrid. Tecnos. S.A.
SHACKLE, G.L.S. (1967). Comparison of Bayesian and Regresion Approaches to the Study of Information Processing Judgment. Organizational Behavior and Human Perfomance.6, 649-744
SMITH, C.A.B. (1961). Consistency in statistical inference and decision. J. Roy Statist. Soc. B. 23, 1-25
SUPPES, P. (1956). The role of subjetive probability and utility in decision-marking. Proc. Third Berkeley Symp. 5, 61-73
SUPPES, P. (1974). The Measurement of Bilief. J. Roy. Statist. Soc.
TOULMIN, S. (1958). The Uses of Argument. Cambridge.
ZEEUW, G. y WAGENAAR, W.A. (1974). Are subjective probabilities probabilities?. In The concept of probability in psicological experiment (C.A.S. Stael von Holstein ed.). Holanda. D Reidel.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería