Ir al contenido principal

Desarrollo de la inferencia estadística desde sus comienzos hasta principios de este siglo




ESTADÍSTICA ESPAÑOLA
Núm. 98, 1983, págs. 9 a 29


por SEGUNDO GUTIERREZ CABRIA.
Departamento de Estadística e Investigación Operativa.
Universidad de Valencia

RESUMEN


Se estudia en este trabajo el desarrollo de la influencia estadística en el período que va desde los trabajos de John Arbutnot (1714) hasta los de Lexis (1875-1879). Desde que se atisban los primeros pasos de la inferencia se observan dos tendencias en su concepción: una, basada en el método hipotético-deductivo, tomaba como base las probabilidades directas; otra, inspirada en la inducción científica, apuntaba a las probabilidades inversas y tuvo dos fases. En la primera, obtención de probabilidades por medio de frecuencias, fracasaron los intentos de Bernoulli y Laplace. La segunda, inferencia, en términos de probabilidad, de frecuencias mediante otras frecuencias, se desarrolla a partir de Lexis, y es el punto de partida de la estadística moderna.
Palabras clave: Inducción estadística, método hipotético-deductivo, probabilidad directa, probabilidad inversa, principio de mínimo, frecuencia, estabilidad de las frecuencias.

l. LA ESTADÍSTICA HIPOTETICO-DEDUCTIVA DE LOS SIGLOS XVIII Y XIX Y LAS PROBABILIDADES DIRECTAS

1. Se cree, no sin fundamento, que el primer cálculo estadístico de naturaleza inferencial es el contenido en un informe presentado en la Royal Society, el año 1710 por John Arbutnot, médico de la corte, quien creyó ver un testimonio de la Divina Providencia en la regularidad constante que se observaba entre los nacimientos de ambos sexos. Arbutnot asimilaba, en una serie de nacimientos acaecidos en Londres desde 1629 hasta 1710, la prevalencia numérica del sexo masculino a la aparición de cara cuando se lanza la moneda. Como el exceso de varones a lo largo de los años era un suceso con escasa probabilidad, rechazaba la hipótesis de azar «Es arte y no casualidad, escribía, lo que interviene en los nacimientos» (1712).
Nicolás Bernoulli, en carta que dirige a Pierre Remond de Mortmont, el 23 de enero de 1713, le dice: «Os envío el catálogo de niños de ambos sexos nacidos en Londres desde 1629 a 1710, con mis demostraciones de lo que os he escrito con respecto al argumento por el que se quiere probar que es un milagro que los números de niños de cada sexo nacidos en Londres no se hayan alejado unos de otros durante ochenta y dos años seguidos, y que por el azar sería imposible que durante tan largo tiempo se hubieran encerrado en tan estrechos límites, como los observados en esos ochenta y dos años. Pretendo que no hay lugar a la extrañeza, y que hay una gran probabilidad de que el número de varones y hembras caiga entre límites más pequeños que los observados.»
De Moivre se hizo eco de esta controversia, y señaló que los argumentos de N. Bernoulli no se adecuaban a los avanzados por el doctor Arbutnot. De hecho, se trataba de dos tesis contrapuestas: la que propugnaba una causa superior y la que atribuía las discrepancias al azar. La primera abría pasa a la Estadística Inductiva; la segunda apuntaba al problema de las probabilidades directas, consagrado luego por la ley de los grandes números. La carta antes citada termina, efectivamente, con estas palabras: «Recuerda que mi tío (Jacobo) ha demostrado algo semejante en su Tratado "De Arte Conjectandi" , que se imprime actualmente en Basilea, esto es, que si se quiere descubrir por experiencias reiteradas el número de casos con que un cierto suceso puede ocurrir o no, se puede aumentar el número de observaciones, de tal suerte que al final la probabilidad de que hayamos descubierto la verdadera relación existente entre el número de casos, sea mayor que una probabilidad dada. Cuando este libro aparezca, veremos si en esta clase de materias he encontrado una aproximación tan justa como él.» (Mortmont, 1713).
2. Creo, con todo, que no hay antecedente más clásico (y más conocido) del análisis estadístico inductivo que el llevado a cabo por Maupertius en 1752. Estudiando durante cuatro generaciones una genealogía familiar, había encontrado en sus miembros más dedos de los corrientes. Mediante cálculos demostró que un conjunto tal de anomalías en consanguíneos no podía ser atribuido al azar. Es ésta quizá la primera formulación probabilística coherente del método hipotético-deductivo: formulación de un modelo hipotético mediante una inducción a partir de los datos y deducción, a partir del modelo, de unas consecuencias, todo en un ambiente de incertidumbre y con validez probable. Como buen newtoniano, Maupertius había calculado una probabilidad directa y la utilizaba como probabilidad inversa.
3. Tan pronto como el cálculo de probabilidades empezó a tomar forma definitiva, los matemáticos se interesaron en la aplicación de los conceptos probabilísticos al estudio de las discrepancias en las observaciones.
Nueve años después de la aparición del «Ars conjectandi», Roger Cotes (1722), en un trabajo sobre la estimación de errores en medidas trigonométricas, discutió lo que hoy llamaríamos «un problema de estimación en el plano». Sean p, y, r, s cuatro determinaciones distintas de un punto o, con pesos respectivos, P, Q, R, S, inversamente proporcionales a las distancias a o (pondera reciproce proporcionalia spatiis evagationum). Asignemos los pesos, P, a p, etc., y hallemos su centro de gravedad z. Este centro, dice Cotes, es la posición más probable de o. Cotes no dice el porqué de esta afirmación, ni cómo llegó a esta regla.
Según Laplace, este resultado de Cotes no fue aplicado hasta que Euler (1749) lo utilizó en un trabajo sobre irregularidades en el movimiento de Saturno y Júpiter.
4. Otros intentos de resolver el mismo problema fueron hechos por Mayer (1750) y Boscovich (1755), el primero sobre libración lunar y el segundo en el cálculo de la órbita elíptica de la Tierra. En todo este tiempo de mediados del siglo xviii hubo gran preocupación por los errores de observación. Las ideas eran puramente intuitivas, y venían expresadas en términos oscuros, pero los problemas más importantes fueron ya planteados. Así, Simpson (1757) aludía a una opinión corriente entonces de que una buena observación era tan precisa como la «media» de un conjunto de datos, y el mismo Laplace (1774), en su gran Memoria, se mostraba cauto respecto al uso de la media, cuando afirmaba que para algunas distribuciones de errores podía haber estimaciones mejores que la media, como, por ejemplo, la mediana.
5. El primero en introducir el concepto de distribución de errores y en considerar distribuciones continuas fue Simpson (1756, 1757). Pero como todos sus contemporáneos consideraba inevitable establecer estas condiciones: las distribuciones debían ser finitas y de rango finito. Simpson obtuvo una distribución triangular continua y mediante ella probó que la media aritmética es preferible a una simple observación, y llegó a deducir la probabilidad de un error dado para la media aritmética, en el caso límite. En una Memoria (1700-1703), Lagrange reproduce, sin citarlos, los trabajos de Simpson, pero las aportaciones de Lagrange son de interés más analítico que probabilístico. Sobre el uso de la «media aritmética» se recomienda la lectura del trabajo de R. L. Plackett (1919).
6. En las actas de la Academia de San Petesburgo apareció en 1777 una Memoria sobre «La elección más probable entre varias observaciones discrepantes y la formación, a partir de ellas, de la inducción más verosímil», presentada en latín por Daniel Bernoulli, seguida de un comentario por L. Euler. Una fotocopia de este documento figura en la biblioteca de la Royal Statistical Society de Londres.
Influido por la idea de que una distribución de los errores debe tener rango finito, Bernoulli supone que esta distribución es semicircular y debe terminar abruptamente en sus extremos. Con estos supuestos, su formulación de máxima verosimilitud es clara y explícita, y se deduce de las que hoy llamaríamos «ecuaciones de máxima verosimilitud », deducibles por derivación de la función de verosimilitud de la muestra «lo que sucede en el curso de una observación particular, escasamente lo conocemos "ex hipótesis", pero esta profunda ignorancia será el refugio en el que somos forzados a guarecernos cuando tomamos partidos, por lo que no es verdadero sino verosímil, no cierto sino más probable (non verossimum sed verosimillimum, non certum sed probabilissimum), como enseña la teoría de la probabilidad. Si esto es siempre y por todas partes idéntico a la media aritmética, usualmente aceptada, es cosa que puede ser razonablemente puesta en duda» (D. Bernoulli, 1777).
En el párrafo 16 de esta Memoria, Bernoulli se aproxima al principio de mínima varianza.
En su comentario, Euler señala que el principio de máxima verosimilitud es arbitrario, en el sentido de que no hay razón lógica para creer que las observaciones provengan de un sistema generador que les otorgue máxima probabilidad. Se extiende luego en una serie de contraargumentos a algunos de los razonamientos expuestos por Bernoulli, para nosotros no totalmente convincentes. Pueden verse en la Memoria citada. No hay que olvidar que Euler tenía entonces setenta y un años y estaba ya casi ciego.
7. No deja de ser sugestivo que el teórico de la probabilidad inversa, P. S. Laplace, verificase, en 1789, la hipótesis que afirma que los cometas pertenecen al sistema solar, basada en el esquema lógico de D. Bernoulli, que contempla únicamente probabilidades directas en perfecta concordancia con el razonamiento hipotético-deductivo. La teoría clásica de errores empieza de este modo a apoyarse, con Laplace, en la ley de los grandes números. Parece que había llegado el momento de la unión de la Estadística con el cálculo de probabilidades. Pero esto no fue así, y hubo que esperar casi un siglo hasta que este casorio definitivo se consumara. En efecto, Gauss, en su «Theoria motus corporum coelestium» (1809), razona sobre las propiedades probabilísticas de los errores aleatorios, a los que asigna una distribución empírica, con olvido total de la ley de los grandes números. La razón de este hecho hay que buscarla en el divorcio existente entonces entre el concepto de error de observación aleatorio y cantidad aleatoria. Una definición de cantidad aleatoria no se dio en la teoría clásica de la probabilidad. Hubo que esperar a la segunda mitad del siglo XX para que se definiesen cantidades «dependientes de azar» y poseyendo ciertas leyes de distribución.
Los errores aleatorios fueron considerados por Gauss, en su obra «Theoria combinationis observationum erroribus minimis obnoxiae» (1826), con ciertas propiedades probabilísticas, pero a la distribución de esas probabilidades no le dio ninguna importancia.
En el apéndice de su obra «Nouvelles Méthodes pour la Determination des Orbites des Cométes» (1805), Legendre escribe que en problemas en los que es necesario extraer conclusiones lo más exactas posibles de medidas de observación, «casi siempre» se llega a un sistema de ecuaciones de la forma
donde las Zj; son «coeficientes» conocidos, las Xi; son medidas, las bj son las «incógnitas» y los li son los «errores». Gauss, en «Disquisitio Palladis» (1810), adoptó un modelo análogo al anterior. EI objetivo de Legendre era «determinar» (para nosotros, estimar) las q incógnitas (para nosotros, parámetros), bj, de modo que cada «error» (para nosotros, residuo) llegue a hacerse muy pequeño y los «errores extremos» se conserven dentro de estrechos límites, independientemente del signo. El principio que propuso para obtener esta «determinación» era la minimización, por variación en las bj, de la suma de los cuadrados de los «errores» li.
La primera discusión del modelo de Legendre en la que fue considerada explícitamente la distribución de probabilidad de los errores li; apareció en la «Theoria Motus», de Gauss, en donde suponía que, con una distribución uniforme «a priori» del parámetro de posición, la «moda» de la distribución a posteriori de N medidas (errores) independientes era la media aritmética de aquellos errores. De acuerdo con esto, halló que la distribución de errores, supuesta continua, era necesariamente de forma normal. EI modelo lineal [1] era así el adecuado para el caso en que los li; son muestreados independientemente de una población normal, con media cero y varianza σ2.
EI principio de «mínimo» sugerido por Legendre recibe el espaldarazo de Gauss, quien en su «Theoria Combinationis» escribe: «Determinar una magnitud, por medio de observaciones, es como un juego en el que hay riesgo de perder sin esperanza de vencer... La magnitud de la pérdida debe ser valorada mediante una función de los errores, siempre positiva. Entre el infinito número de funciones que satisfacen estas condiciones parece natural escoger la más simple, la cual es sin contradicción “el cuadrado del error”. Había nacido la teoría de la estimación.
8. La preocupación por el análisis probabilístico de los datos empíricos había desbordado el ámbito físico-astronómico. Un ejemplo ilustrativo lo tenemos en el intento de creación del método numérico por el médico francés Louis (1787-1872), dentro de la escuela anatomo-clínica de Paris, empeñada en constituir la medicina como ciencia. Louis descarta sistemáticamente toda especulación apriorística, procurando limitarse a la obtención de datos a partir de las relaciones numéricas entre los fenómenos patológicos y los resultados terapéuticos en que «ya no podemos seguir diciendo: esto lo he visto a menudo; sino que debemos decir: esto lo he visto con tal frecuencia».
E1 programa de Louis fue concretado y desarrollado por su discípulo y colega Jules Gavarret (1809-90), quien publicó en 1840 la obra titulada «Principios generales de Estadística médica». Gavarret estableció, influido por Poisson y Laplace, que estando toda observación médica favorecida por un cierto número de circunstancias y contrarrestadas por otras, debe someterse al Cálculo de Probabilidades.
Era éste un modo de razonamiento audaz, que provocará la risa presuntuosa de muchos. Pero será el movimiento biométrico, basado en principios más profundos de la probabilidad, el que dará paso a una nueva metodología inferencial, que crecerá sin tregua hasta nuestros días, constituyendo un cuerpo formalizado y complejo.
Desde los tiempos en que Augusto de Comte juzgaba el análisis probabilístico de los hechos reales como «una aberración científica» había pasado mucha agua bajo los puentes de la Ciencia. Los epistemólogos empiezan a tomar conciencia de las técnicas estadísticas, que fundadas «en conceptos en modo alguno invulnerables, desde el punto de vista del rigor..., se han impuesto poco a poco en casi todos los ramos del saber moderno, hasta constituir hoy uno de los instrumentos más eficaces, destinado presumiblemente a sustituir aquellos otros clásicos que se movían en la rigurosísima matemática del continuo», según frase de Geymonat (1960).
9. Estos primeros procedimientos inductivos de la Estadística, basados en el cálculo de probabilidades directas y en coherencia con el esquema hipotético-deductivo de la tradición científica, consistían en deducir las consecuencias (no necesariamente univocas) de una hipótesis y en confrontarlas con los datos concretos, buscando criterios generales para valorar el grado de conformidad. La formulación de las hipótesis se hacía naturalmente en lenguaje probabilístico, el cual se ajustaba a la metodología de una ciencia desde entonces liberada de los estrechos cánones determinísticos de la realidad natural.
El método hipotético-deductivo caló muy hondo en la inferencia estadística inicial y ha impreso en ella una huella de prudencia que ha conservado en el curso del tiempo y que la lleva a guardar provisionalmente toda hipótesis que no se ha logrado refutar (es el «argumentum ad ignorantiam» de la lógica clásica), Los datos que explican una hipótesis pueden estar de acuerdo también con otra. De suerte que, a la aseveración de una verdad conforme con una evidencia empírica, corresponde siempre una falacia lógica de la que puede sustraerse, si la prueba de una hipótesis es también la desaprobación de las hipótesis rivales. De muchas de estas falacias dará cuenta la historia de la ciencia.
Tal el caso de Adolfo Quetelet (1844), el cual veía en el ajuste del modelo «binomial» a las distribuciones de muchos caracteres morfológicos un indicio de conformidad de las discrepancias somáticas, observadas en los seres vivos, con el modelo gaussiano de distribución de los errores en torno a un valor medio. Atribuía estas desviaciones al influjo de factores ambientales, referidas a un tipo biológico bajo otros aspectos invariables. La ley distributiva era considerada como expresión de un sistema en equilibrio estático en torno a su propio centro de gravedad, «el tipo». Pero la conformidad del modelo con los datos empíricos, en modo alguno excluía otras hipótesis, en aquellos tiempos inadmisibles. En efecto, más tarde, con Mendel, y sobre todo con Johannsen, aparecerán otros paradigmas interpretativos de esas variaciones observadas.
Tal también el intento de Galton (1877) de probar la herencia de características métricas en diversas especies de seres vivos, basado en la concordancia de medidas realizadas en ascendientes y descendientes. Se trataba de una adaptación de los datos a una regulación hipotético deductiva, confirmada por la ciencia posterior como correcta, pero que pudo muy bien resultar una falacia, si se admite que las mismas observaciones pudieran verificar una premisa distinta.

2. INFERENCIA ESTADISTICA Y LEY DE LOS GRANDES NUMEROS

1. Hay una gran diferencia entre la proposición «Es probable que todo caso de esta generalización es verdadero» y la proposición «Es probable que cualquier caso de esta generalización, tomado al azar, es verdadero». La última proposición puede permanecer válida aun cuando algunos casos de la generalización sean falsos.
EI primer tipo de proposición pertenece a la inducción universal; el segundo pertenece a la inducción estadística.
Lo característico de la probabilidad, cualquiera que sea su interpretación (y no sólo la frecuencialista), es su conexión, no con un simple hecho, sino con una serie de hechos, y esto, pensamos, es también característico de la inducción estadística. Una inducción estadística, o bien afirma la probabilidad de un hecho, elegido al azar de una serie de proposiciones, o bien asigna la probabilidad a la aserción, según la cual la verdadera frecuencia de una serie de proposiciones (esto es, la proporción de proposiciones verdaderas en la serie) está en el entorno del verdadero valor. En todo caso, se está aseverando una característica de una serie de proposiciones y no de una proposición particular. Mientras en la inducción universal construimos nuestros argumentos mediante el examen de analogías positivas y negativas, exhibidas en una serie simple de observaciones, la tarea correspondiente en inducción estadística se basará en el examen de analogías positivas y negativas presentadas por series de series de observaciones.
El análisis de inducción estadística no es fundamentalmente distinto del correspondiente a la inducción universal, pero es mucho más intrincado, como demuestra su evolución histórica y las interminables polémicas que dividen el actual espectro de la Estadística.
2. Hay dos formas esencialmente distintas de argumentar: por deducción y por reducción.
En la deducción se concluye su premisa menor de un enunciado condicional y de su premisa mayor: si A, entonces B; es así que A, luego B.
En la reducción, por el contrario, se concluye de un enunciado condicional y de su premisa menor, su mayor: si A, entonces B; es así que B, luego A.
La reducción puede ser progresiva y regresiva. En la reducción progresiva se comienza por la premisa mayor desconocida, según su valor de verdad y se procede hacia la premisa menor conocida o comprobable. La reducción progresiva se llama también verificación.
Cuando la premisa mayor es una generalización de la premisa menor, la reducción se llama inducción.
En la actualidad no todos están de acuerdo con esta definición restrictiva de la inducción. Así, Max Black (1979) define la inducción como «un argumento no demostrativo, en el que la verdad de la premisa, aunque no entraña la verdad de la conclusión, constituye una buena razón para aceptarla». Tales argumentaciones, para las que la conclusión puede presuponer la existencia de individuos no presupuestados por las premisas, son llamadas por Peirce (1932} «ampliativas». Este ir «más allá de las premisas», que son los hechos singulares de la experiencia (de ahí su carácter ampliativo), posibilita la inferencia de hechos observados a hechos inobservados y, en particular, a la predicción del futuro.
3.- Los argumentos que utiliza la inferencia estadística se compendian en los tres que exponemos a continuación.
a) Dada la probabilidad relativa a la evidencia de cada uno de los sucesos de una serie o conjunto de sucesos, ¿cuáles son las probabilidades, con respecto a la misma evidencia, de las diversas frecuencias observadas de los sucesos de la serie total? Dicho de otro modo, ¿con qué frecuencia podemos esperar la ocurrencia de un suceso en una serie de ocasiones, dada su probabilidad en cada ocasión?
b) Dada la frecuencia con la que ha acaecido un suceso en una serie de ocasiones, ¿con qué probabilidad puede esperarse que ocurra en una ocasión posterior?
c) Dada la frecuencia con la que ha ocurrido un suceso en una serie de ocasiones, ¿con qué frecuencia puede esperarse probablemente ocurra en una serie posterior de ocasiones?
En la argumentación a) se supone conocida la premisa mayor, y se procede hacia la menor desconocida. En realidad, es un caso de deducción, pues, inferimos una frecuencia estadística de una probabilidad «a priori» y su fundamento teórico es el teorema de Bernoulli o de las probabilidades directas, conocido también como ley débil de los grandes números. En el tipo de argumento b) estamos empeñados en la operación inversa: calcular una probabilidad sobre la base de frecuencias observadas. En el tipo c) intentamos pasar de una frecuencia estadística observada, no a la probabilidad de una ocurrencia individual, sino a los valores probables de otras frecuencias estadísticas no conocidas.
4. La idea básica que subyace en la ley de los grandes números, esto es, el empleo de la media aritmética de un conjunto de observaciones frente al empleo de observaciones simples, es muy antiguo. Era la práctica común en los estudios de astronomía y geodesia, como hemos tenido ocasión de ver en los trabajos de Halley y Cotes.
Si hemos de creer a Ore (1963), la forma más rudimentaria de la ley de los grandes números es debida a Cardano, quien verificó que en largas series de observaciones el número de ocurrencias de un suceso en n pruebas independientes es
La impresión general es que la prehistoria de la ley de los grandes números contiene una comprensión de la naturaleza y uso de la fórmula [1] y de la media aritmética de un conjunto de observaciones. Pero la compilación y posterior formalización de estas ideas dispersas fue debida a Jacobo Bernoulli.Donde p de es la probabilidad constante de la ocurrencia de este suceso en una prueba.
En la versión alemana del «Ars Conjectandi» (1713), Bernoulli probó que cuando n tiende a x
Con anterioridad a la muerte de J. Bernoulli, pero antes de la publicación del «Ars Conjectandi», en carta dirigida a Montmort (de la que nos hicimos ya eco), Nicolás Bernoulli dedujo una estimación aproximada del promedio de una serie binominal, y tomando datas de Arbuthnot utilizó esta estimación para el razonamiento probabilístico acerca de las «regularidades constantes observadas en los nacimientos de ambos sexos».
La tendencia a acumular información durante los siglos xvii y xviii, tabulación de nacimientos por sexo, etc., sacaran a la luz un nuevo hecho, ignorado anteriormente, esto es, que cuando no hay asociación total el grado de asociación parcial muestra una sorprendente regularidad, y que esta regularidad aparece más y más acentuada cuanto mayor es el número de casos tomados en consideración. Así, se halló, por ejemplo, que niños y niñas nacen en proporciones iguales, pero que estas proporciones (que no son completamente iguales entre sí) tienden, por todas partes, a aproximarse hacia ciertos números, cuando el número de observaciones es grande.
Sussmilch (1714) descubrió un interés teológico por estas regularidades. Tales ideas debieron ser suficientemente familiares a Gibbon como para caracterizar los resultados de una probabilidad como «ciertos en general y falaces en particular», y Kant (como muchos escritores posteriores) los encontraba como una aportación al libre albedrío.
El siglo xix fue más osado en los métodos y más informado de los hechos. Después de probar una extensión del problema de Bernoulli, Poisson (1837) lo aplicó a conjuntos de hechos observados y dio al «principio» que subyacía en estas regularidades el título de ley de los grandes números. En «Recherches» (1837) escribió estas palabras: «Les choses de toute nature sont soumises á une loi universelle des grands nombres est déjá pour nous un fait général et incontestable, résultant d'experiences qui ne se démentent iamais».
Es el lenguaje de la exageración, extremadamente vago pero excitante, abierto a un nuevo campo de la investigación científica y que tuvo gran influencia en el pensamiento subsiguiente. Poisson parece proclamar que en el mundo del azar existe realmente, en medio del desorden aparente, un manifiesto «sistema». Las causas constantes actúan siempre y se reafirman en las largas series de hechos, de suerte que los diversos sucesos acaecen en una determinada proporción de casos observados. No está claro en qué medida es una ley natural basada en la experiencia. En todo caso, pone de manifiesto una cierta armonía entre la ley natural y el razonamiento «a priori» de probabilidades.
5. Un posterior desarrollo de la ley de Bernoulli condujo al teorema límite «De Moivre-Laplace».
Los trabajos de Ahraham de Moivre están contenidos en su principal obra «Doctrine of Chances», aparecidas en 1718, 1738 y póstumamente en 1756, y en su libro «Miscellanea Analítica de Seriebes et Quadraturis», publicado en 1730.
De la «Doctrine of Chances» son estas líneas: «Si después de realizar un gran número de experimentos se percibiera que los éxitos y los fracasos aparecen en una cierta proporción... deberá concluirse que las probabilidades de éxito o de fracaso, en otro tiempo distinto, serán muy próximas a esa proporción, y que cuanto mayor ha sido el número de experimentos, más próxima a la verdad será la conjetura que se ha derivado de ellos. Pero supongamos se dijera que, no obstante, la racionalidad de construir conjeturas en base a observaciones, considerando el gran poder del azar, los sucesos pueden ocurrir, en grandes sucesiones; de pruebas, en distinta proporción de aquella predisposición, según la cual acaecen de un modo u otro, y que suponiendo, por ejemplo, que un suceso que es igualmente propenso a ocurrir y que a no ocurrir, ha ocurrido 2.000 veces en 3.000 experiencias, se asignaría entonces, ante tan grandes diferencias observadas, una variación  frente a la igualdad propugnada, razón por la cual la mente estaría mejor dispuesta hacia las conclusiones inferidas por experimentos.»
De este oscuro pasaje se deduce que De Moivre intentó una reconciliación de las probabilidades «a priori» con las probabilidades estadísticas, piedra de toque de la ley de los grandes números.
Laplace repitió las pruebas del teorema límite de Moivre sin citarle, como era costumbre en él. Sólo en la nota histórica de su «Essai philosophique...» hace referencia a sus trabajos. Pensó que el teorema de Bernoulli contenía una demostración de una ley general de la naturaleza y en su segunda edición de la obra citada, publicada en 1814, reemplaza la dedicatoria «A Napoleón-le-Grand», de la edición de 1812, por una exaltación de dicho teorema que termina con estas palabras: «c'est encore un résultat du calcul des probabilités, confirmé par des nombreuses et funestes expériences».
6. Adolfo Quetelet (1796-1874) fue el gran popularizador de las ideas de Poisson. Incrementó el número de comprobaciones de la ley de los grandes números. Sus observaciones provenían preferentemente del campo social y algunas de ellas fueron dirigidas a excitar la imaginación: regularidad en el número de suicidios; «I'effrayente exactitude avec laquelle les crimes se reproduisent», etc. Quetelet escribe con espanto casi religioso de estas leyes misteriosas y las trata como si fueran leyes físicas, no necesitadas de un posterior análisis u explicación.
EI progreso sobre la concepción de las leyes de los grandes númerus, desde los tiempos de Quetelet ha sido constante y desigual. Se han multiplicado los ejemplos y las condiciones necesarias, para la existencia de la estabilidad estadística, todo ello como premisa esencial para la inducción estadística. En este sentido, la ley de los grandes números, cuyo nombre más adecuado debería ser el de «ley de estabilidad de las frecuencias estadísticas», constituye la base esencial de los argumentos inferenciales de los tipos b) y c), de los que se hablará a continuación.

3. EL PROBLEMA DE LA INDUCCION ESTADISTICA Y LAS PROBABILIDADES INVERSAS

1. En los dos apartados anteriores se ha considerado la probabilidad de un suceso como algo dado, y a partir de este hecho se ha intentado inferir las probabilidades de ocurrencias del suceso en el total de las series de frecuencias posibles de su realización. En ningún caso se ha discutido por qué procedimiento se ha obtenido esa probabilidad «a priori», lo que constituye el punto de arranque en el método hipotético-deductivo y el gozne sobre el cual gira la ley de los grandes números. En Estadística general esta probabilidad inicial suele basarse en distribuciones frecuenciales de sucesos análogos, observadas con anterioridad. Pero, ¿cómo ir de las frecuencias a las probabilidades? El problema está inmerso en el llamado «problema general de la inducción», pues pretende obtener juicios de probabilidad tomando como base las experiencias observadas, y sólo podrá ser tratado siguiendo los métodos de la lógica inductiva general.
Históricamente ha habido dos intentos de resolver el problema mediante asignación de probabilidades «a priori» por consideraciones puramente matemáticas. Los dos se redujeron a mera «charlatanería», según calificación de J. M. Keynes (1921), y redujeron la Estadística a la esterilidad durante un centenar de años, por apoyarse en bases totalmente insostenibles. EI primero de estos métodos directos para la obtención de probabilidades «a priori» pudiera denominarse «teorema de inversión de Bernoulli», y el segundo, «regla de sucesión de Laplace».
2. La primera discusión de este problema se halla en la correspondencia mantenida entre Leibniz y J. Bernoulli, y pensamos que el mejor modo de entrar en ella es relatar el modo en que se expresaban, sobre el tema, estos dos ilustres filósofos.
En carta dirigida por Jacobo Bernoulli a Leibniz (1855), fechada en 1703, le dice: «podemos determinar, por consideraciones «a priori», en qué cuantía es más probable obtener la suma siete, al lanzar los dados, que la suma ocho; pero no podemos determinar, por tales procedimientos, la probabilidad de que un hombre de veinte años sobreviva a otro de cincuenta ¿No será posible aún obtener este conocimiento «a posteriori» de haber observado un gran número de parejas de hombres, análogas a la anterior?».
En la réplica de Leibniz se encuentra la raíz de la dificultad de la respuesta. «El cálculo de probabilidades -escribe-- es del más alto valor, pero en investigaciones estadísticas es necesario, no tanto la sutileza matemática cuanto el enunciado preciso de todas las circunstancias. Las posibles contingencias y el cálculo exacto están, en consecuencia, fuera de la cuestión. Aunque la naturaleza tiene sus hábitos, debido a la concurrencia de causas, no son generales, inmutables. Con todo, cálculos empíricos, aunque inexactos, pueden ser adecuados en asuntos prácticos.»
Bernoulli volvió, en su respuesta, a insistir en la analogía con las bolas extraídas de la urna y mantuvo que «sin estimar cada contingencia por separado, podemos determinar, dentro de estrechos límites, la proporción que ofrece cada alternativa.» Y añadía en su carta: «Esto es cierto, se acabó la controversia; te agradará la demostración que publicaré.» Se refería a su libro «Ars Conjectandi», que editaría en Ginebra (1713).
Lo cierto es que la demostración no llegó. Después de tratar de algunas de las objeciones, apuntadas por Leibniz, y prometer algún procedimiento para estimar probabilidades «a posteriori» mediante una inversión de su teorema, da la demostración directa y termina sin más el «Ars Conjectandi».
Durante el siglo xviii no hay ningún indicio de explicitar el uso de la inversión del teorema de Bernoulli. Las investigaciones de D'Alembert, Daniel Bernoulli y otros, se orientan al estudio de las condiciones de aplicabilidad del teorema directo. Laplace supone, sin prueba, una inversión del teorema.
El análisis bayesiano actual da la siguiente respuesta al problema de la inversión: si
la probabilidad «a priori» de un suceso es p, su aparición x veces en n pruebas es

Que
p, considerada como variable, adquiera un valor determinado, constituye una hipótesis
cuya «verosimilitud» es 
Los diversos valores de p constituyen una clase completa de hipótesis. Se torna así al clásico problema de la «Probabilidad de las causas». Considerada p corno una variable aleatoria de, densidad f(p), el teorema de Bayes da la probabilidad «a posteriori» de que p esté entre dos números, p' y p", después de haber observado x veces el suceso en n pruebas:

Como
f(p) está acotada, f(p)=0, para p fijo. Además

Luego la convergencia de las integrales de la expresión anterior queda asegurada, lo cual permite calcular la probabilidad a partir de la frecuencia. Queda, naturalmente, abierto el problema de la determinación de
f(p) al que intenta responder al análisis bayesiano.
A efectos de nuestra tesis, el punto esencial que hay que señalar es que las probabilidades «a posteriori» presuponen el conocimiento, no solo de las verosimilitudes, sino también de las probabilidades «a priori». Ambos conocimientos implican inducciones primarias, por lo que la inducción obtenida, al ser secundaria, no sirve a la solución del problema de la inducción.
En el caso en que la distribución «a priori» sea uniforme en (0, 1) es f(p)= 1 y la densidad «a posteriori» de p, después de n observaciones, tiene un máximo para x/n. Es el caso aplicado por Laplace a la solución del problema.
3. Laplace toma como ejemplo en su disertación el mismo utilizado por Hume, expresado por la ley: «EI sol saldrá todas las mañanas». La argumentación empleada es del tipo «Si B también A; si el sol ha salido todas las mañanas hasta ahora, seguirá saliendo en lo sucesivo».
Según Laplace, se puede considerar la posesión del atributo A por un objeto que es un B, como suceso aleatorio. Se asimila así la ley a una serie de extracciones de bolas de una urna cuya composición sea constante. En su «Essai philosophique sur les probabilités» (1814), cap. III, 7. ° principio, enuncia: «La probabilidad de un suceso futuro es la suma de los productos de las probabilidades de cada causa extraída del suceso observado, por la probabilidad de que, existiendo esta causa, ocurra el suceso futuro». Pone a continuación un ejemplo que, generalizado, conduce a esta regla: Si el suceso ha ocurrido siempre en n ocasiones, la probabilidad de que se verifique siempre en una serie de m pruebas, es
                                                   
El caso m =1, en que la probabilidad toma el valor (n + 1) / (n + 2), fue bautizada por Venn (Venn, J., 1880) con el nombre de regla de sucesión de Laplace.
La prueba de esta sucesión puede hacerse brevemente así: Sea p la probabilidad «a priori» de un suceso en condiciones dadas. La probabilidad de que el suceso ocurra m veces en esas condiciones y falle en otras n ocasiones es pm (1 - p) n. Luego, la probabilidad «a posteriori» de m ocurrencias del suceso en m+ n pruebas, de que p esté entre p y (p + dp),

Por lo tanto, la probabilidad de que el suceso ocurra en la (m+n+1)-ésima prueba habiendo ocurrido m veces en m+n, es

Para n= 0, esto es, cuando el suceso ha ocurrido invariablemente, la fórmula es (n+1) /(m+2). En el caso en que las condiciones del suceso han dado una sola vez y este ha ocurrido, el resultado es 2/3. Si las condiciones del suceso no se han dado nunca, la probabilidad del suceso es 1/2, y en el caso en que las condiciones se dieran una sola vez y el suceso no ocurriera, la probabilidad sería 1/3 (resultado totalmente absurdo).
Aparte estas absurdidades, la fórmula de Laplace involucra la teoría de «probabilidades desconocidas» introducidas por él como suplemento del principio de indiferencia, con toda la problemática que ello encierra. Las objeciones hechas a esta fórmula son muchas. Con respecto a la demostración anterior hay una que aparece enseguida: Si p es la probabilidad «a priori» de haber acaecido una vez, pn es la probabilidad de haber acaecido n veces sucesivamente. Ahora bien, del propio teorema se deduce que, si ocurre una vez, modifica la ocurrencia de la vez siguiente, luego las sucesivas ocurrencias no son independientes. Así, si la probabilidad «a priori» es 1/2, la probabilidad de la segunda ocurrencia es 2/3, luego, la probabilidad «a priori» de ocurrencia dos veces es, no 1/2 * 1/2, sino 1/2*2/3 = 1/3; y, en general, la probabilidad «a priori» de su ocurrencia n veces no es (1/2) n, sino 1/ (n + 1).
Las primeras críticas a esta regla provinieron del propio Venn en la obra citada, por no estar de acuerdo, según él, con la experiencia. Pearson, que la acepta, resuelve estas discrepancias. Es rechazada también por Boole (1854) que dice se basa en hipótesis arbitrarias, por Bertrand (1889), que niega su aplicabilidad al caso de un número finito de alternativas, y que la califica de ridícula, etc. En cambio, merece la aprobación, entre otros, aparte de Pearson, de De Morgan, Jevons, Lotze_y Czuber.
Con respecto a la materia que nos ocupa, la crítica ha de centrase e si es o no coherente reducir el problema de la inducción a la cuestión de determinar una probabilidad desconocida, aunque constante. Supuesto aceptable la introducción de probabilidades «a priori», se mantiene la hipótesis de que B da a la posesión de A una probabilidad determinada. Esto es, el razonamiento de Laplace supone que entre B y A existe una implicación probable: Si .x es un B, hay una probabilidad de que x sea un A. Ahora bien, para que este razonamiento lleve a alguna conclusión con cierta validez es preciso que B determine A (al menos en términos probables) y que sea B el único factor determinante de A. Está claro que estas suposiciones implican una inducción previa, con la que se vuelve a caer en un círculo vicioso.
Hagamos una observación final. Tanto en la regla de sucesión de Laplace, como en el teorema de Bernoulli, como en cualquier investigación con base estadística, el uso de muestras aleatorias es imprescindible. Las diversas técnicas de selección de estas muestras ponen especial énfasis en eliminar todo factor de naturaleza causal que pueda dar lugar a algún sesgo. La carencia de todo sesgo en la elección es lo que garantiza el carácter aleatorio de la muestra. Los diversos procedimientos para la obtención de muestras aleatorias parten, pues, de la hipótesis de que eliminan todo factor causante del sesgo ¿hasta qué punto podemos estar ciertos de que estas hipótesis se cumplen? Aún en el caso de que se cumplan, ¿no están presuponiendo un conocimiento previo difícil de adquirir por la vía de la inferencia estadística? Nuevamente nos vemos recurriendo un cambio que termina en el punto de salida.
Concluimos, pues, que la aplicación de los métodos matemáticos a la solución del problema general de la inducción estadística es inválido. Los métodos que analizamos a continuación, ligados a los nombres de Lexis, Von Bortkiewicz y Tschuprow, nos parecen más en consonancia con los principios de una sana inducción.
4. Bortkiewicz (1905) considera que fue Lexis «el primero en establecer la conexión integral» entre la teoría estadística y la teoría de la probabilidad. Parece, con todo, que se hicieron conexiones iniciales con anterioridad. Así, Davidov (1855 b) contrastó la significación estadística de varias discrepancias empíricas y en otro trabajo (1885 a) expuso que «el excesivo desarrollo» de la Estadística y sus deducciones, a menudo infundadas pueden mancillarla y que el instrumento más fiable para eliminar «deducciones inmaduras» es una discusión de los datos iníciales con verificación probabilística. Uno de sus instrumentos probabilísticos de verificación era el teorema límite de De Moivre-Laplace.
Cournot (1843), cuyos trabajos sobre probabilidades han sido poco divulgados, razona sobre la posibilidad de «contaminar» la estadística, contrasta el significado de discrepancias empíricas y considera la ley de los grandes números, según la formulación de Bernoulli, como base fiable para conectar estadística con probabilidad.
Todos los estudios de estadística social, desde Graunt hasta Quetelet habían prestado especial atención a la estabilidad de las frecuencias en series estadísticas, a la proporción de nacimientos de ambos sexos, al grado de constancia de las razones entre distintas partes de una misma serie de observaciones, así como a sus valores promedios con respecto a la media total de la serie. Con todo, Quetelet afirmó frecuentemente la existencia de estabilidad, basado en insuficiente evidencia, y cayó en lamentables errores por su afán de imitar en demasía los métodos de Laplace. Hubo que esperar al último cuarto de siglo xix para que este nuevo modo de enfocar la Estadística teórica fuera cimentado y lograra la sistemática y la técnica que hasta entonces le había faltado, y para que, en consecuencia, prevaleciera el método inductivo.
EI fundador de esta escuela fue Wilhelm Lexis, cuyas teorías fueron expuestas en una serie de artículos y monografías publicados entre los años 1875 y 1879. Durante algunos años las ideas fundamentales de Lexis no atrajeron mucha atención, y hasta él mismo pareció olvidarse de ellas y dirigió sus estudios en otras direcciones. Pero pasados dos años, se produjo una abundante literatura en torno los escritos de Lexis, principalmente en Alemania, la cual clarificó sus ideas, pero que apenas aportó nada nuevo, si exceptuamos la obra de Ladislaus Bortkiewicz, quien no sólo interpretó magistralmente las ideas de su maestro, sino que las incrementó notablemente.
Lexis concibió la teoría con una orientación clara hacia los estudios de la proporción de sexos y de la mortalidad. Este particular enfoque de sus trabajos pudo ser la causa del olvido en que se lo tuvo durante años.
La lógica y la filosofía de la probabilidad que inspira a los escritores de la escuela de Lexis coincide con la de Von Kries, quizá como reacción común contra la tradición laplaciana: el elemento aglutinante es una tendencia a encontrar la base de la probabilidad en consideraciones físicas más bien que lógicas.
Siguiendo un análisis hecho por Bortkiewicz (1896) podemos sintetizar las ideas de Lexis de este mudo. Supongamos que se hace un conjunto de observaciones sobre varios grupos de sujetos a los que son aplicables distintas frecuencias con respecto al carácter que se investiga. Si z es el número total de observaciones, zi/z de ellas pueden pertenecer al grupo i-ésimo, según lo cual, dada la frecuencia, la probabilidad «a priori» del carácter bajo observación, en un caso particular, sería pi. En este caso, dadas las frecuencias para todos los grupos particulares, la probabilidad p, para el grupo total agregado, se obtendría así:

Llamamos probabilidad general a p y probabilidades especiales a las, pi. Pero las probabilidades especiales pueden, a su vez, ser generales, de modo que puede haber más de un modo de resolver una probabilidad general en probabilidades especiales.
Si p1 = p2 =... = p, se dice, en terminología de Bortkiewicz, que p es indiferente. Si p es indiferente para todas las «resoluciones» concebibles, Bortkiewicz dice que tiene una interpretación definitiva. AI tratar con probabilidades «a priori» podemos resolver una probabilidad hasta lograr las probabilidades especiales de cada caso particular; si hallamos que todas estas probabilidades especiales son iguales, aparece claro que Ia probabilidad general satisface la condición de tener interpretación definitiva.
Hemos tratado hasta ahora de probabilidades «a priori», pero el objeto del análisis ha arrojado luz sobre el problema inverso. Necesitamos descubrir en y qué condiciones puede considerarse una frecuencia observada como adecuada aproximación de una probabilidad «general definitiva».
Si p´ es el valor empírico de p dado por una serie de n observaciones, podemos poner:
Aún en el caso de que este modo particular de resolver la serie de observaciones sea indiferente, las frecuencias actualmente observadas p1, p2, …, pueden ser distintas, ya que por influencia del azar pueden fluctuar en torno a la norma p'. Pero si n1, n2, ..., son grandes, puemos aplicar el teorema de Bernoulli para indagar si, dada la norma , las divergencias de ella con respecto a los valores p1, p2, ..., están dentro se los límites razonables atribuibles al azar, de acuerdo con las hipótesis bernoullianas. Con todo, solo podemos construir un argumento correcto a favor de una probabilidad definitiva p´ si «resolvemos» el agregado de observaciones en subseries de una gran variedad de modos, aplicando cada vez los cálculos anteriores. Aun así, permanecerán sombras de duda, como ocurre en todo argumento de naturaleza inductiva.
Bortkiewicz llama probabilidades elementales a las que tienen interpretación definitiva. Ahora bien, las probabilidades que surgen en investigaciones estadísticas no son de este tipo y pueden ser denominadas probabilidades promedio. Esto es una serie de probabilidades empíricas (frecuencias) no se agrupa, por lo general, como si estuviera de hecho sujeta a una probabilidad elemental. Supongamos, por ejemplo, que queremos inferir que la probabilidad de un nacimiento masculino es m y que disponemos de datos estadísticos sobre proporciones de nacidos por sexos de todas las partes del mundo durante una larga serie de años. Supongamos que calculamos la media ponderada de la frecuencia de nacimientos masculinos y hallamos que es m. ¿podríamos argüir, basados en este resultado que la media frecuencial de nacimientos masculinos en España será m durante los próximos años? Esto implicaría la hipótesis, no justificada, de que la probabilidad empírica m es elemental para cualquier resolución dependiente del espacio y del tiempo, y que no es una probabilidad promedio compuesta de una serie de grupos referidos a distintos tiempos o lugares, a cada uno de los cuales es aplicable una distinta probabilidad especial. Sería presuponer que las variaciones del tiempo y de lugar son irrelevantes sin apelar, para establecer estas suposiciones, al empleo de métodos analógicos, positivos y negativos.
Deberemos, pues, separar el material estadístico en grupos por fechas, lugar y toda otra característica que la generalización buscada considere como relevante. Obtenernos así un número de frecuencias 1, m´2, m´3, ..., m´´1, m´´2, m´´3, etc., que se distribuyen en torno al promedio frecuencial m. Por simplicidad, consideremos que las series de frecuencias 1, m´2, m´3, ..., corresponden a la clasificación por fecha de nacimientos. Si las divergencias observadas entre estas frecuencias y su media no son significativas, tenemos los comienzos de un argumento inductivo en base a considerar la fecha como irrelevante.
Lo más característico de la aportación de Lexis es que centró su atención en la naturaleza de la dispersión de las frecuencias 1, m´2, m´3, ..., en torno al valor medio m. Estudió los varios tipos de dispersión y, entre ellos, encontró uno claramente distinguible de los demás, cuya peculiaridad es que los valores individuales fluctúan de modo «puramente aleatorio» en torno a un valor constante fundamental. Llamó a este tipo dispersión típica («typische»). Quiso significar con esto que la dispersión se ajustaba aproximadamente a la distribución, que vendría dada por alguna ley normal de error.
La siguiente etapa de la argumentación de Lexis consistió en introducir una media de la dispersión obtenida dividiendo el error cuadrático medio de la serie empírica por el error cuadrático medio de la serie teórica, deducida en la hipótesis de que sólo intervengan componentes accidentales. De aquí surgía el problema de valorar la desviación respecto a la actitud bernoulliana, esto es, de calcular la probabilidad de realizarse entre los límites de la variabilidad accidental espontánea.
En coherencia con las medidas experimentales de Laplace y Bessel, el criterio Lexiniano presuponía desviaciones sistemáticas «grandes» y desviaciones accidentales «pequeñas» y utilizaba la probabilidad directa como probabilidad inversa.
Tschuprow (1905) modificó el coeficiente de dispersión de Lexis. Tschuprow lo expresó como cociente de un módulo «físico» por otro «combinatorio»: Q= P/C, donde
siendo M el número de casos en cada grupo, n el número de grupos, pk la frecuencia para el grupo k y p la media de las n frecuencias.
Los trabajos más interesantes de Lexis sobre Estadística inductiva están recopilados en «Abhandlugen» (1903).
Con Lexis, Bortkiewicz y Tschuprow quedaba abierta la puerta a la teoría de la «significación».

Referencias Bibliográficas

BERNOUILLI, D.: «The most probable choice between several discrepant observations and the formatiso there  from of the most likely induction», 1977. En Studies..., por Pearson y Kendall.
BERTRAND, J.: Calcul des probabilités. Paris, 1889.
BLACK, M.: Inducción y probabilidad. Ed. Cátedra. Madrid, 1970.
BOOLE, G.: An Investigation of the Laws Tnought, London, 1854.
BORTKIEWICZ, L, von: Kritfsch Betrachtungen zur theoretlschen Statistik. U. Stat Jahrb. f. Nationalok, vol. II, 1896.
BOSCOVICH, R. G.: (In Maire, C., and Boscovich). De litteraria expeditionem ad dimetiendos duos meridiani gradus. Roma, 1755.
COURNOT, A. A.: Exposition de la théorie des chances et des probabilités. París, 1843.
COTES, R.: Aestimatio errorurn in mixta mathesi, per variationes particum triangulo plani et spherici. Opera Miscellanea. Cantabrigiae, 1722.
GALTON, F.: «Regresion towards mediocrity in Hereditare Stature. J. Antro. Inst., 15, 246, 1877.
GAUSS, C. F.: Theoria motus carparum coelestium. Hamburgo, 1809.
--: Disquisitio Palladis. Góttingen, 1810.
-: Theoria combinationis observatíone erroribus minimi omnoxiae. Comm. Soc., vol. V, 33. Gottingen,  1823.
KEYNES, J. M.: A Treatise on Prabability. MacMillan. London, 1921.
LAGRANGE, J. L.: «Memoire sur l´utilité de la méthode de prendre le milieu des resultats de plusieurs observations, etc.». Miscellanea Taurinensia, 5, 167, 1970-1973.
LAPLACE, S. P.: «Determiner le milieu que l'on doit pendre entre trois observations données d'un méme phenoméne». Mem. Acad., 4, 634. Paris, 1774.
LEGENDRE, A. M.: Nouvelles méthodes pour la determination des orbites des cométes. París, 1805.
--: «Méthode des moindres carrés». Mem. de Inst. París, 1810.
MAYER, T.: Abhandlung uber die Umwalzung des Mondes um seine Axe Kosmo-graphische Nachrichten un Summlung.
MOIVRE, A. de: The Doctrine of Chances, 3ra ed., Printed for A. Millar, 17S6.
MORTMONT, P. R.: Essay d'Analyse sur les Jeux de Hazard. París, 1713.
PEIRCE, C. S.: Collected Papers, t. II., p. 421, 1932.
PLACKETT, R.: «A historical note on the method of lsast Squares». Biometrica, 36, 1936.
POISSON, S. D.: Recherches sur la probabilité des jugements en matiére civile, precedées des régles generales du calcul des probabilités. París, 1837.
QUETELET, A.: Lettres sur la Théorie des probabilités. Bruselas, 1844.
-: «Recherches sur le penchant au crime aux differentes áges» . Memoire Nouveaux de la Ac. Sci. et L. Bruselles, 1852.
SUSMILCH, JP: El orden divino en los cambios de la raza humana del ADN, desde el nacimiento, hasta  el momento y la reproducción del mismo, 1765.
VENN, J .: La lógica del azar. Nueva York: Chelsea. (Reimpresión de 1888 ed., Publicado por MacMillan. Londres, 1962).

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería