ESTADÍSTICA
ESPAÑOLA
Núm. 98,
1983, págs. 9 a 29
por SEGUNDO
GUTIERREZ CABRIA.
Departamento de Estadística e Investigación Operativa.
Universidad
de Valencia
RESUMEN
Se estudia en este trabajo el
desarrollo de la influencia estadística en el período que va desde los trabajos
de John Arbutnot (1714) hasta los de Lexis (1875-1879). Desde que se atisban
los primeros pasos de la inferencia se observan dos tendencias en su concepción:
una, basada en el método hipotético-deductivo, tomaba como base las
probabilidades directas; otra, inspirada en la inducción científica, apuntaba a
las probabilidades inversas y tuvo dos fases. En la primera, obtención de
probabilidades por medio de frecuencias, fracasaron los intentos de Bernoulli y
Laplace. La segunda, inferencia, en términos de probabilidad, de frecuencias
mediante otras frecuencias, se desarrolla a partir de Lexis, y es el punto de
partida de la estadística moderna.
Palabras clave: Inducción
estadística, método hipotético-deductivo, probabilidad directa, probabilidad
inversa, principio de mínimo, frecuencia, estabilidad de las frecuencias.
l. LA ESTADÍSTICA HIPOTETICO-DEDUCTIVA DE LOS SIGLOS XVIII Y XIX Y LAS PROBABILIDADES DIRECTAS
1. Se cree,
no sin fundamento, que el primer cálculo estadístico de naturaleza inferencial es
el contenido en un informe presentado en la Royal Society, el año 1710 por John Arbutnot, médico de la corte,
quien creyó ver un testimonio de la Divina Providencia en la regularidad
constante que se observaba entre los nacimientos de ambos sexos. Arbutnot
asimilaba, en una serie de nacimientos acaecidos en Londres desde 1629 hasta
1710, la prevalencia numérica del sexo masculino a la aparición de cara cuando
se lanza la moneda. Como el exceso de varones a lo largo de los años era un suceso
con escasa probabilidad, rechazaba la hipótesis de azar «Es arte y no
casualidad, escribía, lo que interviene en los nacimientos» (1712).
Nicolás Bernoulli, en carta que dirige
a Pierre Remond de Mortmont, el 23 de enero de 1713, le dice: «Os envío el
catálogo de niños de ambos sexos nacidos en Londres desde 1629 a 1710, con mis
demostraciones de lo que os he escrito con respecto al argumento por el que se quiere
probar que es un milagro que los números de niños de cada sexo nacidos en
Londres no se hayan alejado unos de otros durante ochenta y dos años seguidos, y que por el azar sería imposible
que durante tan largo tiempo se hubieran encerrado en tan estrechos límites,
como los observados en esos ochenta y dos años. Pretendo que no hay lugar a
la extrañeza, y que hay una gran probabilidad de que el número de varones y
hembras caiga entre límites más pequeños que los observados.»
De
Moivre se hizo eco de esta controversia, y señaló que los argumentos de N. Bernoulli
no se adecuaban a los avanzados por el doctor Arbutnot. De hecho, se trataba de
dos tesis contrapuestas: la que propugnaba una causa superior y la que atribuía las discrepancias
al azar. La primera abría pasa a la Estadística Inductiva; la
segunda apuntaba al problema de las probabilidades directas, consagrado
luego por la ley de los grandes números. La carta antes citada termina,
efectivamente, con estas palabras: «Recuerda que mi tío (Jacobo) ha demostrado
algo semejante en su Tratado "De Arte Conjectandi" , que se
imprime actualmente en Basilea, esto es, que si se quiere descubrir por
experiencias reiteradas el número de casos con que un cierto suceso puede ocurrir
o no, se puede aumentar el número de observaciones, de tal suerte que al final la
probabilidad de que hayamos descubierto la verdadera relación existente entre
el número de casos, sea mayor que una probabilidad dada. Cuando este libro
aparezca, veremos si en esta clase de materias he encontrado una aproximación
tan justa como él.» (Mortmont, 1713).
2. Creo, con todo, que no hay
antecedente más clásico (y más conocido) del análisis estadístico inductivo que
el llevado a cabo por Maupertius en 1752. Estudiando durante cuatro
generaciones una genealogía familiar, había encontrado en sus miembros más
dedos de los corrientes. Mediante cálculos demostró que un conjunto tal de anomalías
en consanguíneos no podía ser atribuido al azar. Es ésta quizá la primera formulación
probabilística coherente del método hipotético-deductivo: formulación de
un modelo hipotético mediante una inducción a partir de los datos
y deducción, a partir del modelo, de unas consecuencias, todo en un
ambiente de incertidumbre y con validez probable. Como buen newtoniano,
Maupertius había calculado una probabilidad directa y la utilizaba como
probabilidad inversa.
3. Tan pronto como el cálculo de probabilidades empezó a tomar forma definitiva,
los matemáticos se interesaron en la aplicación de los conceptos
probabilísticos al estudio de las discrepancias en las observaciones.
Nueve años después de la aparición del
«Ars conjectandi», Roger Cotes (1722), en un trabajo sobre la estimación
de errores en medidas trigonométricas, discutió lo que hoy llamaríamos «un
problema de estimación en el plano». Sean p, y, r, s cuatro
determinaciones distintas de un punto o,
con pesos respectivos, P, Q, R, S, inversamente proporcionales a las distancias
a o (pondera reciproce proporcionalia
spatiis evagationum). Asignemos los pesos, P, a p, etc., y hallemos
su centro de gravedad z. Este centro,
dice Cotes, es la posición más probable de o.
Cotes no dice el porqué de esta afirmación, ni cómo llegó a esta regla.
Según Laplace, este resultado de Cotes
no fue aplicado hasta que Euler (1749) lo utilizó en un trabajo sobre
irregularidades en el movimiento de Saturno y Júpiter.
4. Otros intentos de resolver el mismo
problema fueron hechos por Mayer (1750) y Boscovich (1755), el
primero sobre libración lunar y el segundo en el cálculo de la órbita elíptica
de la Tierra. En todo este tiempo de mediados del siglo xviii hubo gran
preocupación por los errores de observación. Las ideas eran puramente
intuitivas, y venían expresadas en términos oscuros, pero los problemas más
importantes fueron ya planteados. Así, Simpson (1757) aludía a una opinión
corriente entonces de que una buena observación era tan precisa como la «media»
de un conjunto de datos, y el mismo Laplace (1774), en su gran Memoria, se
mostraba cauto respecto al uso de la media, cuando afirmaba que para algunas
distribuciones de errores podía haber estimaciones mejores que la media, como,
por ejemplo, la mediana.
5. El primero en introducir el
concepto de distribución de errores y en considerar distribuciones continuas
fue Simpson (1756, 1757). Pero como todos sus contemporáneos consideraba
inevitable establecer estas condiciones: las distribuciones debían ser finitas
y de rango finito. Simpson obtuvo una distribución triangular continua y
mediante ella probó que la media aritmética es preferible a una simple observación,
y llegó a deducir la probabilidad de un error dado para la media aritmética, en
el caso límite. En una Memoria (1700-1703), Lagrange reproduce, sin
citarlos, los trabajos de Simpson, pero las aportaciones de Lagrange son de
interés más analítico que probabilístico. Sobre el uso de la «media aritmética»
se recomienda la lectura del trabajo de R. L. Plackett (1919).
6. En las actas de la Academia de San
Petesburgo apareció en 1777 una Memoria sobre «La elección más probable entre
varias observaciones discrepantes y la formación, a partir de ellas, de la
inducción más verosímil», presentada en latín por Daniel Bernoulli, seguida
de un comentario por L. Euler. Una fotocopia de este documento figura en
la biblioteca de la Royal Statistical Society de Londres.
Influido por la idea de que una distribución
de los errores debe tener rango finito, Bernoulli supone que esta distribución
es semicircular y debe terminar abruptamente en sus extremos. Con estos
supuestos, su formulación de máxima verosimilitud es clara y explícita, y se
deduce de las que hoy llamaríamos «ecuaciones de máxima verosimilitud »,
deducibles por derivación de la función de verosimilitud de la muestra «lo que sucede
en el curso de una observación particular, escasamente lo conocemos "ex
hipótesis", pero esta profunda ignorancia será el refugio en el que somos
forzados a guarecernos cuando tomamos partidos, por lo que no es verdadero sino
verosímil, no cierto sino más probable (non verossimum sed verosimillimum, non
certum sed probabilissimum), como enseña la teoría de la probabilidad. Si
esto es siempre y por todas partes idéntico a la media aritmética, usualmente
aceptada, es cosa que puede ser razonablemente puesta en duda» (D. Bernoulli,
1777).
En el párrafo 16 de esta Memoria, Bernoulli
se aproxima al principio de mínima varianza.
En su comentario, Euler señala que el
principio de máxima verosimilitud es arbitrario, en el sentido de que no hay
razón lógica para creer que las observaciones provengan de un sistema generador
que les otorgue máxima probabilidad. Se extiende luego en una serie de
contraargumentos a algunos de los razonamientos expuestos por Bernoulli, para
nosotros no totalmente convincentes. Pueden verse en la Memoria citada. No hay que
olvidar que Euler tenía entonces setenta y un años y estaba ya casi ciego.
7. No deja de
ser sugestivo que el teórico de la probabilidad inversa, P. S. Laplace, verificase, en
1789, la hipótesis que afirma que los cometas pertenecen al sistema solar,
basada en el esquema lógico de D. Bernoulli, que contempla únicamente
probabilidades directas en perfecta concordancia con el razonamiento
hipotético-deductivo. La teoría clásica de errores empieza de este modo a
apoyarse, con Laplace, en la ley de los grandes números. Parece que había llegado
el momento de la unión de la Estadística con el cálculo de probabilidades. Pero
esto no fue así, y hubo que esperar casi un siglo hasta que este casorio
definitivo se consumara. En efecto, Gauss, en su «Theoria motus corporum
coelestium» (1809), razona sobre las propiedades probabilísticas de los errores aleatorios,
a los que asigna una distribución empírica, con olvido total de la ley de los
grandes números. La razón de este hecho hay que buscarla en el divorcio
existente entonces entre el concepto de error de observación aleatorio y
cantidad aleatoria. Una definición de cantidad aleatoria no se dio en la teoría
clásica de la probabilidad. Hubo que esperar a la segunda mitad del
siglo XX para que se definiesen cantidades «dependientes de azar» y poseyendo
ciertas leyes de distribución.
Los errores aleatorios fueron
considerados por Gauss, en su obra «Theoria combinationis observationum
erroribus minimis obnoxiae»
(1826), con ciertas propiedades probabilísticas, pero a la distribución de esas
probabilidades no le dio ninguna importancia.
En el apéndice de su obra «Nouvelles
Méthodes pour la Determination des Orbites des Cométes» (1805), Legendre escribe
que en problemas en los que es necesario extraer conclusiones lo más exactas
posibles de medidas de observación, «casi siempre» se llega a un sistema de
ecuaciones de la forma
donde las Zj;
son «coeficientes» conocidos, las Xi; son medidas, las bj
son las «incógnitas» y los li son los «errores». Gauss,
en «Disquisitio Palladis» (1810),
adoptó un modelo análogo al anterior. EI objetivo de Legendre era «determinar»
(para nosotros, estimar) las q incógnitas (para nosotros, parámetros), bj,
de modo que cada «error» (para
nosotros, residuo) llegue a hacerse muy pequeño y los «errores extremos» se
conserven dentro de estrechos límites, independientemente del signo. El principio
que propuso para obtener esta
«determinación» era la minimización, por variación en las bj,
de la suma de los cuadrados de los «errores»
li.
La primera discusión del modelo de
Legendre en la que fue considerada explícitamente la distribución de
probabilidad de los errores li;
apareció en la «Theoria Motus», de Gauss, en donde suponía que, con una
distribución uniforme «a priori» del parámetro de posición, la «moda» de la
distribución a posteriori de N medidas (errores) independientes era la media
aritmética de aquellos errores. De acuerdo con esto, halló que la distribución
de errores, supuesta continua, era necesariamente de forma normal. EI modelo lineal
[1] era así el adecuado para el caso en que los li; son muestreados independientemente de una población normal, con
media cero y varianza σ2.
EI principio de «mínimo» sugerido por
Legendre recibe el espaldarazo de Gauss, quien en su «Theoria Combinationis»
escribe: «Determinar una magnitud, por medio de observaciones, es como un juego
en el que hay riesgo de perder sin esperanza de vencer... La magnitud de la
pérdida debe ser valorada mediante una función de los errores, siempre
positiva. Entre el infinito número de funciones que satisfacen estas
condiciones parece natural escoger la más simple, la cual es sin
contradicción “el cuadrado del error”. Había nacido la teoría de la
estimación.
8. La preocupación por el análisis
probabilístico de los datos empíricos había desbordado el ámbito
físico-astronómico. Un ejemplo ilustrativo lo tenemos en el intento de creación
del método numérico por el médico francés Louis (1787-1872),
dentro de la escuela anatomo-clínica de Paris, empeñada en constituir la
medicina como ciencia. Louis descarta sistemáticamente toda especulación
apriorística, procurando limitarse a la obtención de datos a partir de las
relaciones numéricas entre los fenómenos patológicos y los resultados terapéuticos
en que «ya no podemos seguir diciendo: esto lo he visto a menudo; sino que
debemos decir: esto lo he visto con tal frecuencia».
E1 programa de Louis fue concretado y
desarrollado por su discípulo y colega Jules Gavarret (1809-90), quien
publicó en 1840 la obra titulada «Principios generales de Estadística médica».
Gavarret estableció, influido por Poisson y Laplace, que estando toda
observación médica favorecida por un cierto número de circunstancias y contrarrestadas
por otras, debe someterse al Cálculo de Probabilidades.
Era éste un modo de razonamiento
audaz, que provocará la risa presuntuosa de muchos. Pero será el movimiento
biométrico, basado en principios más profundos de la probabilidad, el que dará
paso a una nueva metodología inferencial, que crecerá sin tregua hasta nuestros
días, constituyendo un cuerpo formalizado y complejo.
Desde los tiempos en que Augusto de
Comte juzgaba el análisis probabilístico de los hechos reales como «una aberración
científica» había pasado mucha agua bajo los puentes de la Ciencia. Los
epistemólogos empiezan a tomar conciencia de las técnicas estadísticas, que
fundadas «en conceptos en modo alguno invulnerables, desde el punto de vista
del rigor..., se han impuesto poco a poco en casi todos los ramos del saber
moderno, hasta constituir hoy uno de los instrumentos más eficaces, destinado
presumiblemente a sustituir aquellos otros clásicos que se movían en la
rigurosísima matemática del continuo», según frase de Geymonat (1960).
9. Estos primeros procedimientos
inductivos de la Estadística, basados en el cálculo de probabilidades directas
y en coherencia con el esquema hipotético-deductivo de la tradición científica,
consistían en deducir las consecuencias (no necesariamente univocas) de
una hipótesis y en confrontarlas con los datos concretos, buscando
criterios generales para valorar el grado de conformidad. La formulación de las
hipótesis se hacía naturalmente en lenguaje probabilístico, el cual se ajustaba
a la metodología de una ciencia desde entonces liberada de los estrechos
cánones determinísticos de la realidad natural.
El método hipotético-deductivo caló
muy hondo en la inferencia estadística inicial y ha impreso en ella una huella de prudencia que ha conservado
en el curso del tiempo y que la lleva a guardar provisionalmente toda hipótesis
que no se ha logrado refutar (es el «argumentum ad ignorantiam» de la lógica
clásica), Los datos que explican una hipótesis pueden estar de acuerdo también
con otra. De suerte que, a la aseveración de una verdad conforme con una
evidencia empírica, corresponde siempre una falacia lógica de la que puede
sustraerse, si la prueba de una hipótesis es también la desaprobación de las
hipótesis rivales. De muchas de estas falacias dará cuenta la historia de la
ciencia.
Tal el caso de Adolfo Quetelet (1844), el cual veía en el ajuste del modelo
«binomial» a las distribuciones de muchos caracteres morfológicos un indicio de
conformidad de las discrepancias somáticas, observadas en los seres vivos,
con el modelo gaussiano de distribución
de los errores en torno a un valor medio. Atribuía estas desviaciones al influjo
de factores ambientales, referidas a un tipo biológico bajo otros aspectos
invariables. La ley distributiva
era considerada como expresión de un sistema en equilibrio estático en torno a
su propio centro de gravedad, «el tipo». Pero la conformidad del modelo con los datos empíricos, en modo alguno
excluía otras hipótesis, en aquellos tiempos inadmisibles. En efecto, más tarde,
con Mendel, y sobre todo con
Johannsen, aparecerán otros paradigmas interpretativos de esas variaciones
observadas.
Tal también el intento de Galton (1877)
de probar la herencia de características métricas en diversas especies de seres
vivos, basado en la concordancia de medidas realizadas en ascendientes y
descendientes. Se trataba de una adaptación de los datos a una regulación
hipotético deductiva, confirmada por la ciencia posterior como correcta, pero
que pudo muy bien resultar una falacia, si se admite que las mismas
observaciones pudieran verificar una premisa distinta.
2. INFERENCIA ESTADISTICA
Y LEY DE LOS GRANDES NUMEROS
1. Hay una gran diferencia entre la
proposición «Es probable que todo caso de esta generalización es verdadero» y
la proposición «Es probable que cualquier caso de esta generalización, tomado
al azar, es verdadero». La última proposición puede permanecer válida aun
cuando algunos casos de la generalización sean falsos.
EI primer tipo de proposición
pertenece a la inducción universal; el segundo pertenece a la inducción
estadística.
Lo característico de la probabilidad,
cualquiera que sea su interpretación (y no sólo la frecuencialista), es su
conexión, no con un simple hecho, sino con una serie de hechos, y esto,
pensamos, es también característico de la inducción estadística. Una inducción estadística,
o bien afirma la probabilidad de un hecho, elegido al azar de una serie
de proposiciones, o bien asigna la probabilidad a la aserción, según la cual la
verdadera frecuencia de una serie de proposiciones (esto es, la proporción de
proposiciones verdaderas en la serie) está en el entorno del verdadero valor.
En todo caso, se está aseverando una característica de una serie de proposiciones
y no de una proposición particular. Mientras en la inducción universal
construimos nuestros argumentos mediante el examen de analogías positivas y
negativas, exhibidas en una serie simple de observaciones, la tarea
correspondiente en inducción estadística se basará en el examen de analogías positivas
y negativas presentadas por series de series de observaciones.
El análisis de inducción estadística
no es fundamentalmente distinto del correspondiente a la inducción universal,
pero es mucho más intrincado, como demuestra su evolución histórica y las
interminables polémicas que dividen el actual espectro de la Estadística.
2. Hay dos formas esencialmente
distintas de argumentar: por deducción y por reducción.
En la deducción se concluye su
premisa menor de un enunciado condicional y de su premisa mayor: si A, entonces
B; es así que A, luego B.
En la reducción, por el contrario, se concluye de un enunciado
condicional y de su premisa menor, su mayor: si A, entonces B; es así que B, luego
A.
La reducción puede ser progresiva y
regresiva. En la reducción progresiva se comienza por la premisa mayor
desconocida, según su valor de verdad y se procede hacia la premisa menor
conocida o comprobable. La reducción progresiva se llama también verificación.
Cuando la premisa mayor es una generalización
de la premisa menor, la reducción se llama inducción.
En la
actualidad no todos están de acuerdo con esta definición restrictiva de la inducción.
Así, Max Black (1979) define la inducción como «un argumento
no demostrativo, en el que la verdad de la premisa, aunque no entraña la verdad
de la conclusión, constituye una buena razón para aceptarla». Tales argumentaciones, para las que la conclusión
puede presuponer la existencia de individuos no presupuestados por las premisas,
son llamadas por Peirce (1932} «ampliativas».
Este ir «más allá de las premisas», que
son los hechos singulares de la experiencia (de ahí su carácter ampliativo), posibilita la inferencia de hechos
observados a hechos inobservados y, en particular, a la predicción del futuro.
3.- Los argumentos que utiliza la inferencia estadística se compendian en los tres
que exponemos a continuación.
a) Dada la probabilidad relativa a la evidencia de cada uno de los
sucesos de una serie o conjunto de sucesos, ¿cuáles son las probabilidades, con
respecto a la misma evidencia, de las diversas frecuencias observadas
de los sucesos de la serie total? Dicho de otro modo, ¿con qué frecuencia podemos
esperar la ocurrencia de un suceso en
una serie de ocasiones, dada su probabilidad en cada ocasión?
b) Dada la frecuencia con la que ha
acaecido un suceso en una serie
de ocasiones, ¿con qué probabilidad puede esperarse que ocurra en una ocasión
posterior?
c) Dada la frecuencia con la que ha ocurrido un suceso en una serie de ocasiones, ¿con qué frecuencia
puede esperarse probablemente
ocurra en una serie posterior de ocasiones?
En la
argumentación a) se supone conocida la premisa mayor, y se procede hacia la menor
desconocida. En realidad, es un caso de
deducción, pues, inferimos una
frecuencia estadística de una probabilidad «a priori» y su fundamento teórico es el teorema de Bernoulli
o de las probabilidades directas, conocido también como ley débil
de los grandes números. En el tipo de argumento b) estamos empeñados
en la operación inversa: calcular una probabilidad sobre la base de frecuencias
observadas. En el tipo c) intentamos pasar de una frecuencia estadística
observada, no a la probabilidad de una ocurrencia individual, sino a los
valores probables de otras frecuencias estadísticas no conocidas.
4. La idea básica que subyace en la
ley de los grandes números, esto es, el empleo de la media aritmética de un
conjunto de observaciones frente al empleo de observaciones simples, es muy
antiguo. Era la práctica común en los estudios de astronomía y geodesia, como
hemos tenido ocasión de ver en los trabajos de Halley y Cotes.
Si hemos de creer a Ore (1963), la
forma más rudimentaria de la ley de los grandes números es debida a Cardano,
quien verificó que en largas series de observaciones el número de
ocurrencias de un suceso en n pruebas independientes es
La impresión general es que la prehistoria de la ley de los grandes números contiene una comprensión de la naturaleza y uso de la fórmula [1] y de la media aritmética de un conjunto de observaciones. Pero la compilación y posterior formalización de estas ideas dispersas fue debida a Jacobo Bernoulli.Donde p de es la probabilidad constante de la ocurrencia de este suceso en una prueba.
La impresión general es que la prehistoria de la ley de los grandes números contiene una comprensión de la naturaleza y uso de la fórmula [1] y de la media aritmética de un conjunto de observaciones. Pero la compilación y posterior formalización de estas ideas dispersas fue debida a Jacobo Bernoulli.Donde p de es la probabilidad constante de la ocurrencia de este suceso en una prueba.
En la versión alemana del «Ars
Conjectandi» (1713), Bernoulli probó que cuando n tiende a x
Con anterioridad a la muerte de J. Bernoulli, pero antes de la publicación del «Ars Conjectandi», en carta dirigida a Montmort (de la que nos hicimos ya eco), Nicolás Bernoulli dedujo una estimación aproximada del promedio de una serie binominal, y tomando datas de Arbuthnot utilizó esta estimación para el razonamiento probabilístico acerca de las «regularidades constantes observadas en los nacimientos de ambos sexos».
Con anterioridad a la muerte de J. Bernoulli, pero antes de la publicación del «Ars Conjectandi», en carta dirigida a Montmort (de la que nos hicimos ya eco), Nicolás Bernoulli dedujo una estimación aproximada del promedio de una serie binominal, y tomando datas de Arbuthnot utilizó esta estimación para el razonamiento probabilístico acerca de las «regularidades constantes observadas en los nacimientos de ambos sexos».
La tendencia
a acumular información durante los siglos xvii
y xviii, tabulación de nacimientos por
sexo, etc., sacaran a la luz un nuevo hecho, ignorado anteriormente, esto es,
que cuando no hay asociación total el grado de asociación parcial muestra una sorprendente
regularidad, y que esta regularidad aparece más y más acentuada cuanto mayor es
el número de casos tomados en consideración. Así, se halló, por ejemplo, que niños y niñas nacen
en proporciones iguales, pero que estas proporciones (que no son completamente iguales entre sí)
tienden, por todas partes, a aproximarse hacia ciertos números, cuando el
número de observaciones es grande.
Sussmilch (1714) descubrió un interés teológico por estas
regularidades. Tales ideas debieron ser suficientemente familiares a Gibbon como
para caracterizar los resultados de una probabilidad como «ciertos en general y
falaces en particular», y Kant (como muchos escritores posteriores) los encontraba
como una aportación al libre albedrío.
El siglo xix
fue más osado en los métodos y más informado de los hechos. Después de probar
una extensión del problema de Bernoulli, Poisson
(1837) lo aplicó a conjuntos de hechos
observados y dio al «principio»
que subyacía en estas regularidades el título de ley de los grandes
números. En «Recherches» (1837) escribió estas palabras: «Les choses de toute nature sont soumises á
une loi universelle des grands nombres
est déjá pour nous un fait général et incontestable, résultant d'experiences
qui ne se démentent iamais».
Es el lenguaje de la exageración,
extremadamente vago pero excitante, abierto a un nuevo campo de la
investigación científica y que tuvo gran influencia en el pensamiento subsiguiente.
Poisson parece proclamar que en el mundo del azar existe realmente, en medio
del desorden aparente, un manifiesto «sistema». Las causas constantes actúan
siempre y se reafirman en las largas series de hechos, de suerte que los
diversos sucesos acaecen en una determinada proporción de casos observados. No
está claro en qué medida es una ley natural basada en la experiencia. En
todo caso, pone de manifiesto una cierta armonía entre la ley natural y el
razonamiento «a priori» de probabilidades.
5. Un posterior desarrollo de la ley
de Bernoulli condujo al teorema límite «De Moivre-Laplace».
Los trabajos de Ahraham de Moivre están
contenidos en su principal obra «Doctrine of Chances», aparecidas en 1718, 1738
y póstumamente en 1756, y en su libro «Miscellanea Analítica de Seriebes et
Quadraturis», publicado en 1730.
De la «Doctrine of Chances» son estas
líneas: «Si después de realizar un gran número de experimentos se percibiera
que los éxitos y los fracasos aparecen en una cierta proporción... deberá
concluirse que las probabilidades de éxito o de fracaso, en otro tiempo distinto,
serán muy próximas a esa proporción, y que cuanto mayor ha sido el número de
experimentos, más próxima a la verdad será la conjetura que se ha
derivado de ellos. Pero supongamos se dijera que, no obstante, la racionalidad
de construir conjeturas en base a observaciones, considerando el gran poder del
azar, los sucesos pueden ocurrir, en grandes sucesiones; de pruebas, en
distinta proporción de aquella predisposición, según la cual acaecen de un modo
u otro, y que suponiendo, por ejemplo, que un suceso que es igualmente propenso
a ocurrir y que a no ocurrir, ha ocurrido 2.000 veces en 3.000 experiencias, se
asignaría entonces, ante tan grandes diferencias observadas, una variación frente a la igualdad propugnada, razón por la
cual la mente estaría mejor dispuesta hacia las conclusiones inferidas por
experimentos.»
De este oscuro pasaje se deduce que De
Moivre intentó una reconciliación de las probabilidades «a priori» con las
probabilidades estadísticas, piedra de toque de la ley de los grandes números.
Laplace repitió las pruebas del teorema
límite de Moivre sin citarle, como era costumbre en él. Sólo en la nota
histórica de su «Essai philosophique...» hace referencia a sus trabajos. Pensó
que el teorema de Bernoulli contenía una demostración de una ley general de la naturaleza y en su segunda edición de la obra citada, publicada
en 1814, reemplaza la dedicatoria «A Napoleón-le-Grand», de la edición de 1812,
por una exaltación de dicho teorema que termina con estas palabras: «c'est
encore un résultat du calcul des probabilités, confirmé par des nombreuses et
funestes expériences».
6. Adolfo
Quetelet (1796-1874) fue el gran popularizador de
las ideas de Poisson. Incrementó el número de comprobaciones de la ley de los
grandes números. Sus observaciones provenían preferentemente del campo social y
algunas de ellas fueron dirigidas a excitar la imaginación: regularidad en el
número de suicidios; «I'effrayente exactitude avec laquelle les crimes se
reproduisent», etc. Quetelet escribe con espanto casi religioso de estas leyes
misteriosas y las trata como si fueran leyes físicas, no necesitadas de un
posterior análisis u explicación.
EI progreso sobre la concepción de las
leyes de los grandes númerus, desde los tiempos de Quetelet ha sido constante y
desigual. Se han multiplicado los ejemplos y las condiciones necesarias, para
la existencia de la estabilidad estadística, todo ello como premisa esencial
para la inducción estadística. En este sentido, la ley de los grandes números,
cuyo nombre más adecuado debería ser el de «ley de estabilidad de las frecuencias
estadísticas», constituye la base esencial de los argumentos inferenciales de los
tipos b) y c), de los que se hablará a continuación.
3. EL PROBLEMA DE LA INDUCCION
ESTADISTICA Y LAS PROBABILIDADES
INVERSAS
1. En los dos apartados anteriores se
ha considerado la probabilidad de un suceso como algo dado, y a partir de este
hecho se ha intentado inferir las probabilidades de ocurrencias del suceso en
el total de las series de frecuencias posibles de su realización. En ningún
caso se ha discutido por qué procedimiento se ha obtenido esa probabilidad «a
priori», lo que constituye el punto de arranque en el método
hipotético-deductivo y el gozne sobre el cual gira la ley de los grandes números.
En Estadística general esta probabilidad inicial suele basarse en
distribuciones frecuenciales de sucesos análogos, observadas con anterioridad.
Pero, ¿cómo ir de las frecuencias a las probabilidades? El problema está
inmerso en el llamado «problema general de la inducción», pues pretende obtener
juicios de probabilidad tomando como base las experiencias observadas, y sólo podrá
ser tratado siguiendo los métodos de la lógica inductiva general.
Históricamente ha habido dos intentos
de resolver el problema mediante asignación de probabilidades «a priori» por
consideraciones puramente matemáticas. Los dos se redujeron a mera
«charlatanería», según calificación de J. M. Keynes (1921), y redujeron la
Estadística a la esterilidad durante un centenar de años, por apoyarse en bases
totalmente insostenibles. EI primero de estos métodos directos para la
obtención de probabilidades «a priori» pudiera denominarse «teorema de
inversión de Bernoulli», y el segundo, «regla de sucesión de Laplace».
2. La primera discusión de este
problema se halla en la correspondencia mantenida entre Leibniz y J. Bernoulli,
y pensamos que el mejor modo de entrar en ella es relatar el modo en que se
expresaban, sobre el tema, estos dos ilustres filósofos.
En carta dirigida por Jacobo Bernoulli
a Leibniz (1855), fechada en 1703, le dice: «podemos determinar, por
consideraciones «a priori», en qué cuantía es más probable obtener la suma
siete, al lanzar los dados, que la suma ocho; pero no podemos determinar, por
tales procedimientos, la probabilidad de que un hombre de veinte años sobreviva
a otro de cincuenta ¿No será posible aún obtener este conocimiento «a
posteriori» de haber observado un gran número de parejas de hombres, análogas a
la anterior?».
En la réplica de Leibniz se encuentra
la raíz de la dificultad de la respuesta. «El cálculo de probabilidades
-escribe-- es del más alto valor, pero en investigaciones estadísticas es
necesario, no tanto la sutileza matemática cuanto el enunciado preciso de todas
las circunstancias. Las posibles contingencias y el cálculo exacto están, en
consecuencia, fuera de la cuestión. Aunque la naturaleza tiene sus hábitos, debido
a la concurrencia de causas, no son generales, inmutables. Con todo, cálculos
empíricos, aunque inexactos, pueden ser adecuados en asuntos prácticos.»
Bernoulli
volvió, en su respuesta, a insistir en la analogía con las bolas extraídas de la
urna y mantuvo que «sin estimar cada contingencia por separado, podemos
determinar, dentro de estrechos límites, la proporción que ofrece cada
alternativa.» Y añadía en su carta: «Esto es cierto, se acabó la
controversia; te agradará la demostración que publicaré.» Se refería a su libro
«Ars Conjectandi», que editaría
en Ginebra (1713).
Lo cierto es que la demostración no
llegó. Después de tratar de algunas de las objeciones, apuntadas por Leibniz, y
prometer algún procedimiento para estimar probabilidades «a posteriori»
mediante una inversión de su teorema, da la demostración directa y termina sin
más el «Ars Conjectandi».
Durante el siglo xviii no hay ningún
indicio de explicitar el uso de la inversión del teorema de Bernoulli. Las
investigaciones de D'Alembert, Daniel Bernoulli y otros, se orientan al estudio
de las condiciones de aplicabilidad del teorema directo. Laplace supone, sin
prueba, una inversión del teorema.
El análisis bayesiano actual da la
siguiente respuesta al problema de la inversión: si
la probabilidad «a priori» de un
suceso es p, su aparición x veces en n pruebas es
Que p, considerada como variable, adquiera un valor determinado, constituye una hipótesis
Que p, considerada como variable, adquiera un valor determinado, constituye una hipótesis
cuya «verosimilitud» es
Los diversos valores de p constituyen una clase completa de hipótesis. Se torna así al clásico problema de la «Probabilidad de las causas». Considerada p corno una variable aleatoria de, densidad f(p), el teorema de Bayes da la probabilidad «a posteriori» de que p esté entre dos números, p' y p", después de haber observado x veces el suceso en n pruebas:
Como f(p) está acotada, f(p)=0, para p fijo. Además
Luego la convergencia de las integrales de la expresión anterior queda asegurada, lo cual permite calcular la probabilidad a partir de la frecuencia. Queda, naturalmente, abierto el problema de la determinación de f(p) al que intenta responder al análisis bayesiano.
Los diversos valores de p constituyen una clase completa de hipótesis. Se torna así al clásico problema de la «Probabilidad de las causas». Considerada p corno una variable aleatoria de, densidad f(p), el teorema de Bayes da la probabilidad «a posteriori» de que p esté entre dos números, p' y p", después de haber observado x veces el suceso en n pruebas:
Como f(p) está acotada, f(p)=0, para p fijo. Además
Luego la convergencia de las integrales de la expresión anterior queda asegurada, lo cual permite calcular la probabilidad a partir de la frecuencia. Queda, naturalmente, abierto el problema de la determinación de f(p) al que intenta responder al análisis bayesiano.
A efectos
de nuestra tesis, el punto esencial que hay que señalar es que las
probabilidades «a posteriori» presuponen el conocimiento, no solo de las
verosimilitudes, sino también de las probabilidades «a priori». Ambos
conocimientos implican inducciones primarias, por lo que la inducción obtenida,
al ser secundaria, no sirve a la solución del problema de la inducción.
En el caso
en que la distribución «a priori» sea uniforme en (0, 1) es f(p)= 1 y la densidad «a posteriori» de p,
después de n observaciones, tiene un máximo para x/n. Es el caso
aplicado por Laplace a la solución del problema.
3. Laplace toma como ejemplo en su disertación el mismo
utilizado por Hume, expresado por la ley: «EI sol saldrá todas las mañanas». La
argumentación empleada es del tipo «Si B también A; si el sol ha salido todas
las mañanas hasta ahora, seguirá saliendo en lo sucesivo».
Según Laplace, se puede considerar la posesión del atributo A por un objeto que es un B,
como suceso aleatorio. Se asimila así la ley a una serie de extracciones de
bolas de una urna cuya composición sea constante. En su «Essai philosophique
sur les probabilités» (1814), cap. III, 7. ° principio, enuncia: «La
probabilidad de un suceso futuro es la suma de los productos de las
probabilidades de cada causa extraída del suceso observado, por la probabilidad
de que, existiendo esta causa, ocurra el suceso futuro». Pone a continuación un
ejemplo que, generalizado, conduce a esta regla: Si el suceso ha ocurrido
siempre en n ocasiones, la probabilidad de que se verifique siempre en una serie de m pruebas, es
El caso m =1, en que la probabilidad toma el
valor (n + 1) / (n + 2), fue bautizada por Venn (Venn, J., 1880) con el nombre de regla de sucesión de Laplace.
La prueba de esta sucesión puede
hacerse brevemente así: Sea p la
probabilidad «a priori» de un suceso en condiciones dadas. La probabilidad de
que el suceso ocurra m veces en esas
condiciones y falle en otras n ocasiones es pm
(1 - p) n. Luego, la probabilidad «a posteriori» de m ocurrencias
del suceso en m+ n pruebas, de que p esté entre p y (p + dp),
|
Por lo
tanto, la probabilidad de que el suceso ocurra en la (m+n+1)-ésima prueba
habiendo ocurrido m veces en m+n,
es
|
Para n= 0,
esto es, cuando el suceso ha ocurrido invariablemente, la fórmula es (n+1) /(m+2). En el caso en que las condiciones del suceso
han dado una sola vez y este ha ocurrido, el resultado es 2/3. Si las condiciones
del suceso no se han dado nunca, la probabilidad del suceso es 1/2, y en
el caso en que las condiciones se dieran una sola vez y el suceso no
ocurriera, la probabilidad sería 1/3 (resultado totalmente absurdo).
Aparte estas
absurdidades, la fórmula de Laplace involucra la teoría de «probabilidades desconocidas»
introducidas por él como suplemento del principio de indiferencia, con toda la
problemática que ello encierra. Las objeciones hechas a esta fórmula son muchas.
Con respecto a la demostración anterior hay una que aparece enseguida: Si p es la probabilidad «a priori» de haber
acaecido una vez, pn es la
probabilidad de haber acaecido n veces sucesivamente. Ahora bien, del propio
teorema se deduce que, si ocurre una vez, modifica la ocurrencia de la vez
siguiente, luego las sucesivas ocurrencias no son independientes. Así, si
la probabilidad «a priori» es 1/2, la probabilidad de la segunda ocurrencia es
2/3, luego, la probabilidad «a priori» de ocurrencia dos veces es, no 1/2 * 1/2,
sino 1/2*2/3 = 1/3; y, en general, la probabilidad «a priori» de su ocurrencia n veces no es (1/2) n,
sino 1/ (n + 1).
Las primeras críticas a esta regla
provinieron del propio Venn en la obra citada, por no estar de acuerdo, según
él, con la experiencia. Pearson, que la acepta, resuelve estas
discrepancias. Es rechazada también por Boole (1854) que dice se basa en hipótesis
arbitrarias, por Bertrand (1889), que niega su aplicabilidad al caso de un
número finito de alternativas, y que la califica de ridícula, etc. En cambio,
merece la aprobación, entre otros, aparte de Pearson, de De Morgan, Jevons,
Lotze_y Czuber.
Con respecto a la materia que nos
ocupa, la crítica ha de centrase e si es o no coherente reducir el problema de
la inducción a la cuestión de determinar una probabilidad desconocida, aunque
constante. Supuesto aceptable la introducción de probabilidades «a priori», se
mantiene la hipótesis de que B da a la posesión de A una probabilidad
determinada. Esto es, el razonamiento de Laplace supone que entre B y A existe una
implicación probable: Si .x es un B, hay una probabilidad de que x sea un A. Ahora
bien, para que este razonamiento lleve a alguna conclusión con cierta validez
es preciso que B determine A (al menos en términos probables) y que sea B el
único factor determinante de A. Está claro que estas suposiciones implican una
inducción previa, con la que se vuelve a caer en un círculo vicioso.
Hagamos una observación final. Tanto
en la regla de sucesión de Laplace, como en el teorema de Bernoulli, como en
cualquier investigación con base estadística, el uso de muestras aleatorias es
imprescindible. Las diversas técnicas de selección de estas muestras ponen especial
énfasis en eliminar todo factor de naturaleza causal que pueda dar lugar a
algún sesgo. La carencia de todo sesgo en la elección es lo que garantiza el carácter
aleatorio de la muestra. Los diversos procedimientos para la obtención de muestras
aleatorias parten, pues, de la hipótesis de que eliminan todo factor
causante del sesgo ¿hasta
qué punto podemos estar ciertos de que estas hipótesis se cumplen? Aún en el
caso de que se cumplan, ¿no están presuponiendo un conocimiento previo difícil
de adquirir por la vía de la inferencia estadística? Nuevamente nos vemos
recurriendo un cambio que termina en el punto de salida.
Concluimos, pues, que la aplicación de
los métodos matemáticos a la solución del problema general de la inducción
estadística es inválido. Los métodos que analizamos a continuación, ligados a
los nombres de Lexis, Von Bortkiewicz y Tschuprow, nos parecen más en
consonancia con los principios de una sana inducción.
4. Bortkiewicz (1905) considera que
fue Lexis «el primero en establecer la conexión integral» entre la teoría
estadística y la teoría de la probabilidad. Parece, con todo, que se hicieron conexiones
iniciales con anterioridad. Así, Davidov (1855 b) contrastó la significación
estadística de varias discrepancias empíricas y en otro trabajo (1885 a) expuso
que «el excesivo desarrollo» de la Estadística y sus deducciones, a menudo
infundadas pueden mancillarla y que el instrumento más fiable para eliminar
«deducciones inmaduras» es una discusión de los datos iníciales con
verificación probabilística. Uno de sus instrumentos probabilísticos de
verificación era el teorema límite de De Moivre-Laplace.
Cournot (1843), cuyos trabajos sobre probabilidades
han sido poco divulgados, razona sobre la posibilidad de «contaminar» la
estadística, contrasta el significado de discrepancias empíricas y considera la
ley de los grandes números, según la formulación de Bernoulli, como base fiable
para conectar estadística con probabilidad.
Todos los estudios de estadística social, desde Graunt hasta
Quetelet habían prestado especial atención a la estabilidad de
las frecuencias en series
estadísticas, a la proporción de nacimientos de ambos sexos, al grado de
constancia de las razones entre distintas partes de una misma serie de observaciones,
así como a sus valores promedios con respecto a la media total de la serie. Con
todo, Quetelet afirmó frecuentemente la existencia de estabilidad, basado en
insuficiente evidencia, y cayó en
lamentables errores por su afán de imitar en demasía los métodos de Laplace. Hubo
que esperar al último cuarto de siglo xix para que este nuevo modo de enfocar
la Estadística teórica fuera cimentado y lograra la sistemática y la técnica
que hasta entonces le había faltado, y para que, en consecuencia, prevaleciera
el método inductivo.
EI fundador de esta escuela fue Wilhelm
Lexis, cuyas teorías fueron expuestas en una serie de artículos y
monografías publicados entre los años 1875 y 1879. Durante algunos años las ideas
fundamentales de Lexis no atrajeron mucha atención, y hasta él mismo pareció
olvidarse de ellas y dirigió sus estudios en otras direcciones. Pero pasados dos
años, se produjo una abundante literatura en torno los escritos de Lexis, principalmente
en Alemania, la cual clarificó sus ideas, pero que apenas aportó nada nuevo, si
exceptuamos la obra de Ladislaus Bortkiewicz, quien no sólo interpretó
magistralmente las ideas de su maestro, sino que las incrementó notablemente.
Lexis concibió la teoría con una
orientación clara hacia los estudios de la proporción de sexos y de la
mortalidad. Este particular enfoque de sus trabajos pudo ser la causa del olvido
en que se lo tuvo durante años.
La lógica y la filosofía de la probabilidad que inspira a los escritores de la
escuela de Lexis coincide con la de
Von Kries, quizá como reacción
común contra la tradición laplaciana: el elemento
aglutinante es una tendencia a encontrar la base de la probabilidad en consideraciones físicas más bien que lógicas.
Siguiendo un análisis hecho por
Bortkiewicz (1896) podemos sintetizar las ideas de Lexis de este mudo. Supongamos
que se hace un conjunto de observaciones sobre varios grupos de sujetos a los
que son aplicables distintas frecuencias con respecto al carácter que se
investiga. Si z es el número total de
observaciones, zi/z de ellas pueden pertenecer al grupo i-ésimo,
según lo cual, dada la frecuencia, la probabilidad «a priori» del carácter bajo
observación, en un caso particular, sería pi.
En este caso, dadas las frecuencias para todos los grupos particulares, la
probabilidad p, para el grupo total agregado,
se obtendría así:
Llamamos probabilidad general a p y
probabilidades especiales a las, pi. Pero las probabilidades
especiales pueden, a su vez, ser generales, de modo que puede haber más de un
modo de resolver una probabilidad general en probabilidades especiales.
Si p1 = p2
=... = p, se dice, en terminología
de Bortkiewicz, que p es indiferente. Si p es indiferente para
todas las «resoluciones» concebibles, Bortkiewicz dice que tiene una interpretación
definitiva. AI tratar con probabilidades «a priori» podemos resolver una probabilidad hasta
lograr las probabilidades especiales de cada caso particular; si hallamos que todas
estas probabilidades especiales son iguales, aparece claro que Ia probabilidad
general satisface la condición de tener interpretación definitiva.
Hemos tratado hasta ahora de probabilidades
«a priori», pero el objeto del análisis ha arrojado luz sobre el problema inverso.
Necesitamos descubrir en y qué condiciones puede considerarse una frecuencia observada
como adecuada aproximación de una probabilidad «general definitiva».
Si p´
es el valor empírico de p dado por
una serie de n observaciones, podemos
poner:
Aún en el caso de que este modo particular
de resolver la serie de observaciones sea indiferente, las frecuencias
actualmente observadas p1, p2, …, pueden ser distintas,
ya que por influencia del azar pueden fluctuar en torno a la norma p'. Pero si n1, n2,
..., son grandes, puemos aplicar
el teorema de Bernoulli para indagar si, dada la norma p´, las divergencias de ella con respecto a los valores p1,
p2, ..., están dentro se los límites razonables atribuibles al azar,
de acuerdo con las hipótesis bernoullianas. Con todo, solo podemos construir un
argumento correcto a favor de una probabilidad definitiva p´ si «resolvemos»
el agregado de observaciones en subseries de una gran variedad de modos, aplicando
cada vez los cálculos anteriores. Aun así, permanecerán sombras de duda, como ocurre
en todo argumento de naturaleza inductiva.
Bortkiewicz llama probabilidades
elementales a las que tienen interpretación definitiva. Ahora bien,
las probabilidades que surgen en investigaciones estadísticas no son de este
tipo y pueden ser denominadas probabilidades promedio. Esto es una serie de probabilidades
empíricas (frecuencias) no se agrupa, por lo general, como si estuviera de hecho
sujeta a una probabilidad elemental. Supongamos, por ejemplo, que queremos inferir
que la probabilidad de un nacimiento masculino es m y que disponemos de datos
estadísticos sobre proporciones de nacidos por sexos de todas las partes del
mundo durante una larga serie de años. Supongamos que calculamos la media ponderada
de la frecuencia de nacimientos masculinos y hallamos que es m. ¿podríamos argüir, basados
en este resultado que la media frecuencial de nacimientos masculinos en España será m durante los próximos años?
Esto implicaría la hipótesis, no justificada, de que la probabilidad empírica m
es elemental para cualquier
resolución dependiente del espacio y del tiempo, y que no es una probabilidad
promedio compuesta de una serie de grupos referidos a distintos tiempos o
lugares, a cada uno de los cuales es aplicable una distinta probabilidad
especial. Sería presuponer que las variaciones del tiempo y de lugar son irrelevantes
sin apelar, para establecer estas suposiciones, al empleo de métodos analógicos,
positivos y negativos.
Deberemos, pues, separar el material
estadístico en grupos por fechas, lugar y toda otra característica que la
generalización buscada considere como relevante. Obtenernos así un número de frecuencias
m´1, m´2, m´3, ..., m´´1, m´´2,
m´´3, etc., que se distribuyen en torno al promedio frecuencial m. Por simplicidad, consideremos que las
series de frecuencias m´1, m´2, m´3, ...,
corresponden a la clasificación por fecha de nacimientos. Si las
divergencias observadas entre estas frecuencias y su media no son
significativas, tenemos los comienzos de un argumento inductivo en base a
considerar la fecha como irrelevante.
Lo más característico de la aportación
de Lexis es que centró su atención en la naturaleza de la dispersión de las
frecuencias m´1, m´2, m´3, ..., en
torno al valor medio m. Estudió los
varios tipos de dispersión y, entre ellos, encontró uno claramente distinguible
de los demás, cuya peculiaridad es que los valores individuales fluctúan de
modo «puramente aleatorio» en torno a un valor constante fundamental. Llamó a
este tipo dispersión típica («typische»). Quiso significar con esto que
la dispersión se ajustaba aproximadamente a la distribución, que vendría dada
por alguna ley normal de error.
La siguiente etapa de la argumentación
de Lexis consistió en introducir una media de la dispersión obtenida
dividiendo el error cuadrático medio de la serie empírica por el error
cuadrático medio de la serie teórica, deducida en la hipótesis de que sólo
intervengan componentes accidentales. De aquí surgía el problema de valorar la
desviación respecto a la actitud bernoulliana, esto es, de calcular la
probabilidad de realizarse entre los límites de la variabilidad accidental
espontánea.
En coherencia con las medidas
experimentales de Laplace y Bessel, el criterio Lexiniano presuponía
desviaciones sistemáticas «grandes» y desviaciones accidentales «pequeñas» y
utilizaba la probabilidad directa como probabilidad inversa.
Tschuprow (1905) modificó el coeficiente de dispersión
de Lexis. Tschuprow lo expresó como cociente de un módulo «físico» por otro «combinatorio»: Q= P/C,
donde
siendo M el
número de casos en cada grupo, n el número de grupos, pk la frecuencia para el grupo k y
p la media de las n frecuencias.
Los trabajos más interesantes de Lexis
sobre Estadística inductiva están recopilados en «Abhandlugen» (1903).
Con Lexis, Bortkiewicz y Tschuprow quedaba
abierta la puerta a la teoría de la «significación».
Referencias Bibliográficas
BERNOUILLI, D.: «The most probable choice
between several discrepant observations and the formatiso there from of the most likely induction», 1977.
En Studies..., por Pearson y Kendall.
BERTRAND,
J.: Calcul des probabilités. Paris, 1889.
BLACK,
M.: Inducción y probabilidad. Ed. Cátedra. Madrid, 1970.
BOOLE, G.: An
Investigation of the Laws Tnought, London, 1854.
BORTKIEWICZ, L, von: Kritfsch
Betrachtungen zur theoretlschen Statistik. U. Stat Jahrb. f. Nationalok,
vol. II, 1896.
BOSCOVICH, R. G.: (In
Maire, C., and Boscovich). De litteraria expeditionem ad dimetiendos duos meridiani
gradus. Roma, 1755.
COURNOT,
A. A.: Exposition de la théorie des chances et des probabilités. París, 1843.
COTES, R.: Aestimatio
errorurn in mixta mathesi, per variationes particum triangulo plani et spherici.
Opera Miscellanea. Cantabrigiae, 1722.
GALTON, F.: «Regresion
towards mediocrity in Hereditare Stature. J. Antro. Inst., 15, 246, 1877.
GAUSS, C. F.: Theoria
motus carparum coelestium. Hamburgo,
1809.
--:
Disquisitio Palladis. Góttingen,
1810.
-:
Theoria combinationis observatíone erroribus minimi omnoxiae. Comm. Soc., vol. V,
33. Gottingen, 1823.
KEYNES, J. M.: A Treatise
on Prabability. MacMillan. London,
1921.
LAGRANGE,
J. L.: «Memoire sur l´utilité de la méthode de prendre le milieu des resultats
de plusieurs observations, etc.». Miscellanea Taurinensia, 5, 167,
1970-1973.
LAPLACE,
S. P.: «Determiner le milieu que l'on doit pendre entre trois observations
données d'un méme phenoméne». Mem. Acad., 4, 634. Paris, 1774.
LEGENDRE,
A. M.: Nouvelles méthodes pour la determination des orbites des cométes. París,
1805.
--:
«Méthode des moindres carrés». Mem. de Inst. París, 1810.
MAYER, T.:
Abhandlung uber die Umwalzung des Mondes um seine Axe Kosmo-graphische Nachrichten
un Summlung.
MOIVRE, A. de: The
Doctrine of Chances, 3ra ed., Printed for A. Millar, 17S6.
MORTMONT,
P. R.: Essay d'Analyse sur les Jeux de Hazard. París, 1713.
PEIRCE, C. S.: Collected
Papers, t. II., p. 421, 1932.
PLACKETT, R.: «A
historical note on the method of lsast Squares». Biometrica, 36,
1936.
POISSON,
S. D.: Recherches sur la probabilité des jugements en matiére civile,
precedées des régles generales du calcul des probabilités. París, 1837.
QUETELET,
A.: Lettres sur la Théorie des probabilités. Bruselas, 1844.
-:
«Recherches sur le penchant au crime aux differentes áges» . Memoire
Nouveaux de la Ac. Sci. et L. Bruselles, 1852.
SUSMILCH, JP: El orden divino en los cambios de la raza humana del ADN, desde el nacimiento, hasta el momento y la reproducción del mismo, 1765.
VENN, J .: La lógica del azar. Nueva York: Chelsea. (Reimpresión de 1888 ed., Publicado por MacMillan. Londres, 1962).
Comentarios