Ir al contenido principal

ESTADÍSTICOS SIGNIFICATIVOS

II Jornadas de Historia de la Estadística y de la Probabilidad. Toledo 2003.

ESTADÍSTICOS SIGNIFICATIVOS

MIGUEL A. GÓMEZ VILLEGAS

Departamento de Estadística E Investigación Operativa I
Facultad de CC. Matemáticas
Universidad Complutense de Madrid
28040-Madrid
91 394 4428
ma.gv@mat.ucm.es

RESUMEN

Se pretende estudiar la figura y contribuciones de algunos de los estadísticos que contribuyeron a la primera época de la inferencia estadística. Se empieza por Graunt, quien en opinión del autor, es el primero que puede ser calificado de estadístico, en el sentido de que obtiene conclusiones para un colectivo a partir del estudio de una muestra. El siguiente estadístico estudiado es Thomas Bayes, el iniciador de la aproximación bayesiana a la inferencia estadistica, en contraposición a la llamada aproximación clásica, se discute la denominación de clásica ya que lo inicial, lo clásico, fue la aproximación bayesiana, como será puesto de manifiesto en el trabajo. La tercera figura tratada será Laplace, el continuador y redescubridor del punto de vista bayesiano. Por último se estudian tres representantes de la escuela inglesa de estadísticos; como son Karl Pearson,Student y Fisher, los tres, a Neyman y a Egon Pearson, son los que consiguen hacer de la inferencia estadística una ciencia y sientan las bases para que la inferencia se aplique al tratamiento de la incertidumbre en todas las ciencias aplicadas. Ellos son también los que hacen que la aproximación clásica eclipse a la bayesiana. De todos los autores se incluyen unas pinceladas biográficas y sus principales contribuciones a la inferencia estadística.

INTRODUCCIÓN

Los estadísticos tienen una comprensible inclinación a considerar toda la historia de las ciencias como un dar vueltas alrededor de la media y del razonamiento estadístico. La frase es de Stigler (1986) pero sirve perfectamente para justificar el trabajo que se realiza a continuación.

Con esta justificación, de todos los autores se van a hacer unos breves comentarios biográficos y a recoger sus contribuciones más importantes a la probabilidad y a la inferencia estadística.

En los años recientes se han publicado varios libros sobre la historia de la probabilidad y la estadística. Por no citar nada más que los que me son conocidos me gustaría nombrar el de Pearson (1978) La Historia de la Estadística en los Siglos XVII y XVIII, el de Stigler (1986) La Historia de la Estadística: la Media de la Incertidumbre antes de 1900, en castellano el De Mora (1989) Los inicios de la teoría de la probabilidad siglos XVI y XVII, el de Droesbeke y Tassi (1990) La Historia de la Estadística, el debido a Johnson y Kotz (1997) Personalidades más Importantes en la Ciencia Estadística, el libro de Hald (1998) Una Historia de la Estadística Matemática desde 1750 a 1930, el de Stigler (1999) La Estadística sobre la mesa: La Historia de los Conceptos y Métodos Estadísticos. La reimpresión del clásico libro de 1865 de Thodhunter (2001) Una Historia de la Teoría Matemática de la Probabilidad y por último el de Heyde y Seneta (2001) Estadísticos del Siglo.

JOHN GRAUNT (1620-1674)

El primer estadístico que se va a considerar es precisamente el padre de la Estadística. Su padre era comerciante en paños y él siguió la tradición familiar. No tuvo una formación en estudios superiores, pero participó en el ayuntamiento londinense siendo un hombre ecuánime al que sus coetáneos recurrían en busca de sus medidos juicios. Fue capitán y mayor de las "traind´d band" los grupos armados que recorrían las grandes ciudades por la noche para salvaguardar el orden y que fueron inmortalizados por Rembrandt en su célebre cuadro la ronda de noche.

En 1662 publicó Observaciones naturales y políticas hechas a partir de los boletines de mortalidad memoria que puede ser considerada como el inicio de la estadística en el sentido actual y por la que ha sido incluido en este artículo. Es elegido miembro de la Royal Society por Carlos II, no sin la oposición de alguno de los miembros de la Sociedad que criticaron sus méritos, a lo que el rey comentó que si todos los integrantes del gremio de los paños, hubieran prestado los mismos servicios a la ciencia y al rey no dudaría en proponerlos a todos para formar parte de la misma. Inicialmente fue protestante, luego sociniano y posteriormente católico esto último le granjeó las enemistades de los grupos hegemónicos protestantes que le acusaron de haber sido uno de los provocadores del gran fuego que asoló Londres en 1666. Su negocio se quemó con el fuego y aunque sus amigos trataron de ayudarle, ya no pudo recuperarse económicamente.

La memoria de 1662 está basada en la información recogida en unos boletines que confeccionaba las distintas parroquias londinenses y que recogían información sobre el número de bautizados, sobre los fallecidos, las causas del fallecimiento, los muertos por la peste, si es que ésta se había producido, etc.. Los boletines recogen una información preciosa para cualquier interesado en la medicina de la época. A partir de los datos contenidos en estos boletines, Graunt confecciona su memoria que contiene un prefacio y 12 capítulos. Acaba con una serie de conclusiones de las que extraigo las siguientes a título de ejemplo:

1. Cerca de un tercio de los niños nacidos vivos, muere en los primeros cinco años y alrededor del 36% por debajo de los seis.

2. Sea la peste grande o pequeña, la city está completamente repoblada al cabo de dos años.
3. Hay en torno a 6.5 millones de personas en Inglaterra.

4. En Londres hay 14 varones por cada 13 hembras.

5. Adán y Eva han engendrado en 5610 años a la población actual. Por lo tanto el mundo no puede ser más antiguo de lo que en las Escrituras se presenta.

6. En todo matrimonio, unos con otros, se tienen 4 niños.

Las técnicas que utiliza Graunt para llegar a estas conclusiones, son a la vez muy simples e ingeniosas, no pasan de la regla de tres, pero con ellas llega a conclusiones muy interesantes; así es el primer autor que señala la ligera desigualdad en los nacimientos a favor de los varones y es el primero que realiza la construcción de una Tabla de Vida aunque sea rudimentaria. Una traducción de la memoria al castellano puede verse en el libro De Mora (1989) páginas 190 a 274, la versión original en inglés Graunt (1662) puede consultarse en la revista Journal Institute Actuaries 90, páginas 1 a 61, 1964.

No quiero abandonar al iniciador de la estadística como un mecanismo para la obtención de conclusiones sobre un colectivo a partir de datos parciales del mismo y por tanto al precursor de la estadística en el sentido que hoy mismo tiene, sin recoger una cita de su memoria para dar una idea del carácter de Graunt.

Se podría preguntar qué propósito tiene todo este laborioso bullir y tantear. A esto puedo responder en general, diciendo que aquellos que no pueden comprender la razón de estas cuestiones, son impropios de preocuparse de plantearlas.
Puedo responder preguntando por qué tantos han gastado su tiempo y su fortuna en el arte de fabricar oro, el cual, si fuera bien conocido, sólo lograría exaltar a la Plata al lugar que ahora posee el oro; y si sólo fuera conocido de una persona, ese mismo único adeptus no podría ni se atrevería a gozar de él, sino que sería o bien el esclavo de algún príncipe, o el esclavo de algún sibarita o bien acechando de un lado para otro en la oscuridad para permanecer oculto o insospechado.
Podría responder que se experimenta un gran placer al deducir tantas informaciones abtrusas e inesperadas de esos pobres boletines. Y produce un placer el hacer algo nuevo, sin apestar al mundo con voluminosas transcripciones.
Pero responderé más seriamente, quejándome, que mientras el arte de gobernar y la verdadera política es cómo preservar al mundo y a los súbditos en paz y plenitud, los hombres estudian sólo aquella parte de ella que les enseña cómo suplantarse y superarse unos a otros y como ganar el premio, no corriendo más deportivamente, sino dándose puntapiés.

THOMAS BAYES (1702?-1761)

Es poco lo que se conoce sobre la vida de Bayes, para empezar existen dudas sobre el año de nacimiento, algunos autores fijan el 1701. Estudió teología en la Universidad de Edimburgo entre 1719 y 1722, fue ministro presbiteriano en Tunbridge Wells, al sureste de Londres, no se casó y se retiró de su ministerio en 1752. Parece haber llevado una vida tranquila dedicada a su ministerio y a sus actividades científicas, entre las que figuraron la teología, las matemáticas y la inferencia estadística.

En 1731 escribió el tratado titulado Divina Benevolencia o un intento de probar que el fin principal de la Divina Providencia es la felicidad de sus criaturas, una contribución a la discusión del objetivo principal de Dios.

En 1734 el obispo George Berkeley ataca el cálculo diferencial de Newton en un tratado El Analista, o un discurso dirigido a un matemático infiel. Donde es examinado si el objeto, principios y conclusiones del análisis moderno son concebidos de manera diferente, o deducidos de manera más evidente, que los misterios religiosos y los puntos de la fe. Berkeley argumentaba que los evanescences, los infinitésimos en lengua actual, no presentan una distinción clara entre cero y cantidades infinitamente pequeñas, y como indica de manera sarcástica en el título de los fundamentos del método de los diferenciales de Newton, no son más evidentes que los de la religión cristiana.

Entre las réplicas a Berkeley, aparece una en 1736 firmada por Bayes bajo el seudónimo John Noon con el título Una introducción a la teoría de los fluxiones y una defensa de los matemáticos contra las objeciones del autor del Analista, en este trabajo Bayes hace una cuidadosa introducción del significado de los fluxiones y demuestra algunos teoremas básicos relativos al cálculo de los diferenciales.

Los dos tratados son las únicas obras que nos han llegado publicadas por Bayes. La segunda demuestra que él era una hábil matemático y presumiblemente le valió ser elegido Fellow de la Royal Society en 1742.

A la muerte de Bayes, su familia envía a Price, Fellow de la Royal Society y ministro presbiteriano también, los documentos sobre matemáticas dejados por Bayes, para que Price los estudie y decida sobre su importancia. Price recibe un trabajo en el que Bayes demuestra la divergencia de la serie log(n!) corrigiendo a De Moivre que había dicho que era convergente aunque muy lentamente, y el célebre Ensayo en el que Bayes determina por primera vez un intervalo de confianza bayesiano para el parámetro θ de una distribución de Bernoulli a partir de n repeticiones del experimento de Bernoulli. Price se da cuenta de la importancia del descubrimiento de Bayes y lo manda al secretario de la Royal Society para su publicación en la revista de la academia inglesa, ver Bayes (1764) añadiéndole una carta de presentación a Cantón, el secretario de la academia, y sus comentarios y extensiones.

No se sabe por qué, Bayes no envió en vida a su resultado para publicación, quizás porque su finalización fue cinco meses antes de su muerte, más verosímil parece el que necesitaba aproximar la integral de la función beta incompleta, para su aplicación numérica, y la aproximación que se le ocurrió a Bayes no era muy buena, con lo que daba lugar a un número demasiado alto de repeticiones del experimento de Bernoulli para obtener con precisión el intervalo sobre la probabilidad de éxito. En cualquier caso, la formulación del problema es precisa, sus matemáticas son correctas y el paso que da para pasar de determinaciones directas de probabilidad a la resolución del problema inverso, como es el de inferencia que resuelve, este gigante.

El ensayo contiene cuatro partes: el enunciado del problema, dos secciones y un apéndice.

El enunciado del problema está expuesto con total claridad...

Dado el número de veces que un suceso ha ocurrido o fallado se quede calcular la probabilidad de que la probabilidad de su ocurrencia en un solo experimento esté entre los valores conocidos

Se pretende por tanto calcular la probabilidad de
dadas a, y b constantes, cuando X tiene una distribución binominal de parámetro Θ. Es decir, si se lanza consecutivamente una moneda n veces y resulta r caras, se pretende calcular la probabilidad de que Θ esté entre los valores prefijados.
Desde el tiempo de Jacobo Bernoulli se sabía, que si se conoce el valor de Θ la probabilidad de obtener en n lanzamientos r cara es

Pero esto es una afirmación de probabilidad directa; si se sabe el valor de Θ se puede calcular la probabilidad de que se observen r caras en n repeticiones. Además también Jacobo Bernoulli intuía que cuantas más repeticiones se hicieran, más seguro se debía estar del valor de Θ. Pero esto era realmente un problema de estimación. Bayes tenía que dar una distribución de probabilidad sobre Θ y calcular la distribución de probabilidad a posteriori o final sobre Θ.

Esto es lo que Bayes logra, mediante la expresión

Que constituye la forma continua del teorema de Bayes. Y proponiendo como distribución de probabilidad, la distribución uniforme en el intervalo (0, 1)
Mediante estas dos expresiones se calcula

Esta expresión es el cociente de dos funciones beta que Bayes se ve obligado aproximar y que como se ha anticipado, el no haber logrado una aproximación suficientemente buena, quizás le desanimaron y le llevaron a no publicar su resultado.

Una discusión detallada del Ensayo puede verse en Gómez Villegas (1994) y (2001). La traducción por primera vez al castellano del Ensayo se hizo con motivo del probable aniversario de su nacimiento y está en Gómez Villegas y otros (2001).

LAPLACE (1749-1827)
Pierre Simón de Laplace nace en Beaumont-en-Auge, en Francia en la región de Calvados. En 1765 ingresa en la Facultad de Artes de Caen. Con 23 años ya pertenece a la Academia francesa. En 1774 pública Memoria sobre la probabilidad de las causas por los sucesos.

Es un científico que vive durante la Revolución Francesa, en 1789 se produce la toma de la Bastilla, en 1791 la matanza del campo de Marte y en 1793 la ejecución de Luis XVI. Laplace logra sobrevivir a la revolución.

Originalmente iba a dedicarse a la carrera sacerdotal pero pronto descubre su predisposición para las matemáticas y en 1771, apoyado por de Alambert obtiene plaza de profesor en la École Militaire donde dio clases a Napoleón. Alrededor de 1795 participó activamente en la organización de los planes de estudio de la École Normal y de la École Polytecnique; las dos grandes creaciones de la Revolución Francesa. En 1796 presenta a Napoleón el informe sobre el Progreso de la Ciencia como secretario permanente que era de la Academia. En 1802 publica el tercer volumen de su Mecánica Celeste. En el 1812 descubre el teorema central del límite y publica su Teoría Analítica de la que se realizan tres ediciones en vida de Laplace la citada de 1812, la de 1814 y la de 1825. En 1820 participa en la Comisión de Longitudes contribuyendo a introducir el sistema métrico como método de medida y en 1779 fue ministro del interior con Napoleón durante seis meses.

Los trabajos de Laplace pueden dividirse en tres grupos: los realizados entre 1770 y 1780 en que se dedica a ecuaciones en diferencias y series, probabilidad, teorema de Bayes, estudio de la proporción de nacimientos y funciones de pérdida para estimación. Los realizados entre 1780 y 1805 sobre las matemáticas aplicadas a la física del sistema solar y la mecánica celeste y por último los realizados entre 1805 y 1827 son trabajos sobre funciones características, el teorema central del límite y la justificación bayesiana del método de los mínimos cuadrados.
Como se ha dicho, con referencia a la historia del cálculo de probabilidades y la estadística, sus dos trabajos más importantes son la Memoria sobre la probabilidad de las causas por los sucesos de 1774 y la Teoría Analítica de las Probabilidades publicada en 1812.

Laplace era un convencido de la aplicabilidad universal del cálculo de probabilidades que él resumía en la frase la probabilidad es básicamente el sentido común, reducido a cálculos.

La obtención del teorema de Bayes en el caso continuo está contenida en el problema I de la sección III de la Memoria de de 1774, donde aparece...

Si una urna contiene infinitos bolas blancas y negras en proporción desconocida, y se extraen p+q bolas de las cuales p son blancas y q son negras se trata de determinar la probabilidad de que al hacer una nueva extracción la bola sea blanca.

Se aplica la expresión

Donde emplea como distribución de yΘ la binominal de parámetros p +q y Θ es decir
Por los tanto redescubre la expresión continua de la fórmula de Bayes, para el caso binominal y cuando la distribución a priori es la uniforme en el intervalo (0, 1). A continuación aborda el problema de la probabilidad inversa calculando la probabilidad final del intervalo


Y la aproxima a la distribución final beta por la normal, para terminar comprobando que cuanto p y q son grandes se tiene que


Con referencia a la Teoría Analítica desearía comenzar con una pequeña anécdota. La primera edición está dedicada a Napoleón y su dedicatoria dice:

A Napoleón el grande. Sire, La benevolencia con la que vuestra majestad se ha dignado acoger el homenaje de mi trabajo sobre Mecánica Celeste, me ha inspirado el dedicarle también esta obra sobre el Cálculo de Probabilidades. Este cálculo delicado se aplica a las cuestiones más importantes de la vida, que en su mayor parte no son más que problemas de probabilidad. Desde este punto de vista debe interesar a su majestad cuyo genio sabrá apreciar y se brindará apoyar todo lo que pueda contribuir al progreso de las luces, y a la prosperidad pública. Yo suplico acepte este nuevo homenaje dictado por el más vivo reconocimiento, y por los sentimientos profundos de admiración y de respeto, con los cuales yo soy Sire, de vuestra majestad, el más humilde y obediente servidor y fiel súbdito, Laplace.

Fue bastante criticado por sus coetáneos, particularmente por los científicos, ya que adivinaban la transformación del revolucionario en dictador, de hecho las siguientes ediciones ya no contienen esta dedicatoria. La Teoría Analítica, fue a finales del siglo XIX, el libro que más influencia produjo sobre la teoría de la probabilidad. La definición que contiene sobre lo que es probabilidad es la siguiente:

La teoría de la probabilidad consiste en reducir todos los sucesos que pueden tener lugar en una circunstancia dada, a un cierto número de casos igualmente posibles, es decir tales que nosotros seamos totalmente indecisos respecto a su existencia y a determinar entre estos casos, el número de los que son favorables al suceso cuya probabilidad se busca El cociente de este número entre los casos posibles, en la medida de esta probabilidad que no es más que una fracción cuyo numerador es el número de casos favorables, y cuyo denominador es el número de casos posibles.

Como se ve, es la regla clásica de determinación de probabilidades como casos favorables entre casos posibles al suceso en cuestión en el caso en que exista equiprobabilidad.

La obtención del teorema de Bayes en el caso discreto, está contenida en el tercer principio, página 182 y está en la forma


Donde llama Ci a las causas y E al suceso, expresión correcta, cuando todas las causas son equiprobables y cada una tiene por tanto la probabilidad de 1/n.
La expresión del teorema en el caso continuo cuando la distribución a priori es general, está también en la Teoría Analítica página 364, y viene recogida mediante

Que él el lenguaje actual se escribe


Donde π(Θ) es la distribución inicial y f(yΘ) el modelo con el que se distribuyen los datos

Quizás de las contribuciones de Laplace la más importante es a la teoría de la probabilidad y es el actualmente llamado teorema central del límite, que fue leído ante la Academia el 9 de abril de 1810, y en el que establece que cualquier suma o media (no únicamente el número de éxitos en n experimentos) será, si el número de observaciones es suficientemente grande, aproximadamente distribuido como una normal. Además también había tenido éxito en la idea de sustituir un conjunto de observaciones por su media, pero le faltó reconocer la conexión entre estas dos líneas de trabajo, en 1809 Gauss proporcionó la clave.

KARL PEARSON (1857-1936)


Nace en Londres hijo de un abogado. Estudia en el University College School en 1875 estudia matemáticas en el King College de Cambridge y con 22 años viaja a Alemania donde estudia leyes, física y metafísica. Entre 1880 y 1884 es profesor de matemáticas en el King College y en el University College y en 1911 fue el primer profesor Galton de eugenesia. Era un Darwinista convencido y un ferviente socialista. En 1890 se producen dos sucesos que marcarán la trayectoria de K. Pearson; Galton publica su Herencia Natural donde están incluidos los trabajos sobre correlación y regresión y Weldon en se incorpora como catedrático a la cátedra de zoología en el University College. Las teorías expuestas sobre la evolución, son sujetos de contrastes mediante las ideas de correlación y regresión, así como las consultas que sobre las distintas especies le formulará Galton. Esto le lleva a impartir en 1891 y 1892 conferencias sobre la Geometría de la Estadística en el Greshan College introduciendo los estigmogramas, entigramas, histogramas, cartogramas, estereogramas, etc. como representaciones de los datos estadísticos con el fin de obtener conclusiones sobre los mismos. Puede decirse que tras estas conferencias ha comenzado una nueva época en la teoría y la práctica estadística.

Entre 1893 y 1906 pública 100 artículos sobre la teoría estadística y sus aplicaciones. La capacidad de investigación de K. Pearson es asombrosa, a lo largo de su vida publicó más de 650 artículos, de los cuales más de 400 están dedicados a diversos aspectos de la estadística. Editó seis revistas de investigación y fue cofundador, junto con Weldon y Galton de la revista Biométrika, en 1901, fundada inicialmente para publicar trabajos sobre la herencia y que posteriormente ha ido recogiendo trabajos de estadística aplicada a la biología. Ese mismo año publica sus Tablas para Estadísticos y Biométricos confeccionadas para servir de ayuda en la aplicación de la estadística.

En 1905 publica un artículo titulado Sobre la teoría general de la asimetría, la correlación y la regresión no lineal. En 1914 Fisher, al que luego nos referiremos, empieza su polémica con él. Concretamente cuando Fisher trata de publicar un artículo en Biométrika, sobre el coeficiente de correlación muestral para muestras aleatorio simple de una población normal bivariante el artículo fue referenciado por Weldon como biólogo y K. Pearson como estadístico y le fue negada su publicación, posteriormente Fisher diría que había sido supervisado por un biólogo que no sabía estadística y por un estadístico que nos había biología.

En 1925 K. Pearson funda los Annals of Eugenics y en 1932 anuncia su retiro. El University College a su retiro divide la cátedra de estadística en dos, una la catedral Galton de eugenesia que desempeñó Fisher y la otra en una cátedra de estadística que fue desempeñada por Egon Pearson, el hijo de K. Pearson, quien después desarrollaría, junto con Neyman, la teoría de los contrastes de hipótesis estadísticos. En 1934, fruto de los trabajos del laboratorio de estadística de K. Pearson, aparece la primera versión del hoy clásico libro Las Tablas de la Función Beta Incompleta con respecto al cual hay una anécdota que pone de manifiesto el carácter de Pearson. Atraídos por el prestigio del laboratorio del University College muchos estadísticos pasaban por él con el fin de actualizar sus estudios, y K. Pearson, los invitaba a trabajar en lo que estuvieran haciendo, a la sazón determinar las tablas de la función Beta incompleta. Uno de los profesores visitantes, viendo el duro trabajo que K. Pearson les imponía fue a comunicarle, que por lo que a él le atañía la función Beta podía seguir incompleta durante muchos años. Otra muestra de la personalidad de K. Pearson la constituye el hecho de que en su primera época, cuando descubrió que los valores de la ruleta no eran aleatorios, escribió una carta al gobierno francés solicitando el cierre de los casinos y recomendándole el envío de los fondos así recaudados a la Academia Francesa para qué esta fundara un laboratorio dedicado al estudio de la probabilidad y la estadística.

Cita a todas las contribuciones K. Pearson a la Teoría de la Probabilidad y a la Inferencia Estadística es punto menos que imposible. Sólo señalare las más importantes:

• Introduce su familia de curvas y ajusta sus parámetros introduciendo el método de los momentos. Esta familia de curvas son las soluciones de un ecuación diferencial e incluye a las distribuciones, Beta asimétrica, la Beta simétrica, la gamma y la Normal, entre otras.
• Define con precisión el coeficiente de correlación lineal precisando las ideas introducidas por Galton.
• Desarrolla el método de la ji cuadrada de Pearson para medir el ajuste entre unos datos y una distribución de probabilidad, en una memoria publicada alrededor de 1900, y lo generaliza a las tablas de contingencia.

WILLIAM SEALY GOSSET (STUDENT) (1876-1937)

Nace en Canterbury (Inglaterra) y estudia química y matemáticas en el New College de Oxford. En 1889 inició su trabajo como asesor en una fábrica de cervezas de Dublín. El trabajo que realiza puede ser calificado como el responsable del naciente control de calidad de la firma. En esta línea trabaja sobre la ley de errores y publica una nota interna, en lenguaje claro y accesible para no expertos, sobre la distribución de los errores. Precisamente la imposibilidad a que la empresa sometía a sus empleados de comunicar los resultados que éstos obtenían, le lleva publicar los mismos con el pseudónimo de Student. En 1905 contacta con K. Pearson e inicia una correspondencia con él que se prolongará hasta el fin de sus días. De 1906 a 1907 pasa un año sabático en el laboratorio de K. Pearson en el University College de Londres, donde estudia la aproximación de la distribución vino ni al por la distribución de Poisson y rechaza formar parte del laboratorio del University College por sus tres hijos que en su opinión no podían ser debidamente mantenidos con el sueldo de la Universidad, parece que los sueldos bajos en la Universidad no son de ahora.

Mantuvo una amplia correspondencia con K. Pearson, con E Pearson y con Fisher, el último estadístico que vamos a comentar, correspondencia que recientemente ha sido publicada y que ha elevado la estatura estadística de Student. Muere a los 61 años el Londres de un ataque al corazón.

A Student se le debe:

• La demostración de la convergencia de la distribución vino ni al a la distribución de Poisson.
• Si X ~N(µ, δ) con muestras aleatorio simple de tamaño n obtiene la distribución de la variable aleatoria


Estableciendo su distribución. Donde (x) es el media muestral y S2 la cuasivaríanza muestral
• para muestras correlacionadas obtiene la expresión de la varianza de la media muestral
Con ρ el coeficiente de correlación de la población.

• Introduce la función de potencia de un contraste dado por la región crítica RC mediante la función
Student era para los estadísticos un consultor en una fábrica de cervezas y para los fabricantes de cerveza, alguien que dedicaba a su tiempo libre a la estadística. Podemos añadir que para nosotros es un ejemplo a ofrecer, a las nuevas generaciones de estadísticos, deseosos de lograr aplicaciones sin menoscabo de un alto nivel teórico.

RONALD AYLMER FISHER (1890-1962)

Ronald Aylmer Fisher nació en East Finchley cerca de Londres. Su familia se dedicaba a los negocios pero él rompió la norma. Acudió a la escuela de Stanmore y posteriormente estudió en Harrow. Desde sus comienzos tuvo problemas con la vista. Algunos de sus discípulos han atribuido su habilidad para analizar mentalmente situaciones complicadas a este hecho. En su juventud tuvo prohibido leer con luz artificial y se le recomendó no fijar la vista demasiado.

Cuando dejó Harrow las finanzas familiares no estaban muy bien; sin embargo, gracias a una beca pudo estudiar en Gonville en el Casius College de Cambridge donde se graduó entre 1909 y 1912 y al año siguiente fue lector de física matemática. Durante el tiempo que estuvo en Cambridge también estudió biometría y genética.

En opinión de Kendall la manera de combinar observaciones en astronomía fue lo que le llevó a interesarse por las distribuciones de probabilidad. En su primer artículo, en 1902 se utiliza el valor absoluto para ajustar curvas de frecuencias siguiendo las ideas de K. Pearson.

Entre 1913 y 1915 trabajó en una compañía de inversiones pero sin ningún tipo de vocación. Durante la Primera Guerra Mundial le dispensaron de hacer el servicio militar por su vista y entre 1915 y 1919 se dedicó a la enseñanza en escuelas públicas, trabajo este último que simultaneó con la investigación, pues en 1916 escribió un artículo demostrando que las teorías de Mendel no se ven rechazadas por los datos; lo referencian K. Pearson como estadístico biométrico y Punnet en sus aspectos genéticos.

En 1919 se le ofrece trabajar bajo K. Pearson dirigiendo el laboratorio Galton, o bien asesorar estadísticamente a la Rothamsted Experimental Station. Optó por esta segunda salida, más en consonancia con su propia filosofía de vida, ya que pensaba que, puesto que no podía contribuir al esfuerzo de guerra directo, debido a su visión deficiente, el mantenimiento y mejora de las granjas inglesas podría ser su particular contribución a la misma.

En 1922 escribe La Fundamentación Matemática de la Estadística Teórica donde introduce la noción de modelo estadístico y los conceptos de consistencia, eficiencia, precisión, validación, verosimilitud e información. Al enviar este artículo a Student, se consolida su relación con éste, que ya se había iniciado en 1912. Precisamente es Student quien le da la idea de representar las observaciones como un vector de n dimensiones, esto junto a la intuición geométrica de Fisher le va a permitir llegar a obtener la distribución del coeficiente de correlación bajo la hipótesis de normalidad.

Fisher se unió a Rothamsted en octubre de 1919 y allí desarrolló el análisis de la varianza y los principios del diseño de experimentos; inicialmente no conoce la distribución del cociente de los cuadrados (hoy conocida como distribución F de Fischer-Snedecor) por lo que aproxima su logaritmo por una distribución normal.

En 1925 aparece su primer libro Métodos Estadísticos, que da la impresión de ser un manual para aprendices más que un libro de texto. No obstante, precisamente en esto radicó su éxito, ya que a lo largo del mismo anima a los electores a trabajar los ejemplos. Problemas prácticos, técnicos, teóricos y filosóficos se discuten a través de ejemplos numéricos y en él se aleja de los matemáticos diciendo que en Estadística hay que hacer razonamiento inductivo en lugar deductivo, para lo cual es necesaria, sin embargo, una gran formación matemática pero aplicada a los datos con los que se trabaja.

En 1930 formula La Teoría Genética de la Selección Natural, en la que apoya y modifica la teoría de la evolución de las especies de Darwin. Al año siguiente realiza su primer viaje a Estados Unidos, concretamente a Iowa, invitado por Snedecor.

En 1933 acepta la cátedra de eugenesia en el University College de Londres, trabajando a fondo en genética.

En 1938 viaja a la india invitado por Mahalanobis. Durante esta época desarrolla aspectos de la inferencia inductiva.

En 1943 viaja a Estados Unidos por segunda vez como profesor visitante de la Universidad de California del Norte. En 1947 funda en la Sociedad Biométrica Internacional.

Durante 1953 y 1954 es presidente de la Royal Statistical Society y dedica su intervención presidencial a glosar las contribuciones de los primeros estadístico.

En 1956 pública Métodos Estadísticos e Inferencia Científica.

Se retira en 1957 a la edad de 67 años y se marcha a Australia como investigador senior en el CSIRO (Commonwealth Scientic and Industrial Research Organization) que dirigía Cornish, donde muere en 1962 como consecuencia de un cáncer en la boca.

Como se ha dicho, en su primera época trabajó sobre la teoría de la evolución de Darwin, lo que le llevó a escribir el ya citado artículo sobre las leyes de Mendel, que trató de publicar en Biométrika, revista dirigida por K. Pearson, y que fue rechazado. Tampoco lo logró en la Royal Society, por lo que por sugerencia del mayor Darwin (hijo de Charles Darwin) lo sometió a la Royal Society de Edimburgo, siendo aceptado allí en 1918.

Los problemas con K. Pearson continuaron, pues en 1920 Fischer escribió sobre el error probable del coeficiente de correlación, que también sometió a Biométrika y fue rechazado, por lo que decidió no volver a someter nada a esta revista. Como ya se ha comentado esto le llevó a enemistarse con K. Pearson, enemistad que aumentó cuando Fisher le corrigió los errores que había cometido en el número de grados de libertad de la χ2 (Ji cuadrada) para el problema de ajuste entre unos datos en una distribución con parámetros desconocidos, señalando también que el método de los momentos, que había sido introducido por K. Pearson para estimar los parámetros, no bastaba para asegurar la convergencia del estadístico a la χ2k-1-r siendo r el número de parámetros estimados.

Si se mantenía que la inferencia en la ciencia no era una materia de decisión y que por tanto criterios basados en pagos de cualquier tipo no debían ser utilizados. En esta línea introdujo la distribución fiducial que él sostenía que podía utilizarse en muchos casos como una distribución de probabilidad a posteriori respecto a una a priori no informativa. A pesar de todo, en su libro de 1956 Métodos Estadísticos E Inferencia Científica, Fisher se muestra partidario de la aproximación bayesiana, cuando la información sobre Θ es lo suficientemente extensa para venir dada a través de una distribución de probabilidad, calculando la distribución a posteriori mediante el teorema de Bayes. En otro caso era partidario del argumento fiducial basado en un estadístico suficiente.

En relación con los contrastes de hipótesis, Fisher nos suponía hipótesis alternativa a la hora de plantear un contraste; simplemente afirmaba que una observación acreditaba o no un valor del hipótesis nula Ho: Θ = Θo sin ninguna referencia a cuál pudiera ser H1; eso sí, trabajando de forma condicional al valor esperado. En el problema de contrastar la diferencia de medias en poblaciones normales (X~N(θ112),( Y~N(θ222) con varianzas desconocidas y distintas (problema de Behrens-Fisher), si se obtuvo su distribución fiducial para la distribución de Θ1-Θ2 que dependía del parámetro (δ=σ12) y que ponía de manifiesto que desde el punto de vista de la distribución del muestreo, no se podía determinar el nivel de significación para todo valor de δ como afirmaba la teoría de Neyman-Pearson.

Finalmente, como muestra de su carácter, recogemos de W. G. Cohran una demostración hecha por Fisher:

En una de sus clases citó sin demostrar un resultado. Tras varios intentos sin que me saliera le pedí, en su despacho, si podía hacerme la demostración. Me dijo que en algún sitio la tenía archivada; abrió varios cajones y decidió que era mejor obtenerla de nuevo. Nos sentamos y escribió la misma expresión de la que yo había partido. El camino obvio va en esta dirección, dijo, y escribió una expresión de dos líneas. Ahora supongo que hay que desarrollar esto, y puso una ecuación que ocupaba tres líneas. Miró la expresión y comentó: el único camino parece ser éste, y obtuvo una expresión de cuatro líneas y media. Hubo un silencio de unos 45 segundos y dijo, el resultado se debe seguir de esto, y escribió debajo la expresión que yo le había preguntado. La clase había terminado.

Gracias a Fisher el estudio de la estadística se introdujo en las universidades. No olvidemos que salvo en el University College London, donde ya había cursos de estadística gracias a la personalidad e iniciativa de Karl Pearson, la estadística como tal no aparecía en los programas de las diversas disciplinas científicas.

Curiosamente, como ya hemos mencionado, nunca llegó a ser catedrático de estadística sino de genética en el University College de Londres

En cuanto a las contribuciones a la Inferencia Estadística en opinión de L. J. Savage (1976, 1981) lleva menos tiempo decir a qué partes de la Estadística Fisher no contribuyó, a las que sí lo hizo. No obstante las aportaciones son las siguientes: en primer lugar los tres libros que hemos citado, Los Métodos Estadísticos, El Diseño de Experimentos y La Inferencia Estadística y que recientemente han sido dictados por Bennett (1990).

• La diferencia entre muestra y población.
• El método de la máxima verosimilitud.
• La determinación correcta del número de grados de libertad de χ2 (Ji cuadrada) en los problemas de ajuste entre una muestra y una distribución.
• El diseño de experimentos.
• El análisis de la varianza.

Del diseño de experimentos decía "Un examen cuidadoso del proceso de recogida de datos, o diseño experimental, puede incrementar la precisión de los resultados en diez o doce veces, empleando el mismo tiempo y esfuerzo. Consultar a un estadístico después de que ya haya concluido un experimento es, muy a menudo, pedirle que realice un examen postmortem. Quizá se le pueda decir de qué murió el experimento".

Un estudio más detallado de la contribución de Fisher a la inferencia estadística puede verse en Girón y Gómez Villegas (1998)

Agradecimientos

Este trabajo ha sido subvencionado con la ayuda de la Dirección Generalde Enseñanza Superior e Investigación Científica y Técnica correspondiente al proyecto número PB98-0797, y con la ayuda de la Universidad Complutense de Madrid correspondiente al proyecto número PR1/03-11621.

BIBLIOGRAFIA

BAYES, T. (1764) An essay towards solving a problem in the doctrine of chances, Philos. Trans. R. Soc. London, 53, 370-418, Reeditado por Deming (1940) en Biometrika, 45, 293-315. Traducido al alemán con un comentario por Timerding (1908). Traducido al francés por Cléro (1988). Traducido al castellano por Gómez Villegas, Girón, Martínez y Rios Insúa (2001) en Rev.R. Acad. Cienc. Exact.Fis. Nat. (Esp), 95, 1-2, 63-80.

DROESBEKE, J. J. & TASSI, P. (1990) Histoire de la Statistique, Ed. Presses Universitaires de France. París.

FISHER, R. A. (1990) Statistical Methods, Experimental Design and Scientific Inference. Edited by Bennett, J. M. with a foreword by Yates, F. Oxford. Oxford University Press.

GIRON, F. J. & GOMEZ VILLEGAS, M. A. (1998) R. A. Fisher: su contribución a la Ciencia Estadística, Editado por la Real Academia de Ciencias Exactas, Físicas y Naturales Historia de la Matem¶atica en el Siglo XX. Madrid, 43-61.

GOMEZ VILLEGAS, M. A. (1994) El problema de la probabilidad inversa: Bayes y Laplace, Editado por E. Bustos y otros en Perspectivas Actuales de Lógica y Filosofía de la Ciencia, Ed. Siglo XXI. Madrid, 385-396.

GOMEZ VILLEGAS, M. A. (2001) El "Ensayo encaminado a resolver un problema en la doctrina del azar", Rev. R. Acad. Cienc. Exact.Fis. Nat. (Esp), 95, 1-2, 81-85.

GRAUNT, J. (1662) Natural and Political Observations made upon the Bills of Mortality, Ed. John Martyn and James Allestry. London.

HALD, A (1998) A History of Mathematical Statistics from 1750 to 1930, Ed. Wiley. Nueva York.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería