Ir al contenido principal

Progresos y aplicaciones de la Estadística matemática durante la primera mitad del siglo actual: desde las frecuencias relativas hasta los bits de información.




ESTADÍSTICA ESPAÑOLA.
Vol. 33, Núm. 128, 1991, pàgs. 385 a 400.
 



Por
MIGUEL JEREZ JUAN
Catedrático jubilado de la Universidad Politécnica de Madrid.
(Escuela T.S. De Ingenieros Industriales).


RESUMEN.

Se describen los progresos de la Estadística matemática durante tres etapas: 1901-1920: se revisa la hipótesis de simetría, clave de la defectuosa definición de probabilidad; se sistematizan los métodos de muestreo y se inventa la  Mecánica estadística. 1921-1940: se realizan importantes progresos, una vez delimitadas sus dos grandes parcelas, es decir, la Teoría de probabilidades y la Estadística real propia de los procesos de muestreo; en cuanto a la teoría, la estructura del conjunto de los sucesos de un experimento queda sentada con precisión; en Estadística real, los mayores logros se deban a las escuelas británica y norteamericana: análisis de la varianza y de la covarianza, diseño de experimentos, control de la calidad, etcétera. 1945 hasta mitad del siglo: concluido el conflicto bélico, se registran importantes novedades en la teoría y en las técnicas de la comunicación, tales como la predicción-filtrado de un mensaje, las aportaciones de Shannon (que culminan con la invención de los ordenadores), las técnicas de optimización, los procesos de control, los juegos de estrategia y la investigación de caminos críticos.

Palabras clave: Desarrollo de la estadística matemática.
Clasificación AMS: 62-03.

Al final del siglo anterior, es decir, el siglo XIX, los progresos conseguidos en el estudio de las probabilidades, al revés de lo que ocurría en otras ramas de la Matemática, no eran muy destacables. El desarrollo alcanzado podía concretarse en los conceptos teóricos creados o resumidos por Laplace (1749-1827), la invención de la teoría de los errores de observación por Gauss (1777-1855), ciertas aplicaciones primarias a las estadísticas de mortalidad y otras cuestiones demográficas, y los comienzos de la gestión científica de los seguros, iniciando la rama especializada que hoy se conoce bajo el nombre de Matemática actuarial.

El correspondiente arsenal teórico estaba, pues, representado principalmente por el contenido de la obra Teoría analítica de las probabilidades, publicada por Laplace algunos años antes, en la que se aplican los conocimientos alcanzados por la Matemática de aquella época; se estudian las pruebas repetidas, la ley normal y el teorema de De Moivre (1677-1754), se introduce el principio de los mínimos cuadrados y se incluyen cuestiones y problemas resueltos por diversos autores, incluyendo el teorema de Bayes (1702-1761) y el problema del aguja de Buffon (1707-1788). La definición de probabilidad es la clásica del cociente de los casos favorables y posibles, en cuyo enunciado se haya la famosa petición de principio, que ya había sido denunciada. Laplace intenta salvar esta dificultad mediante el supuesto de simetría de los casos posibles, lo que constituye el germen de un postulado, según observará la sistematización posterior. Otras contribuciones importantes son debidas a Poisson (1781-1840), quien introduce las probabilidades que llevan su nombre; Cauchy (1789-1857) con las funciones generatrices de momentos y la conocida distribución; y el ruso Chebyschev, algo posterior (1821-1894), con su teorema de acotación.

El alemán Gauss había creado la teoría de los errores de observación, estableciendo el método de mínimos cuadrados. La nueva teoría se aplicó por primera vez, con extraordinaria expectación, para calcular la órbita del pequeño planeta Ceres, cuya observación directa se había perdido, partiendo de posiciones anteriores anotadas durante 41 días y que sólo cubrían nueve grados de su trayectoria. Esta extrapolación, cuyo cálculo fue calificado como «maravillosamente exacto», permitió reanudar la observación de aquel planeta, con lo que la validez y eficacia de la teoría alcanzaron definitiva confirmación. Debido a este origen, la teoría de errores se ha venido considerando durante muchos años como un apéndice obligado al estudio de la Astronomía y la Geodesia, hasta que, en época reciente, ha hallado su encaje más adecuado como capítulo de la Estadística matemática.

Con anterioridad a la conclusión del siglo XIX y en orden a las realizaciones, cabe anotar algunos progresos. Existían oficinas de censos en Francia, en Inglaterra, en Prusia y los Estados Unidos; se crearon las primeras sociedades de Estadística y se publicaban algunas revistas especializadas y otras de orientación propiamente científica, tales como los Annales d`Higiene Publique, en Francia, y el conocido Journal de la Royal Statistical Society, en Inglaterra. El estadístico más destacado en aquella época es Quetelet (1796-1874), con su teoría de la regularidad de los fenómenos y su optimismo respecto a las estadísticas internacionales y a la utilidad de los congresos. En España, el Instituto Geográfico y Estadístico (1), con la configuración mixta que su nombre indica, desarrolla su cometido en el año 1870.

El punto de partida de la matemática del siglo XX lo constituye, sin duda, el célebre discurso sobre «los problemas de la Matemática» pronunciado por Hilbert en el Congreso el año 1900, celebrado en París, en cuya ocasión señaló la existencia de las famosas veintitres cuestiones que esperaban solución (y a las que los matemáticos de nuestro siglo han dado cumplida respuesta). El hecho de que ninguna de dichas cuestiones se refiera al Cálculo de probabilidades es sintomático del carácter secundario que se atribuía a esta disciplina, considerándola como un arte (ars conjectandi, arte de la conjetura o del pronóstico) más o menos especial y autónomo, comprensivo de ciertas cuestiones y problemas relacionados con otras parcelas de la Matemática, en particular, la Aritmética, la Combinatoria y el Cálculo infinitesimal, para seguir usando la terminología de la época.

Los primeros progresos que se registran dentro del siglo actual consisten en los intentos, por parte de Poincaré, Bertrand y otros matemáticos, de revisar la hipótesis de simetría, que constituía la clave de la vigente y defectuosa definición de probabilidad; la propuesta de una nueva definición basada en la estabilidad de las frecuencias relativas; la sistematización, con carácter científico, de los métodos de muestreo, y la invención de la Mecánica estadística, significativa esta última de la introducción de los métodos estadísticos en un campo completamente nuevo: el de la Física matemática.

La estabilidad de las frecuencias, que ya había sido apuntada por Quetelet, fue objeto de importantes y fecundas discusiones, acompañadas por extensas y cuidadosas realizaciones experimentales. Como base para una nueva definición, se apuntaba el inconveniente de no constituir un principio, sino una observación experimental; sin embargo, la elaboración posterior de los sistemas de definición mediante postulados ha convertido aquella observación en criterio inspirador para el concepto puro, y por esta vía se llega, con el tiempo, a la definición actual.

La invención de la Mecánica estadística por Gibbs (1839-1903), uno de los científicos más notables que ha producido Norteamérica, y el desarrollo de las mismas ideas en Europa por Maxwell y Boltzmann, entre otros, constituye un suceso de gran importancia, llamado a tener notable repercusión en el futuro desarrollo de la Ciencia. La Física tradicional de Galileo y Newton era fundamentalmente determinista; en cambio, según las nuevas ideas, no es posible razonar sobre un universo único y permanente, sino que ha de hacerse sobre una pluralidad de universos, atribuyendo a cada uno cierto factor de probabilidad. No es posible predecir lo que ya en cada caso va a ocurrir, sino lo que, en cada caso y bajo ciertas condiciones, puede ocurrir. La formulación por Planck de los principios de la Mecánica cuántica, que tiene lugar pocos años más tarde, y que atribuye naturaleza corpuscular a la energía, lo mismo que a la materia, representa una ampliación de inmenso alcance para el ámbito de aplicación de aquellas ideas, las cuales adquieren con ello validez universal.

Por su importante relación con el futuro desarrollo de la Estadística teórica debe mencionarse asimismo la tesis de Lebesgue, presentada en el año 1902, en la cual se introduce la integral que lleva el nombre de este eminente matemático, que generaliza la histórica integral de Newton y Leibniz, perfeccionada posteriormente por Cauchy y Riemann. En ésta, el campo de integración está constituido por un intervalo, interrumpido eventualmente por puntos aislados, en los cuales la función que se integra puede adoptar, excepcionalmente, un comportamiento singular; esta limitación tenía que superarse para poder abordar ciertos problemas que se planteaban, tanto en el propio campo de la Matemática, como en el de la nueva Física. Lebesgue sustituye aquel conjunto de puntos por otro de naturaleza más general, suprimiendo la condición de continuidad, y crea en el mismo una nueva forma para la adición de elementos infinitésimos, que no anula la anterior, sino que la incorpora. En estrecha relación con la integral de Lebesgue se elabora la teoría de la medida de los conjuntos de puntos, en cuyo desarrollo el papel principal es desempeñado por Borel. Otro eminente matemático francés, Maurice Frechet, algo posterior a los dos anteriores, expone su teoría de la integración en los espacios generalizados; la labor de este trío famoso constituye la base para una teoría general de la medida, y uno de los elementos esenciales para la fundamentación actual de la teoría de probabilidades.

En la segunda década de nuestro siglo los métodos estadísticos se perfeccionaban y son objeto de aplicación creciente. En el campo teórico se concluye la teoría de la correlación; en las aplicaciones, aparte el desarrollo de la Física estadística, ya mencionado, y el empleo cada vez mayor de las probabilidades en el estudio de los fenómenos sociales, tal aplicación se extiende a los fenómenos biológicos y pronto se inaugura una nueva rama de la ciencia: la Biometría. Otra novedad está representada por el estudio de las evoluciones llamadas cadenas de Markov. Los ingleses Galton (1822-1911) y Pearson (1857-1936), junto con el ruso Markov (1856-1922), son las figuras más destacadas de este período.

En la etapa comprendida entre el fin de la Primera Guerra Mundial y el comienzo de la segunda, es decir, entre los años 1920 y 1940, aproximadamente, la Estadística matemática hace grandes progresos. Ya están bien delimitadas las dos parcelas que constituyen esta ciencia: por una parte, la  Teoría de probabilidades o base teórica, unida a la pura Matemática; por otra parte, la Estadística real o teoría y técnica de los procesos de muestreo, ligada a la primera, como soporte teórico, y a los campos de aplicación, o sea, a las Ciencias sociales y a la Física; las aplicaciones en tecnología, aunque se inician, son todavía escasas. Los progresos de la Estadística en un segundo aspecto son muy diversos en este período; en la teoría de las probabilidades se hacen esperar un poco más, y sólo al final se manifiestan, si bien, al hacerlo, lo hacen de una manera concluyente.

En Estadística real los mayores logros se deben a las brillantes escuelas de estadísticos británicos y norteamericanos. El profesor de Cambridge R.A. Fisher es la gran figura de esta época y su nombre va unido a casi todos los métodos e innovaciones que, sucesivamente, van apareciendo.

Los ingleses Pearson, ya mencionado, y Gosset, más conocido por su seudónimo Student, crean y tabulan las distribuciones que llevan sus nombres, las cuales introducen al estudiar el comportamiento de las variables observadas en los muestreos. En el año 1923, Fisher propone una técnica para el estudio comparativo de los rendimientos de las tierras agrícolas cuando se someten a distintas condiciones de trabajo y a la acción de distintos fertilizantes; esta técnica se denomina «análisis de la varianza», y pronto es objeto de distintas generalizaciones y de aplicación en problemas distintos del de partida. En él análisis de la varianza se somete a prueba la homogeneidad de las medias observadas en un conjunto de muestras, las cuales corresponden a distintas condiciones del experimento. En el desarrollo del análisis de la varianza han tenido notable importancia las aportaciones de Snedecor, Bartlett y Mann, entre otros. Sigue la ordenación estadística del diseño de experimentos; el planteamiento y resolución de nuevos problemas relacionados con la teoría de la regresión y correlación; el análisis de la covarianza, en el que se somete a la prueba la homogeneidad de un conjunto de coeficientes muestrales de regresión, etc.

El capítulo de mayor alcance incorporado al desarrollo de la Estadística real en la época a la que nos referimos es la llamada teoría de la estimación, desarrollada entre los años 1933 y 1940 por Fisher, Neyman y Pearson, inicialmente, con importantes contribuciones posteriores de Massey, Willis, Rao, Frechet, Bernstein y otros. De esta teoría forman parte los llamados intervalos de confianza, y la prueba, contraste o test de hipótesis estadísticas, que han venido a dar precisión conceptual y numérica a ciertas evaluaciones que, con anterioridad, se manifestaban con imperfecto significado o con defectuosa precisión. En estrecha relación con los intervalos de confianza y las pruebas de hipótesis debe mencionarse la teoría conocida bajo el nombre de control estadístico de la calidad, cuya aplicación se inicia en los años inmediatamente anteriores a la Segunda Guerra Mundial y que, en su doble aspecto de control de recepción y control en curso de fabricación, constituye actualmente una condición imprescindible para el buen funcionamiento en toda gran industria.

En la teoría de probabilidades, según ya indicamos, grandes innovaciones se hacen presentes en los años 1934 a 1939. Con anterioridad pueden registrarse algunas contribuciones al problema de los momentos, otras el estudio de las convergencias estocásticas, y la introducción de las funciones características como representativas y determinantes de las funciones de distribución, en sustitución de las antiguas funciones generatrices.

Una vez identificado el carácter booleano del conjunto de los sucesos que integran un experimento, se aceptaba intuitivamente su estrecha relación con el álgebra de las partes de un conjunto y con otras álgebras de análoga naturaleza, pero se carecía de la pieza de enlace que suministrará precisión y rigor a esta presentida correspondencia. Dicho enlace se consigue en el año 1936, al ser demostrada por el matemático americano M. H. Stone sobre la isomorfía de cualquier álgebra de Boole con el álgebra de las partes de un conjunto y, en consecuencia, la isomorfía de todas ellas entre sí. Por otra parte, la gran atención que algunas escuelas matemáticas venían dedicando al cultivo del Álgebra condujo a la consideración de unas estructuras muy generales los retículos, traducción del término lattices, propuesto por Birkhoff, de las cuales las álgebras de Boole constituyen un caso particular. La naturaleza estructural, en sentido algebraico, del conjunto de los sucesos de un experimento quedaba, pues, establecida con toda precisión. Sólo faltaba un paso para que la teoría de probabilidades quedará organizada, desde el punto de vista científico, con todo el rigor exigible a una disciplina matemática.

Así como los logros más importantes alcanzados en Estadística real son fruto de las escuelas inglesa y americana, el honor de esta última conquista corresponde principalmente a los matemáticos rusos, y a la cabeza de ellos a Kolmogorov (1903-1975), que da nombre a la nueva teoría. Partiendo de las álgebras de sucesos finitas, cuyo desarrollo presenta moderadas dificultades, se establecen, con el auxilio de algunos teoremas de Álgebra y Topología, las propiedades de las álgebras de sucesos generales, las cuales, cuando se cumple la condición de aditividad infinita, son llamadas de Sigma- álgebras o cuerpos de Borel. Una Sigma álgebra alfa de las partes de un conjunto de sucesos E, sobre la cual está definida una función de conjunto P(A) que satisface ciertos axiomas, es un álgebra de probabilidad de Kolmogorov y se designa por la notación sintética (E, alfa, P). Una variable aleatoria se define como aplicación del conjunto de sucesos E en un conjunto de puntos, sobre el cual la función de conjunto P(A) induce la medida-P de un intervalo, y ésta, a su vez, permite construir la medida-P para otros conjuntos más generales, siguiendo la sistemática de Lebesgue.

Tal es el fundamento de la nueva noción de probabilidad, basada en un sistema de postulados, al modo de Russell, como se hace hoy día en todas las ciencias. Desde este momento, la teoría de probabilidades, soporte conceptual de la  Estadística matemática, está sentada sobre base firme y se desarrolla con el mismo rigor que la Geometría de Hilbert.

En el año 1946 y siguientes, una vez concluido el conflicto bélico, se inaugura una nueva etapa en todos los campos de la actividad científica. Las universidades y centros de investigación de los países implicados en la contienda reanudan su actividad, al tiempo que se van conociendo las importantes conquistas logradas en algunas ramas, singularmente las más relacionadas con las necesidades de la guerra, y que, hasta entonces, habían estado guardadas por el secreto militar.

En los campos relacionados con la Estadística, se registran cambios muy importantes en la teoría y en las técnicas de la comunicación. Los requerimientos crecientes para la eliminación de perturbaciones dieron lugar a una nueva teoría y realización de los filtros de ondas, la cual fue elaborada en los Estados Unidos por Wiener y sus colaboradores. Este matemático realizaba, al mismo tiempo, estudios sobre las series cronológicas, es decir, en un dominio bien propio de la Estadística, tratando de formular una nueva teoría de la predicción, con vistas a su aplicación en el problema de la dirección automática del tiro, planteado por la artillería antiaérea. En la investigación científica es bastante frecuente que, al resolverse un problema, queden resueltos otros, cuya relación con el primero no se había sospechado. Así ocurrió en este caso; la idea de predecir el estado futuro de un mensaje de cualquier naturaleza, al que acompañan perturbaciones, partiendo de la información estadística sobre uno y otras, contenía, según resultó, la base completa para el nuevo método de separación de ruidos, y tal descubrimiento tuvo lugar en un momento muy oportuno, ya que en la nueva técnica del radar se tropezaba con dificultades importantes.

Otra circunstancia no infrecuente, la de que un descubrimiento se realice simultáneamente o casi simultáneamente por dos investigadores, también se da en este caso, ya que el ruso Kolmogorov había formulado una teoría de la predicción sustancialmente coincidente con la de Wiener. Por este motivo, y estando bien reconocido que los trabajos de ambos se habían desarrollado con completa independencia, dicha teoría se conoce actualmente bajo el nombre de «teoría estadística de la predicción y filtrado en el sentido de Wiener-Kolmogorov», la cual culmina con las aportaciones de Kalman y Bucy, a comienzos de la década de los setenta.

En la misma época, el físico Shannon, de los laboratorios Bell, que había publicado antes de la guerra distintos trabajos sobre el empleo de la Lógica matemática como fundamento de las técnicas de información, amplía el alcance de los mismos, representando la información por medio de signos binarios, y trasmitiéndola a través de circuitos de conmutación formados por interruptores o relés, o bien a través de circuitos lógicos formados por diodos o transistores. Se parte de las nociones de información asociada a un suceso como el logaritmo negativo de la probabilidad del mismo; unidad de información o bits, que es la información correspondiente a uno cualquiera de los sucesos en un experimento que contiene dos equiprobables (clásico ejemplo en la tirada de una moneda simétrica); y entropía de un experimento o valor medio de la información correspondiente a los sucesos que lo componen. El desarrollo y generalización de estas ideas ha conducido a la actual Teoría de la información, y su aplicación, al logro de importantísimos dispositivos, entre los que es necesario destacar el de las calculadoras y ordenadores digitales, cuyo empleo, cada vez más generalizado, está llamado a tener trascendentales repercusiones, tanto en el terreno científico como en el económico y social.

Aunque no es posible detenerlos en este punto, importa consignar que la Teoría de la información ha venido a acompañar a la Teoría de la probabilidad y a la Estadística real, pilares de la Estadística matemática, considerada como estructura completa. El triángulo conceptual probabilidades-estadística-información, y las relaciones entre sus tres vértices, sustituye el clásico par probabilidades-estadística y representa la organización de la estadística matemática bajo nuevos aspectos, a los que ha dedicado mucha atención el conocido matemático húngaro profesor Rényi (1908-1979).

Pasando a un aspecto distinto de los anteriores, se divulga, a partir del año 1946, el empleo de ciertas técnicas para conseguir la utilización, en términos óptimos, de las armas o elementos disponibles para la defensa y el ataque, lo mismo que en otras operaciones de carácter estratégico, táctico o logístico. En el desarrollo y aplicación de estas técnicas intervinieron, en ambos bandos contendientes, equipos de hombres de ciencia, quienes prestaron de este modo su concurso al esfuerzo bélico de sus países. Los métodos aplicados guardan estrecha relación con la Estadística matemática, y la eficacia de sus resultados había sido reconocida y elogiada por los altos mandos militares.

La actividad científica que se ocupa de los llamados fenómenos de organización, o Economía en sentido amplio, ha tenido en los últimos años un desarrollo muy grande como consecuencia, por una parte, de requerimientos concretos procedentes de los campos de su aplicación (desarrollo económico, organización industrial, investigación biológica, problemas militares, etc.) y, por otra, de los progresos de la Matemática.

No puede desconocerse que el desarrollo de las ciencias físicas, que le precede en el tiempo, ha constituido pauta y modelo para la nueva actividad, hasta el punto que algunos han llamado, sin mucha propiedad fenómenos artificiales a los que son materia del nuevo estudio, como contrapunto a la denominación de fenómenos naturales, que suele darse a los que pertenecen al ámbito de la Física, también entendida en sentido amplio.

Parece oportuno examinar algunas posiciones básicas en relación con los fenómenos de organización, empezando por intentar una definición adecuada de los mismos. Pueden designarse como tales aquellos fenómenos en los que, sobre un soporte material, simple o complejo, interviene el hombre con actividad organizada y consciente. En las manifestaciones concretas es frecuente la consideración de problemas en los que aquel soporte está representado por un conjunto formado por máquinas, fuentes de energía, primeras materias, productos, etc.

El estudio de los fenómenos naturales es, por lo general, ajeno al logro inmediato de una finalidad, por lo que la investigación suele limitarse a la descripción de las causas y de los efectos, con independencia de las consecuencias utilitarias que, con posterioridad, puedan deducirse. En cambio, en los fenómenos de organización aparece, casi siempre en primer plano, un objetivo o un conjunto de objetivos, los cuales no pueden establecerse sin considerar la contrapartida, en forma de precio, esfuerzo o sacrificio, que se consiente para realizarlos.

Atendiendo al nexo causal o estocástico que puede existir entre las premisas de los problemas y las posibles soluciones, aquellos son clasificados por Wiener de la siguiente forma:

A). Las estructuras están descritas mediante magnitudes perfectamente determinadas y conocidas: se trata de problemas determinados, es decir, con una componente aleatoria nula o despreciable.
B). Cada decisión posible está asociada a una secuencia de estados aleatorios; intervienen magnitudes determinadas y otras aleatorias, conociéndose las distribuciones de probabilidad de estas últimas: nos hallamos ante un universo influido por el azar, existiendo, por lo general, una componente determinista y otra aleatoria; gracias a la estimación estadística, pueden formularse ciertos resultados inseparables de sus valores de probabilidad.
C). A los elementos presentes en el caso anterior se une una reacción del medio exterior, también de naturaleza estocásticas (operaciones militares, economía con competencia, etc.), y la preparación de cualquier decisión toma el aspecto de un juego de estrategia: son los problemas cuyas técnicas de planteo y resolución han sido creadas por Von Neumann.
D). Finalmente, puede ocurrir que, aunque se posea algún conocimiento de las estructuras, las situaciones futuras que se pueden asociar a nuestras decisiones son completamente desconocidas, incluso en probabilidad: nos hallamos en este caso en presencia de un universo desconocido.

En relación con los fenómenos de organización, el hombre, ser racional, no se contenta con la descripción cualitativa de los hechos, sino que requiere una expresión cuantitativa de los mismos.

En Física, la medida, si se realiza con los medios necesarios para lograr una gran precisión, puede considerarse como una operación determinada; si queremos expresarnos mejor, diremos que está afectada por una componente aleatoria muy pequeña, que a veces (no siempre) será cómodo despreciar. En Economía, mejor diremos en Econometría, el concepto de medida tendrá que sustituirse por el de estimación, con resultados inseparables, en cualquier caso, desviaciones o intervalos de probabilidad. Por otra parte, es mucho más fácil repetir muchas veces una experiencia física en condiciones idénticas que repetir una experiencia en un fenómeno de organización, lo cual resulta siempre muy costoso

La analogía juega un papel muy importante en la investigación. La experimentación con modelos, generalmente a escala reducida y utilizando muchas veces elementos de distinta naturaleza que la que es propia del fenómeno original (potenciales eléctricos en vez de cargas hidráulicas, válvulas electrónicas en lugar de dispositivos mecánicos de interrupción, etc.), constituye hoy día un elemento de investigación de empleo muy extendido. Por otra parte, la analogía es la base de una técnica de cálculo de inmenso alcance y porvenir en las llamadas máquinas analógicas.

El nexo entre el fenómeno estudiado y el dispositivo experimental lo constituye el modelo matemático, que debe ser él mismo en ambos casos. De este modo, ciertos resultados, deducidos por cálculo sobre los modelos matemáticos correspondientes, podrán compararse con los datos obtenidos por la experimentación directa o sobre el modelo, verificando la validez de las hipótesis que sirvieron de base para formular la teoría.

La ecuación diferencial

y'' + ay' + by = 0

Constituye un modelo matemático bien conocido para representar fenómenos vibratorios y oscilatorios de distinta naturaleza, sin más que relacionar las dos constantes que figuran en la misma con las características físicas del problema particular que se considera. Del mismo modo, la ecuación diferencial

p'k (t) = - µρ k (t) + µρ k -1(t)

Constituye un modelo conveniente para muchos procesos de distribución aleatoria de sucesos en el tiempo, representando ahora pk(t) la probabilidad de que ocurran precisamente k sucesos antes del instante t; este modelo resulta muy adecuado en el estudio de los fenómenos de la vida (seguros, piezas o elementos que se destruyen), evolución (especies, radiactividad), tráfico (teléfonos, ferrocarriles, aeropuertos), líneas de espera (servicios), etc.

De acuerdo con la naturaleza de cada problema, la contrapartida (precio, esfuerzo o sacrificio) se formula por medio de una cierta función de valor o función económica (en ocasiones, más de una), expresada en unidades de tiempo, volumen o peso, de valor en dinero, de distancia, de energía, etc., sometida casi siempre a determinadas restricciones (en términos analíticos, igualdades o desigualdades de condición) acerca de la cual se trata de deducir el comportamiento óptimo. Se llega con ello a las llamadas técnicas de optimización, cuyo desarrollo requiere el empleo de un formidable arsenal matemático que va desde las teorías clásicas hasta los aspectos más intrincados del cálculo de variaciones, en conexión con los algoritmos y parámetros creados o introducidos por el álgebra moderna, la Topología y la Teoría de la estimación. El estudio de los procesos de control, de tanta trascendencia en el momento actual, forma parte de esta moderna rama de la Matemática estadística.

La preocupación actual hacia estas técnicas por parte de los centros de investigación teórica y aplicada, y por los organismos propios del mando económico, político y militar, alcanza hoy día, en todos los países, extensión y dimensión extraordinarias. Para comprender tales problemas en un modelo común se configuraron los procesos aleatorios o estocásticos, en los cuales si S representa un sistema de cualquier naturaleza, en evolución (es decir, en condición no estática), y Ω es el conjunto de todos los estados que pueda adoptar, los cuales son función de una cierta variable t, describir la evolución de S significa evaluar la probabilidad de cualquier suceso del tipo siguiente: cuando el valor de la variable es t, el estado X(t) del sistema pertenece a un cierto subconjunto (ω.) de Ω; y también la probabilidad de verificación conjunta de cualquier número de tales sucesos, con distintos valores de t y diversos subconjuntos (ω.). Cuando el estado del sistema S puede describirse de este modo, se dice que su evolución constituye un proceso aleatorio. En los procesos llamados cronológicos la variable t representa, naturalmente, el tiempo. En este caso, cuando se parte del estado del sistema en el instante to, los estados en el pasado tto, interesando establecer acerca de los mismos alguna predicción racional.

Inmediatamente se comprende la generalidad de este concepto, en el que quedan comprendidos multitud de procesos pertenecientes al campo de las ciencias físicas, y muchos otros que son propios de las técnicas de organización. Destaca, pues, el poder unificador del modelo. Pueden establecerse diversas clasificaciones, entre las que es importante la distinción entre procesos descriptivos y procesos de decisión. En los primeros se trata, simplemente, de conocer las componentes ciertas y aleatorias de un estado, estas últimas con sus valores de probabilidad; en el segundo se trata de distinguir, entre un conjunto de estados posibles, el que resulte óptimo, es decir, el más favorable desde el punto de vista de una regla de decisión fijada de antemano.

Los procesos y las cadenas de Markov, en su versión actual, tienen importantísima significación dentro del cuadro de los procesos aleatorios que hemos llamado cronológicos. Cuando el estado de un sistema en instantes sucesivos t1,, t2,..., tn, anteriores a t, suministra, en cuanto al estado en t, una cierta información, la cual se haya enteramente contenida en el conocimiento del estado más reciente tn, la evolución de que se trata constituye un proceso de Markov.

El proceso de Markov es estacionario cuando las probabilidades P no quedan afectadas por una traslación en el tiempo. Un proceso aleatorio (markoviano o no) se llama discreto si los cambios estado sólo pueden ocurrir en instantes dados, que forman una sucesión finita o numerable. Por extensión, se considera que un proceso es discreto cuando los estantes de cambio son eventualmente aleatorios, pero no entran en consideración los valores instantáneos, sino únicamente el orden de sucesión, tal como si los cambios ocurriesen en instantes representarles por..., - 2, - 1,0, 1,2,..., a partir de uno de ellos. Finalmente, se llama cadena de Markov a todo proceso de Markov que es, al mismo tiempo, discreto y estacionario.

Las probabilidad de cambios de estado se ordenan en la llamada matriz de transición, cuyas potencias intervienen para representar los estados sucesivos de un proceso estacionario. Las matrices de transición, cuya potencia n-esima tiende hacia un limite cuando n tiende a infinito, corresponden a los procesos llamados ergódicos, cuya importancia es muy grande en el estudio de ciertos sistemas físicos y en otros campos. El estudio de los sistemas ergódicos ha conducido a una nueva formulación de la teoría del potencial, de naturaleza estadística, la cual ofrece perspectivas de gran alcance. Ello, junto con la moderna Termodinámica de la información, son aspectos sobresalientes de la nueva concepción estadística de la Mecánica y la Física.

Los problemas de programación constituyen una generalización de la clásica teoría de los extremos condicionados del Análisis matemático, y su formulación general es la siguiente. En el conjunto X de todos los actos posibles de cierto sistema, se trata de distinguir el acto Xo para el cual alcanza su valor óptimo (máximo o mínimo) la función f(x). En este enunciado general, f(x) representa una función de conjunto, que se traduce en una función de punto en ciertas formulaciones particulares, entre las cuales vamos a indicar las más importantes.

Cuando cada acto posible X está representado por un conjunto finito de parámetros (x1, x2, ,,,,xn), y la preferencia corresponde al valor óptimo de una función f(x1, x2,...,xn), llamada función- objetivo del problema, la cual es lineal en estas variables, mientras que las restricciones de conjunto a las que estas variables se hallan sujetas están representadas por ecuaciones o inecuaciones, también lineales, estamos en el caso de la programación lineal, que es el más simple y conocido de la teoría.

Si la función-objetivo por las restricciones son expresiones más generales de x1, x2, ,,,,xn, resultan otros problemas; los casos mejor estudiados son los de la programación cuadrática y la programación entera. Otros problemas requieren la consideración de coeficientes aleatorios en la función-objetivo o en las restricciones, lo que caracteriza la llamada programación estocástica. Finalmente, la acumulación de nueva información en tiempos sucesivos, dando al problema carácter secuencial, caracteriza la programación dinámica, cuyos enfoques por Bellman y Pontryagin están estrechamente relacionados.

Ciertas cuestiones del arte militar y otra del Economía clásica pueden tratarse en el marco de la teoría de juegos de estrategia, en la cual entra en consideración la competencia o reacción del contrario ante la propia acción. La formulación matemática de la idea de estrategia es original de Von Neumann. Toda competencia humana puede considerarse como un juego. Las llamadas estrategias mínimax son óptimas en el sentido de que, cuando sólo intervienen dos jugadores A y B, si A no hizo su estrategia óptima, B puede obtener ventaja modificando convenientemente la suya.

Las dos ideas fundamentales para el tratamiento de estos problemas son: el concepto de utilidad como teoría del comportamiento racional frente a la incertidumbre, y la noción de estrategia pura o plan formulado por un jugador antes de comenzar la partida y que prevé todas las decisiones que habrá de tomar en el curso de la misma, estando prescrita cada jugada como función de la información conocida por el jugador antes de realizarla. De este modo, el curso esperado del juego está determinado por la adopción de una estrategia pura por cada jugador, que ignora, naturalmente, la elegida por el contrario.

Von Neumann consideró un número finito de estrategias puras; posteriores generalizaciones han venido considerar el caso de infinitas estrategias. Por otra parte, se han estudiado juegos en los que intervienen más de dos personas, requiriendo la introducción de criterios para el reparto de la compensación de ganancias entre coaliciones, así como una serie de nuevas definiciones y conceptos. El desarrollo de la teoría de juegos n -personales plantea variados y difíciles problemas, muchos de los cuales esperan solución. Merece destacarse la gran analogía, en cuanto a la gradación de los problemas y a su dificultad creciente, con el caso de los dos cuerpos, los tres cuerpos y los n cuerpos, en Mecánica.

El nombre de la teoría de grafos procede de la teoría de conjuntos, después de las aportaciones de König. Un grafo se presenta como un conjunto finito o numerable de puntos, a los que se llama vértices o nodos; cada vértice puede estar unido a cualquiera de los demás, incluso a sí mismo, por ramas orientadas, reciben el nombre de arcos; el arco de unión de un vértice consigo mismo constituye una figura particular, que se denomina bucle. Tal dispositivo se utiliza para representar las relaciones existentes entre los elementos del problema, en lo que concierne a ciertas propiedades, cuyo estudio interesa.
 Los problemas más frecuentes, relacionados con la teoría de grafos son los de búsqueda de caminos críticos, las permutaciones óptimas y los caminos hamiltonianos óptimos. Los caminos críticos entre los puntos, o geodesicas de grafo, se aplican cuando se trata de organizar la ejecución de un proyecto, realizando sus diversas etapas de la forma más favorable del punto de vista que requiera la preferente atención, y que suelen ser los de coste mínimo o tiempo mínimo de ejecución.

La investigación de los caminos críticos ha dado lugar a los conocidos métodos Pert, CPM, Manpower scheduling y Ramps para el estudio de la ejecución de proyectos.. Es muy conocido el hecho de que el método Pert nació en los Estados Unidos con motivo de la ejecución del famoso proyecto «Polaris» y que su aplicación permitió reducir en dos años la duración de la misma.

En lo que se refiere a la teoría de probabilidades, son aportaciones recientes dignas de mención la revisión de algunos conceptos, como consecuencia de la moderna teoría de la información, a la que ya nos hemos referido, y el examen exhaustivo del alcance de las convergencias estocásticas, que simplifica al máximo la demostración del venerable teorema central del límite, establece otros teoremas de convergencia muy precisos, y cierra prácticamente un capítulo iniciado en los tiempos de De Moïvre.

En el curso del texto anterior se han citado algunos autores destacados, cuyos nombres también curados al desarrollo de la estadística matemática en la primera mitad del siglo actual.

No debe silenciarse que, en nuestro país, la ciencia estadística ha sido objeto importante atención. En ocasión memorable, el maestro Rey Pastor mencionaba los nombres de Artigas, Cámara, Fernández Baños, Quijano y Terradas como los pioneros y propagandistas del cálculo de probabilidades y la estadística matemática. A esta nómina ilustre debe añadirse, si se trata de ponerla al día, otros nombres como los de Ríos, Cansado, Azorín, Castañeda, Torrens, Vegas, Arnáiz y otros.

Finalmente, es justo mencionar, a modo de homenaje, la labor que realizan en todos los países, y desde luego en el nuestro, los Institutos Nacionales de Estadística, y en Holanda, con proyección internacional, el Instituto Internacional de Estadística; labor silenciosa de unos científicos especializados que aplican las teorías y métodos estadísticos a la recogida, depuración, ordenación registro y explotación de los millones de datos que luego utilizarán  científicos, técnicos, economistas, políticos y, en general, cuántos tienen que proyectar, organizar y ordenar cualquier realización material. Estos hombres son los colaboradores anónimos de todo proyecto importante, y los que escriben día a día, proponérselo, las páginas más objetivas y valiosas de la historia contemporánea.

Comenzaba este trabajo escribiendo: al final del siglo anterior, es decir, el XIX... dentro de pocos años, al referirse el siglo anterior habrá que mencionar el siglo XX. Cuando tratamos de asomarnos, con asombro y timidez, al momento actual se lo presenta, como hecho deslumbrante, el papel primordial que los métodos informáticos desempeñan para resolver o ayudar a resolver múltiples problemas, y como generadores e impulsores de otros nuevos, tanto en el campo de las ciencias y las técnicas tradicionales como el que es propio de las actividades de organización.

He aludido antes a la moderna Termodinámica de la información, cuyo principio de la entropía creciente significa para todo lo humano, incluidas las personas y los conocimientos, el camino inexorable hacia la vejez; lo cual, aplicado a la ocasión presente, me obliga a albergar algunas dudas acerca del interés que el contenido de la exposición que antecede puede actualmente tener.

Sin embargo, un ejemplo señero acude a mi mente para estimular la de confortarla: el que nos dio el maestro Ramón y Cajal, quien, a los 80 años fue capaz de producir una de sus mejores obras (2).


(1). Actualmente, Instituto Geográfico y Catastral, después de trasladarse a otros organismos sus competencias en materia estadística.
(2). Se alude al ahora de don Santiago Ramón y Cajal El Mundo Visto a los 80 Años (impresiones de un arterioesclerótico), publicada en 1933.

Comentarios

Entradas populares de este blog

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

LA ESTADÍSTICA Y LOS DIFERENTES PARADIGMAS DE INVESTIGACIÓN EDUCATIVA.

Educar, 10 (1986). 79-101.   F. Javier Tejedor Profesor Catedrático del Área de Métodos de Investigación y Diagnóstico en Educación. Universidad de Santiago de Compostela. RESUMEN. En este trabajo el autor asocia el término paradigma a la perspectiva científica que predomina en un campo determinado y aboga por mantener la denominación «paradigmas racionalista y naturalista» y evitar el planteamiento del problema en términos de «cuantitativo y cualitativo». Analiza las diferencias entre ambos paradigmas y asocia la dicotomía entre los métodos cuantitativos y cualitativos al pensamiento de que existe una vinculación única e inequívoca entre método y paradigma justificando que no existe una relación exclusiva entre método y paradigma. Se define el método como el conjunto de procedimientos a seguir por toda actividad que aspire a ser científica cuya misión es aportar pruebas empíricas verificables aunque, una vez observado el hecho, el investigador puede afrontar e