Progresos y aplicaciones de la Estadística matemática durante la primera mitad del siglo actual: desde las frecuencias relativas hasta los bits de información.
ESTADÍSTICA ESPAÑOLA.
Vol. 33, Núm. 128, 1991, pàgs. 385 a 400.
Por
MIGUEL JEREZ JUAN
Catedrático jubilado
de la Universidad Politécnica de Madrid.
(Escuela T.S. De
Ingenieros Industriales).
RESUMEN.
Se describen los progresos de la Estadística
matemática durante tres etapas: 1901-1920: se revisa la hipótesis de simetría,
clave de la defectuosa definición de probabilidad; se sistematizan los métodos
de muestreo y se inventa la Mecánica
estadística. 1921-1940: se realizan importantes progresos, una vez delimitadas
sus dos grandes parcelas, es decir, la Teoría de probabilidades y la
Estadística real propia de los procesos de muestreo; en cuanto a la teoría, la
estructura del conjunto de los sucesos de un experimento queda sentada con
precisión; en Estadística real, los mayores logros se deban a las escuelas
británica y norteamericana: análisis de la varianza y de la covarianza, diseño
de experimentos, control de la calidad, etcétera. 1945 hasta mitad del siglo:
concluido el conflicto bélico, se registran importantes novedades en la teoría
y en las técnicas de la comunicación, tales como la predicción-filtrado de un
mensaje, las aportaciones de Shannon (que culminan con la invención de los
ordenadores), las técnicas de optimización, los procesos de control, los juegos
de estrategia y la investigación de caminos críticos.
Palabras clave: Desarrollo de la
estadística matemática.
Clasificación AMS: 62-03.
Al final del siglo anterior, es decir, el
siglo XIX, los progresos conseguidos en el estudio de las probabilidades, al
revés de lo que ocurría en otras ramas de la Matemática, no eran muy
destacables. El desarrollo alcanzado podía concretarse en los conceptos
teóricos creados o resumidos por Laplace (1749-1827), la invención de la teoría
de los errores de observación por Gauss (1777-1855), ciertas aplicaciones
primarias a las estadísticas de mortalidad y otras cuestiones demográficas, y
los comienzos de la gestión científica de los seguros, iniciando la rama
especializada que hoy se conoce bajo el nombre de Matemática actuarial.
El correspondiente arsenal teórico estaba,
pues, representado principalmente por el contenido de la obra Teoría
analítica de las probabilidades, publicada por Laplace algunos años antes,
en la que se aplican los conocimientos alcanzados por la Matemática de aquella
época; se estudian las pruebas repetidas, la ley normal y el teorema de De
Moivre (1677-1754), se introduce el principio de los mínimos cuadrados y se
incluyen cuestiones y problemas resueltos por diversos autores, incluyendo el
teorema de Bayes (1702-1761) y el problema del aguja de Buffon (1707-1788). La
definición de probabilidad es la clásica del cociente de los casos favorables y
posibles, en cuyo enunciado se haya la famosa petición de principio, que ya
había sido denunciada. Laplace intenta salvar esta dificultad mediante el
supuesto de simetría de los casos posibles, lo que constituye el germen de un
postulado, según observará la sistematización posterior. Otras contribuciones
importantes son debidas a Poisson (1781-1840), quien introduce las
probabilidades que llevan su nombre; Cauchy (1789-1857) con las funciones
generatrices de momentos y la conocida distribución; y el ruso Chebyschev, algo
posterior (1821-1894), con su teorema de acotación.
El alemán Gauss había creado la teoría de los
errores de observación, estableciendo el método de mínimos cuadrados. La nueva
teoría se aplicó por primera vez, con extraordinaria expectación, para calcular
la órbita del pequeño planeta Ceres, cuya observación directa se había perdido,
partiendo de posiciones anteriores anotadas durante 41 días y que sólo cubrían
nueve grados de su trayectoria. Esta extrapolación, cuyo cálculo fue calificado
como «maravillosamente exacto», permitió reanudar la observación de aquel
planeta, con lo que la validez y eficacia de la teoría alcanzaron definitiva
confirmación. Debido a este origen, la teoría de errores se ha venido
considerando durante muchos años como un apéndice obligado al estudio de la
Astronomía y la Geodesia, hasta que, en época reciente, ha hallado su encaje
más adecuado como capítulo de la Estadística matemática.
Con anterioridad a la conclusión del siglo
XIX y en orden a las realizaciones, cabe anotar algunos progresos. Existían
oficinas de censos en Francia, en Inglaterra, en Prusia y los Estados Unidos;
se crearon las primeras sociedades de Estadística y se publicaban algunas
revistas especializadas y otras de orientación propiamente científica, tales
como los Annales d`Higiene Publique, en Francia, y el conocido
Journal de la Royal Statistical Society, en Inglaterra. El
estadístico más destacado en aquella época es Quetelet (1796-1874), con su
teoría de la regularidad de los fenómenos y su optimismo respecto a las
estadísticas internacionales y a la utilidad de los congresos. En España, el
Instituto Geográfico y Estadístico (1), con la configuración mixta que su
nombre indica, desarrolla su cometido en el año 1870.
El punto de partida de la matemática del
siglo XX lo constituye, sin duda, el célebre discurso sobre «los problemas de
la Matemática» pronunciado por Hilbert en el Congreso el año 1900, celebrado en
París, en cuya ocasión señaló la existencia de las famosas veintitres
cuestiones que esperaban solución (y a las que los matemáticos de nuestro siglo
han dado cumplida respuesta). El hecho de que ninguna de dichas cuestiones se
refiera al Cálculo de probabilidades es sintomático del carácter secundario que
se atribuía a esta disciplina, considerándola como un arte (ars conjectandi,
arte de la conjetura o del pronóstico) más o menos especial y autónomo,
comprensivo de ciertas cuestiones y problemas relacionados con otras parcelas
de la Matemática, en particular, la Aritmética, la Combinatoria y el Cálculo
infinitesimal, para seguir usando la terminología de la época.
Los primeros progresos que se registran
dentro del siglo actual consisten en los intentos, por parte de Poincaré,
Bertrand y otros matemáticos, de revisar la hipótesis de simetría, que
constituía la clave de la vigente y defectuosa definición de probabilidad; la
propuesta de una nueva definición basada en la estabilidad de las frecuencias
relativas; la sistematización, con carácter científico, de los métodos de
muestreo, y la invención de la Mecánica estadística, significativa esta última
de la introducción de los métodos estadísticos en un campo completamente nuevo:
el de la Física matemática.
La estabilidad de las frecuencias, que ya
había sido apuntada por Quetelet, fue objeto de importantes y fecundas
discusiones, acompañadas por extensas y cuidadosas realizaciones
experimentales. Como base para una nueva definición, se apuntaba el
inconveniente de no constituir un principio, sino una observación experimental;
sin embargo, la elaboración posterior de los sistemas de definición mediante
postulados ha convertido aquella observación en criterio inspirador para el
concepto puro, y por esta vía se llega, con el tiempo, a la definición actual.
La invención de la Mecánica estadística por
Gibbs (1839-1903), uno de los científicos más notables que ha producido Norteamérica,
y el desarrollo de las mismas ideas en Europa por Maxwell y Boltzmann, entre
otros, constituye un suceso de gran importancia, llamado a tener notable
repercusión en el futuro desarrollo de la Ciencia. La Física tradicional de
Galileo y Newton era fundamentalmente determinista; en cambio, según las nuevas
ideas, no es posible razonar sobre un universo único y permanente, sino que ha
de hacerse sobre una pluralidad de universos, atribuyendo a cada uno cierto
factor de probabilidad. No es posible predecir lo que ya en cada caso va a
ocurrir, sino lo que, en cada caso y bajo ciertas condiciones, puede
ocurrir. La formulación por Planck de los principios de la Mecánica
cuántica, que tiene lugar pocos años más tarde, y que atribuye naturaleza
corpuscular a la energía, lo mismo que a la materia, representa una ampliación
de inmenso alcance para el ámbito de aplicación de aquellas ideas, las cuales
adquieren con ello validez universal.
Por su importante relación con el futuro
desarrollo de la Estadística teórica debe mencionarse asimismo la tesis de
Lebesgue, presentada en el año 1902, en la cual se introduce la integral que
lleva el nombre de este eminente matemático, que generaliza la histórica
integral de Newton y Leibniz, perfeccionada posteriormente por Cauchy y
Riemann. En ésta, el campo de integración está constituido por un intervalo,
interrumpido eventualmente por puntos aislados, en los cuales la función que se
integra puede adoptar, excepcionalmente, un comportamiento singular; esta
limitación tenía que superarse para poder abordar ciertos problemas que se
planteaban, tanto en el propio campo de la Matemática, como en el de la nueva
Física. Lebesgue sustituye aquel conjunto de puntos por otro de naturaleza más
general, suprimiendo la condición de continuidad, y crea en el mismo una nueva
forma para la adición de elementos infinitésimos, que no anula la anterior,
sino que la incorpora. En estrecha relación con la integral de Lebesgue se
elabora la teoría de la medida de los conjuntos de puntos, en cuyo desarrollo
el papel principal es desempeñado por Borel. Otro eminente matemático francés,
Maurice Frechet, algo posterior a los dos anteriores, expone su teoría de la
integración en los espacios generalizados; la labor de este trío famoso
constituye la base para una teoría general de la medida, y uno de los elementos
esenciales para la fundamentación actual de la teoría de probabilidades.
En la segunda década de nuestro siglo los
métodos estadísticos se perfeccionaban y son objeto de aplicación creciente. En
el campo teórico se concluye la teoría de la correlación; en las aplicaciones,
aparte el desarrollo de la Física estadística, ya mencionado, y el empleo cada
vez mayor de las probabilidades en el estudio de los fenómenos sociales, tal
aplicación se extiende a los fenómenos biológicos y pronto se inaugura una
nueva rama de la ciencia: la Biometría. Otra novedad está representada por el
estudio de las evoluciones llamadas cadenas de Markov. Los ingleses Galton
(1822-1911) y Pearson (1857-1936), junto con el ruso Markov (1856-1922), son
las figuras más destacadas de este período.
En la etapa comprendida entre el fin de la
Primera Guerra Mundial y el comienzo de la segunda, es decir, entre los años
1920 y 1940, aproximadamente, la Estadística matemática hace grandes progresos.
Ya están bien delimitadas las dos parcelas que constituyen esta ciencia: por
una parte, la Teoría de probabilidades o
base teórica, unida a la pura Matemática; por otra parte, la Estadística real o
teoría y técnica de los procesos de muestreo, ligada a la primera, como soporte
teórico, y a los campos de aplicación, o sea, a las Ciencias sociales y a la
Física; las aplicaciones en tecnología, aunque se inician, son todavía escasas.
Los progresos de la Estadística en un segundo aspecto son muy diversos en este
período; en la teoría de las probabilidades se hacen esperar un poco más, y
sólo al final se manifiestan, si bien, al hacerlo, lo hacen de una manera
concluyente.
En Estadística real los mayores logros se
deben a las brillantes escuelas de estadísticos británicos y norteamericanos.
El profesor de Cambridge R.A. Fisher es la gran figura de esta época y su
nombre va unido a casi todos los métodos e innovaciones que, sucesivamente, van
apareciendo.
Los ingleses Pearson, ya mencionado, y
Gosset, más conocido por su seudónimo Student, crean y tabulan las
distribuciones que llevan sus nombres, las cuales introducen al estudiar el
comportamiento de las variables observadas en los muestreos. En el año 1923,
Fisher propone una técnica para el estudio comparativo de los rendimientos de
las tierras agrícolas cuando se someten a distintas condiciones de trabajo y a
la acción de distintos fertilizantes; esta técnica se denomina «análisis de la
varianza», y pronto es objeto de distintas generalizaciones y de aplicación en
problemas distintos del de partida. En él análisis de la varianza se somete a
prueba la homogeneidad de las medias observadas en un conjunto de muestras, las
cuales corresponden a distintas condiciones del experimento. En el desarrollo
del análisis de la varianza han tenido notable importancia las aportaciones de
Snedecor, Bartlett y Mann, entre otros. Sigue la ordenación estadística del
diseño de experimentos; el planteamiento y resolución de nuevos problemas
relacionados con la teoría de la regresión y correlación; el análisis de la
covarianza, en el que se somete a la prueba la homogeneidad de un conjunto de
coeficientes muestrales de regresión, etc.
El capítulo de mayor alcance incorporado al
desarrollo de la Estadística real en la época a la que nos referimos es la
llamada teoría de la estimación, desarrollada entre los años 1933 y 1940 por
Fisher, Neyman y Pearson, inicialmente, con importantes contribuciones
posteriores de Massey, Willis, Rao, Frechet, Bernstein y otros. De esta teoría
forman parte los llamados intervalos de confianza, y la prueba, contraste o
test de hipótesis estadísticas, que han venido a dar precisión conceptual y
numérica a ciertas evaluaciones que, con anterioridad, se manifestaban con
imperfecto significado o con defectuosa precisión. En estrecha relación con los
intervalos de confianza y las pruebas de hipótesis debe mencionarse la teoría
conocida bajo el nombre de control estadístico de la calidad, cuya aplicación
se inicia en los años inmediatamente anteriores a la Segunda Guerra Mundial y
que, en su doble aspecto de control de recepción y control en curso de
fabricación, constituye actualmente una condición imprescindible para el buen
funcionamiento en toda gran industria.
En la teoría de probabilidades, según ya
indicamos, grandes innovaciones se hacen presentes en los años 1934 a 1939. Con
anterioridad pueden registrarse algunas contribuciones al problema de los
momentos, otras el estudio de las convergencias estocásticas, y la introducción
de las funciones características como representativas y determinantes de las
funciones de distribución, en sustitución de las antiguas funciones
generatrices.
Una vez identificado el carácter booleano del
conjunto de los sucesos que integran un experimento, se aceptaba intuitivamente
su estrecha relación con el álgebra de las partes de un conjunto y con otras
álgebras de análoga naturaleza, pero se carecía de la pieza de enlace que
suministrará precisión y rigor a esta presentida correspondencia. Dicho enlace se
consigue en el año 1936, al ser demostrada por el matemático americano M. H.
Stone sobre la isomorfía de cualquier álgebra de Boole con el álgebra de las
partes de un conjunto y, en consecuencia, la isomorfía de todas ellas entre sí.
Por otra parte, la gran atención que algunas escuelas matemáticas venían
dedicando al cultivo del Álgebra condujo a la consideración de unas estructuras
muy generales los retículos, traducción del término lattices,
propuesto por Birkhoff, de las cuales las álgebras de Boole constituyen un caso
particular. La naturaleza estructural, en sentido algebraico, del conjunto de
los sucesos de un experimento quedaba, pues, establecida con toda precisión.
Sólo faltaba un paso para que la teoría de probabilidades quedará organizada, desde
el punto de vista científico, con todo el rigor exigible a una disciplina
matemática.
Así como los logros más importantes
alcanzados en Estadística real son fruto de las escuelas inglesa y americana,
el honor de esta última conquista corresponde principalmente a los matemáticos
rusos, y a la cabeza de ellos a Kolmogorov (1903-1975), que da nombre a la
nueva teoría. Partiendo de las álgebras de sucesos finitas, cuyo desarrollo
presenta moderadas dificultades, se establecen, con el auxilio de algunos teoremas
de Álgebra y Topología, las propiedades de las álgebras de sucesos generales,
las cuales, cuando se cumple la condición de aditividad infinita, son llamadas
de Sigma- álgebras o cuerpos de Borel. Una Sigma álgebra alfa de las partes de
un conjunto de sucesos E, sobre la cual está definida una función de conjunto P(A)
que satisface ciertos axiomas, es un álgebra de probabilidad de Kolmogorov
y se designa por la notación sintética (E, alfa, P). Una variable
aleatoria se define como aplicación del conjunto de sucesos E en un conjunto de
puntos, sobre el cual la función de conjunto P(A) induce la medida-P
de un intervalo, y ésta, a su vez, permite construir la medida-P para otros
conjuntos más generales, siguiendo la sistemática de Lebesgue.
Tal es el fundamento de la nueva noción de
probabilidad, basada en un sistema de postulados, al modo de Russell, como se
hace hoy día en todas las ciencias. Desde este momento, la teoría de
probabilidades, soporte conceptual de la
Estadística matemática, está sentada sobre base firme y se desarrolla
con el mismo rigor que la Geometría de Hilbert.
En el año 1946 y siguientes, una vez
concluido el conflicto bélico, se inaugura una nueva etapa en todos los campos
de la actividad científica. Las universidades y centros de investigación de los
países implicados en la contienda reanudan su actividad, al tiempo que se van
conociendo las importantes conquistas logradas en algunas ramas, singularmente
las más relacionadas con las necesidades de la guerra, y que, hasta entonces, habían
estado guardadas por el secreto militar.
En los campos relacionados con la
Estadística, se registran cambios muy importantes en la teoría y en las
técnicas de la comunicación. Los requerimientos crecientes para la eliminación
de perturbaciones dieron lugar a una nueva teoría y realización de los filtros
de ondas, la cual fue elaborada en los Estados Unidos por Wiener y sus
colaboradores. Este matemático realizaba, al mismo tiempo, estudios sobre las
series cronológicas, es decir, en un dominio bien propio de la Estadística,
tratando de formular una nueva teoría de la predicción, con vistas a su
aplicación en el problema de la dirección automática del tiro, planteado por la
artillería antiaérea. En la investigación científica es bastante frecuente que,
al resolverse un problema, queden resueltos otros, cuya relación con el primero
no se había sospechado. Así ocurrió en este caso; la idea de predecir el estado
futuro de un mensaje de cualquier naturaleza, al que acompañan perturbaciones,
partiendo de la información estadística sobre uno y otras, contenía, según
resultó, la base completa para el nuevo método de separación de ruidos, y tal
descubrimiento tuvo lugar en un momento muy oportuno, ya que en la nueva
técnica del radar se tropezaba con dificultades importantes.
Otra circunstancia no infrecuente, la de que
un descubrimiento se realice simultáneamente o casi simultáneamente por dos
investigadores, también se da en este caso, ya que el ruso Kolmogorov había
formulado una teoría de la predicción sustancialmente coincidente con la de
Wiener. Por este motivo, y estando bien reconocido que los trabajos de ambos se
habían desarrollado con completa independencia, dicha teoría se conoce
actualmente bajo el nombre de «teoría estadística de la predicción y filtrado
en el sentido de Wiener-Kolmogorov», la cual culmina con las aportaciones de
Kalman y Bucy, a comienzos de la década de los setenta.
En la misma época, el físico Shannon, de los
laboratorios Bell, que había publicado antes de la guerra distintos trabajos
sobre el empleo de la Lógica matemática como fundamento de las técnicas de
información, amplía el alcance de los mismos, representando la información por
medio de signos binarios, y trasmitiéndola a través de circuitos de conmutación
formados por interruptores o relés, o bien a través de circuitos lógicos
formados por diodos o transistores. Se parte de las nociones de información
asociada a un suceso como el logaritmo negativo de la probabilidad del
mismo; unidad de información o bits, que es la información
correspondiente a uno cualquiera de los sucesos en un experimento que contiene
dos equiprobables (clásico ejemplo en la tirada de una moneda simétrica); y
entropía de un experimento o valor medio de la información correspondiente
a los sucesos que lo componen. El desarrollo y generalización de estas ideas ha
conducido a la actual Teoría de la información, y su aplicación, al logro de
importantísimos dispositivos, entre los que es necesario destacar el de las
calculadoras y ordenadores digitales, cuyo empleo, cada vez más generalizado,
está llamado a tener trascendentales repercusiones, tanto en el terreno
científico como en el económico y social.
Aunque no es posible detenerlos en este
punto, importa consignar que la Teoría de la información ha venido a acompañar
a la Teoría de la probabilidad y a la Estadística real, pilares de la
Estadística matemática, considerada como estructura completa. El triángulo
conceptual probabilidades-estadística-información, y las relaciones entre
sus tres vértices, sustituye el clásico par probabilidades-estadística y
representa la organización de la estadística matemática bajo nuevos aspectos, a
los que ha dedicado mucha atención el conocido matemático húngaro profesor
Rényi (1908-1979).
Pasando a un aspecto distinto de los
anteriores, se divulga, a partir del año 1946, el empleo de ciertas técnicas
para conseguir la utilización, en términos óptimos, de las armas o elementos
disponibles para la defensa y el ataque, lo mismo que en otras operaciones de
carácter estratégico, táctico o logístico. En el desarrollo y aplicación de
estas técnicas intervinieron, en ambos bandos contendientes, equipos de hombres
de ciencia, quienes prestaron de este modo su concurso al esfuerzo bélico de
sus países. Los métodos aplicados guardan estrecha relación con la Estadística
matemática, y la eficacia de sus resultados había sido reconocida y elogiada
por los altos mandos militares.
La actividad científica que se ocupa de los
llamados fenómenos de organización, o Economía en sentido amplio, ha
tenido en los últimos años un desarrollo muy grande como consecuencia, por una
parte, de requerimientos concretos procedentes de los campos de su aplicación
(desarrollo económico, organización industrial, investigación biológica,
problemas militares, etc.) y, por otra, de los progresos de la Matemática.
No puede desconocerse que el desarrollo de
las ciencias físicas, que le precede en el tiempo, ha constituido pauta y
modelo para la nueva actividad, hasta el punto que algunos han llamado, sin
mucha propiedad fenómenos artificiales a los que son materia del nuevo estudio,
como contrapunto a la denominación de fenómenos naturales, que suele darse a
los que pertenecen al ámbito de la Física, también entendida en sentido amplio.
Parece oportuno examinar algunas posiciones
básicas en relación con los fenómenos de organización, empezando por intentar
una definición adecuada de los mismos. Pueden designarse como tales aquellos
fenómenos en los que, sobre un soporte material, simple o complejo, interviene
el hombre con actividad organizada y consciente. En las manifestaciones
concretas es frecuente la consideración de problemas en los que aquel soporte
está representado por un conjunto formado por máquinas, fuentes de energía,
primeras materias, productos, etc.
El estudio de los fenómenos naturales es, por
lo general, ajeno al logro inmediato de una finalidad, por lo que la
investigación suele limitarse a la descripción de las causas y de los efectos,
con independencia de las consecuencias utilitarias que, con posterioridad,
puedan deducirse. En cambio, en los fenómenos de organización aparece, casi
siempre en primer plano, un objetivo o un conjunto de objetivos, los cuales no
pueden establecerse sin considerar la contrapartida, en forma de precio,
esfuerzo o sacrificio, que se consiente para realizarlos.
Atendiendo al nexo causal o estocástico que
puede existir entre las premisas de los problemas y las posibles soluciones,
aquellos son clasificados por Wiener de la siguiente forma:
A). Las estructuras están descritas mediante
magnitudes perfectamente determinadas y conocidas: se trata de problemas
determinados, es decir, con una componente aleatoria nula o despreciable.
B). Cada decisión posible está asociada a una
secuencia de estados aleatorios; intervienen magnitudes determinadas y otras
aleatorias, conociéndose las distribuciones de probabilidad de estas últimas:
nos hallamos ante un universo influido por el azar, existiendo, por lo general,
una componente determinista y otra aleatoria; gracias a la estimación
estadística, pueden formularse ciertos resultados inseparables de sus valores
de probabilidad.
C). A los elementos presentes en el caso
anterior se une una reacción del medio exterior, también de naturaleza
estocásticas (operaciones militares, economía con competencia, etc.), y la
preparación de cualquier decisión toma el aspecto de un juego de estrategia:
son los problemas cuyas técnicas de planteo y resolución han sido creadas por
Von Neumann.
D). Finalmente, puede ocurrir que, aunque se
posea algún conocimiento de las estructuras, las situaciones futuras que se
pueden asociar a nuestras decisiones son completamente desconocidas, incluso en
probabilidad: nos hallamos en este caso en presencia de un universo
desconocido.
En relación con los fenómenos de
organización, el hombre, ser racional, no se contenta con la descripción
cualitativa de los hechos, sino que requiere una expresión cuantitativa de los
mismos.
En Física, la medida, si se realiza con los
medios necesarios para lograr una gran precisión, puede considerarse como una
operación determinada; si queremos expresarnos mejor, diremos que está afectada
por una componente aleatoria muy pequeña, que a veces (no siempre) será cómodo
despreciar. En Economía, mejor diremos en Econometría, el concepto de medida
tendrá que sustituirse por el de estimación, con resultados inseparables, en
cualquier caso, desviaciones o intervalos de probabilidad. Por otra parte, es
mucho más fácil repetir muchas veces una experiencia física en condiciones
idénticas que repetir una experiencia en un fenómeno de organización, lo cual
resulta siempre muy costoso
La analogía juega un papel muy importante en
la investigación. La experimentación con modelos, generalmente a escala
reducida y utilizando muchas veces elementos de distinta naturaleza que la que
es propia del fenómeno original (potenciales eléctricos en vez de cargas
hidráulicas, válvulas electrónicas en lugar de dispositivos mecánicos de
interrupción, etc.), constituye hoy día un elemento de investigación de empleo
muy extendido. Por otra parte, la analogía es la base de una técnica de cálculo
de inmenso alcance y porvenir en las llamadas máquinas analógicas.
El nexo entre el fenómeno estudiado y el
dispositivo experimental lo constituye el modelo matemático, que debe ser él
mismo en ambos casos. De este modo, ciertos resultados, deducidos por cálculo
sobre los modelos matemáticos correspondientes, podrán compararse con los datos
obtenidos por la experimentación directa o sobre el modelo, verificando la
validez de las hipótesis que sirvieron de base para formular la teoría.
La ecuación
diferencial
y''
+ ay' + by = 0
Constituye un modelo matemático bien conocido
para representar fenómenos vibratorios y oscilatorios de distinta naturaleza,
sin más que relacionar las dos constantes que figuran en la misma con las
características físicas del problema particular que se considera. Del mismo
modo, la ecuación diferencial
p'k
(t) = - µρ k (t) + µρ k -1(t)
Constituye un modelo conveniente para muchos
procesos de distribución aleatoria de sucesos en el tiempo, representando ahora
pk(t) la probabilidad de que ocurran precisamente k sucesos antes
del instante t; este modelo resulta muy adecuado en el estudio de los fenómenos
de la vida (seguros, piezas o elementos que se destruyen), evolución (especies,
radiactividad), tráfico (teléfonos, ferrocarriles, aeropuertos), líneas de
espera (servicios), etc.
De acuerdo con la naturaleza de cada
problema, la contrapartida (precio, esfuerzo o sacrificio) se formula por medio
de una cierta función de valor o función económica (en ocasiones, más de una),
expresada en unidades de tiempo, volumen o peso, de valor en dinero, de
distancia, de energía, etc., sometida casi siempre a determinadas restricciones
(en términos analíticos, igualdades o desigualdades de condición) acerca de la
cual se trata de deducir el comportamiento óptimo. Se llega con ello a las
llamadas técnicas de optimización, cuyo desarrollo requiere el empleo de un
formidable arsenal matemático que va desde las teorías clásicas hasta los
aspectos más intrincados del cálculo de variaciones, en conexión con los
algoritmos y parámetros creados o introducidos por el álgebra moderna, la Topología
y la Teoría de la estimación. El estudio de los procesos de control, de tanta
trascendencia en el momento actual, forma parte de esta moderna rama de la
Matemática estadística.
La preocupación actual hacia estas técnicas
por parte de los centros de investigación teórica y aplicada, y por los
organismos propios del mando económico, político y militar, alcanza hoy día, en
todos los países, extensión y dimensión extraordinarias. Para comprender tales
problemas en un modelo común se configuraron los procesos aleatorios o
estocásticos, en los cuales si S representa un sistema de cualquier naturaleza,
en evolución (es decir, en condición no estática), y Ω es el conjunto de todos
los estados que pueda adoptar, los cuales son función de una cierta variable t,
describir la evolución de S significa evaluar la probabilidad de cualquier
suceso del tipo siguiente: cuando el valor de la variable es t, el estado X(t)
del sistema pertenece a un cierto subconjunto (ω.) de Ω; y también la
probabilidad de verificación conjunta de cualquier número de tales sucesos, con
distintos valores de t y diversos subconjuntos (ω.). Cuando el estado del
sistema S puede describirse de este modo, se dice que su evolución constituye
un proceso aleatorio. En los procesos llamados cronológicos la
variable t representa, naturalmente, el tiempo. En este caso, cuando se parte
del estado del sistema en el instante to, los estados en el pasado tto, interesando
establecer acerca de los mismos alguna predicción racional.
Inmediatamente se comprende la generalidad de
este concepto, en el que quedan comprendidos multitud de procesos
pertenecientes al campo de las ciencias físicas, y muchos otros que son propios
de las técnicas de organización. Destaca, pues, el poder unificador del modelo.
Pueden establecerse diversas clasificaciones, entre las que es importante la
distinción entre procesos descriptivos y procesos de decisión. En los primeros
se trata, simplemente, de conocer las componentes ciertas y aleatorias de un
estado, estas últimas con sus valores de probabilidad; en el segundo se trata
de distinguir, entre un conjunto de estados posibles, el que resulte óptimo, es
decir, el más favorable desde el punto de vista de una regla de decisión fijada
de antemano.
Los procesos y las cadenas de Markov, en su
versión actual, tienen importantísima significación dentro del cuadro de los
procesos aleatorios que hemos llamado cronológicos. Cuando el estado de un
sistema en instantes sucesivos t1,, t2,..., tn,
anteriores a t, suministra, en cuanto al estado en t, una cierta información,
la cual se haya enteramente contenida en el conocimiento del estado más
reciente tn, la evolución de que se trata constituye un proceso
de Markov.
El proceso de Markov es estacionario cuando
las probabilidades P no quedan afectadas por una traslación en el tiempo. Un
proceso aleatorio (markoviano o no) se llama discreto si los cambios estado
sólo pueden ocurrir en instantes dados, que forman una sucesión finita o numerable.
Por extensión, se considera que un proceso es discreto cuando los estantes de
cambio son eventualmente aleatorios, pero no entran en consideración los
valores instantáneos, sino únicamente el orden de sucesión, tal como si los
cambios ocurriesen en instantes representarles por..., - 2, - 1,0, 1,2,..., a
partir de uno de ellos. Finalmente, se llama cadena de Markov a todo
proceso de Markov que es, al mismo tiempo, discreto y estacionario.
Las probabilidad de cambios de estado se
ordenan en la llamada matriz de transición, cuyas potencias intervienen
para representar los estados sucesivos de un proceso estacionario. Las matrices
de transición, cuya potencia n-esima tiende hacia un limite cuando n tiende a
infinito, corresponden a los procesos llamados ergódicos, cuya
importancia es muy grande en el estudio de ciertos sistemas físicos y en otros
campos. El estudio de los sistemas ergódicos ha conducido a una nueva
formulación de la teoría del potencial, de naturaleza estadística, la cual
ofrece perspectivas de gran alcance. Ello, junto con la moderna Termodinámica
de la información, son aspectos sobresalientes de la nueva concepción
estadística de la Mecánica y la Física.
Los problemas de programación constituyen una
generalización de la clásica teoría de los extremos condicionados del Análisis
matemático, y su formulación general es la siguiente. En el conjunto X de todos
los actos posibles de cierto sistema, se trata de distinguir el acto Xo
para el cual alcanza su valor óptimo (máximo o mínimo) la función f(x).
En este enunciado general, f(x) representa una función de conjunto, que
se traduce en una función de punto en ciertas formulaciones particulares, entre
las cuales vamos a indicar las más importantes.
Cuando cada acto posible X está representado
por un conjunto finito de parámetros (x1, x2, ,,,,xn),
y la preferencia corresponde al valor óptimo de una función f(x1, x2,...,xn),
llamada función- objetivo del problema, la cual es lineal en estas variables,
mientras que las restricciones de conjunto a las que estas variables se hallan
sujetas están representadas por ecuaciones o inecuaciones, también lineales,
estamos en el caso de la programación lineal, que es el más simple y
conocido de la teoría.
Si la función-objetivo por las restricciones
son expresiones más generales de x1, x2, ,,,,xn,
resultan otros problemas; los casos mejor estudiados son los de la
programación cuadrática y la programación entera. Otros problemas
requieren la consideración de coeficientes aleatorios en la función-objetivo o
en las restricciones, lo que caracteriza la llamada programación estocástica.
Finalmente, la acumulación de nueva información en tiempos sucesivos, dando al
problema carácter secuencial, caracteriza la programación dinámica,
cuyos enfoques por Bellman y Pontryagin están estrechamente relacionados.
Ciertas cuestiones del arte militar y otra
del Economía clásica pueden tratarse en el marco de la teoría de juegos de
estrategia, en la cual entra en consideración la competencia o reacción del
contrario ante la propia acción. La formulación matemática de la idea de
estrategia es original de Von Neumann. Toda competencia humana puede
considerarse como un juego. Las llamadas estrategias mínimax son óptimas
en el sentido de que, cuando sólo intervienen dos jugadores A y B, si A no hizo
su estrategia óptima, B puede obtener ventaja modificando convenientemente la
suya.
Las dos ideas fundamentales para el
tratamiento de estos problemas son: el concepto de utilidad como teoría del
comportamiento racional frente a la incertidumbre, y la noción de estrategia
pura o plan formulado por un jugador antes de comenzar la partida y que prevé
todas las decisiones que habrá de tomar en el curso de la misma, estando prescrita
cada jugada como función de la información conocida por el jugador antes de
realizarla. De este modo, el curso esperado del juego está determinado por la
adopción de una estrategia pura por cada jugador, que ignora, naturalmente, la
elegida por el contrario.
Von Neumann consideró un número finito de
estrategias puras; posteriores generalizaciones han venido considerar el caso
de infinitas estrategias. Por otra parte, se han estudiado juegos en los que
intervienen más de dos personas, requiriendo la introducción de criterios para
el reparto de la compensación de ganancias entre coaliciones, así como una
serie de nuevas definiciones y conceptos. El desarrollo de la teoría de juegos
n -personales plantea variados y difíciles problemas, muchos de los cuales
esperan solución. Merece destacarse la gran analogía, en cuanto a la gradación
de los problemas y a su dificultad creciente, con el caso de los dos cuerpos,
los tres cuerpos y los n cuerpos, en Mecánica.
El nombre de la teoría de grafos
procede de la teoría de conjuntos, después de las aportaciones de König. Un
grafo se presenta como un conjunto finito o numerable de puntos, a los que se
llama vértices o nodos; cada vértice puede estar unido a cualquiera de
los demás, incluso a sí mismo, por ramas orientadas, reciben el nombre de
arcos; el arco de unión de un vértice consigo mismo constituye una figura
particular, que se denomina bucle. Tal dispositivo se utiliza para
representar las relaciones existentes entre los elementos del problema, en lo
que concierne a ciertas propiedades, cuyo estudio interesa.
Los
problemas más frecuentes, relacionados con la teoría de grafos son los de
búsqueda de caminos críticos, las permutaciones óptimas y los caminos
hamiltonianos óptimos. Los caminos críticos entre los puntos, o geodesicas de
grafo, se aplican cuando se trata de organizar la ejecución de un proyecto,
realizando sus diversas etapas de la forma más favorable del punto de vista que
requiera la preferente atención, y que suelen ser los de coste mínimo o tiempo
mínimo de ejecución.
La investigación de los caminos críticos ha
dado lugar a los conocidos métodos Pert, CPM, Manpower scheduling y Ramps
para el estudio de la ejecución de proyectos.. Es muy conocido el hecho de que
el método Pert nació en los Estados Unidos con motivo de la ejecución
del famoso proyecto «Polaris» y que su aplicación permitió reducir en dos años
la duración de la misma.
En lo que se refiere a la teoría de
probabilidades, son aportaciones recientes dignas de mención la revisión de
algunos conceptos, como consecuencia de la moderna teoría de la información, a
la que ya nos hemos referido, y el examen exhaustivo del alcance de las
convergencias estocásticas, que simplifica al máximo la demostración del
venerable teorema central del límite, establece otros teoremas de convergencia
muy precisos, y cierra prácticamente un capítulo iniciado en los tiempos de De
Moïvre.
En el curso del texto anterior se han citado
algunos autores destacados, cuyos nombres también curados al desarrollo de la
estadística matemática en la primera mitad del siglo actual.
No debe silenciarse que, en nuestro país, la
ciencia estadística ha sido objeto importante atención. En ocasión memorable,
el maestro Rey Pastor mencionaba los nombres de Artigas, Cámara, Fernández
Baños, Quijano y Terradas como los pioneros y propagandistas del cálculo de
probabilidades y la estadística matemática. A esta nómina ilustre debe
añadirse, si se trata de ponerla al día, otros nombres como los de Ríos,
Cansado, Azorín, Castañeda, Torrens, Vegas, Arnáiz y otros.
Finalmente, es justo mencionar, a modo de
homenaje, la labor que realizan en todos los países, y desde luego en el
nuestro, los Institutos Nacionales de Estadística, y en Holanda, con proyección
internacional, el Instituto Internacional de Estadística; labor silenciosa de
unos científicos especializados que aplican las teorías y métodos estadísticos
a la recogida, depuración, ordenación registro y explotación de los millones de
datos que luego utilizarán científicos,
técnicos, economistas, políticos y, en general, cuántos tienen que proyectar,
organizar y ordenar cualquier realización material. Estos hombres son los
colaboradores anónimos de todo proyecto importante, y los que escriben día a
día, proponérselo, las páginas más objetivas y valiosas de la historia
contemporánea.
Comenzaba este trabajo escribiendo: al
final del siglo anterior, es decir, el XIX... dentro de pocos años, al
referirse el siglo anterior habrá que mencionar el siglo XX. Cuando tratamos de
asomarnos, con asombro y timidez, al momento actual se lo presenta, como hecho
deslumbrante, el papel primordial que los métodos informáticos desempeñan para
resolver o ayudar a resolver múltiples problemas, y como generadores e
impulsores de otros nuevos, tanto en el campo de las ciencias y las técnicas
tradicionales como el que es propio de las actividades de organización.
He aludido antes a la moderna Termodinámica
de la información, cuyo principio de la entropía creciente significa
para todo lo humano, incluidas las personas y los conocimientos, el camino
inexorable hacia la vejez; lo cual, aplicado a la ocasión presente, me obliga a
albergar algunas dudas acerca del interés que el contenido de la exposición que
antecede puede actualmente tener.
Sin embargo, un ejemplo señero acude a mi
mente para estimular la de confortarla: el que nos dio el maestro Ramón y
Cajal, quien, a los 80 años fue capaz de producir una de sus mejores obras (2).
(1). Actualmente,
Instituto Geográfico y Catastral, después de trasladarse a otros organismos
sus competencias en materia estadística.
(2). Se alude al ahora
de don Santiago Ramón y Cajal El Mundo Visto a los 80 Años (impresiones
de un arterioesclerótico), publicada en 1933.
Comentarios