ESTADÍSTICA ESPAÑOLA
número 101, 1983,
páginas 7 a 28
por:
SEGUNDO GUTIÉRREZ CABRIA
Departamento
de Estadística e Investigación Operativa.
Universidad
de Valencia.
Instituto
Nacional de Estadística.
RESUMEN.
Se contempla la estadística durante el
presente siglo desde el punto de vista de su evolución histórica, contenidos y
características metodológicas de las corrientes más en boga.
Palabras clave: Descripción e
inducción, probabilidades directas e inversas, información muestral y auxiliar,
sistema y diseño de experimentos.
1. INTRODUCCIÓN.
Metodológicamente, la Estadística puede ser
descriptiva e inductiva. La descriptiva utiliza instrumentos gráficos y
analíticos y le permite estudiar caracteres específicos de grandes grupos de
fenómenos. La inductiva extiende la descripción de ciertas
características observadas en algunos sucesos a otros que no han sido
observados, para llevar a cabo esta extensión se puede elegir aquel tipo de descripción
que se estima más propicio. Históricamente se han utilizado tres tipos
de argumentos para inducir o inferir propiedades en datos no observados.
El primero utiliza probabilidades «a priori»
individuales para predecir frecuencias estadísticas sobre la totalidad de la
serie. Su fundamento lo constituyen los teoremas de Bernouilli, Poisson y
Tchebischeff. El teorema de Bernouilli fue el fruto de veinte años de trabajo,
según su propia confesión, y sólo es válido bajo condiciones muy estrictas. Una
de estas condiciones es la igualdad de probabilidades «a priori». Poisson
prescinde de esta condición y Tchebischeff tiene una ley de la que las dos
anteriores son casos particulares. Un análisis sobre la consistencia de estos
métodos puede verse en Keynes (1973).
El segundo tipo de argumento se sirve de la
frecuencia con que ha ocurrido un suceso en una serie de ocasiones para
determinar la probabilidad de que ocurra «a posteriori». Dos procedimientos
teóricamente inconsistentes entre sí fueron comúnmente utilizados: la inversión
del teorema de Bernouilli y la regla de sucesión de Laplace. Ambos son
considerados en la actualidad como inválidos.
El tercer enfoque de la inferencia
estadística se apoya en una simple idea: dada la frecuencia con que ha ocurrido
un suceso en una serie de ocasiones, ¿con qué frecuencia podemos esperar que
ocurra en otras ocasiones? Es el método vislumbrado ya en la estadística de la
conjetura de Graunt y sus discípulos, basada en la estabilidad de las
series estadísticas cuando son analizadas según los cánones sugeridos por Lexis
y Von Bortkiewicz. Esta inducción de muestra a muestra se opone
radicalmente a la deducción implicaba la regla de Laplace y es el germen
de la inferencia estadística moderna.
En el presente trabajo vamos a centrar
nuestras consideraciones en torno a la Estadística del presente siglo. En el
párrafo 2 estudiamos los hitos más importantes de su desarrollo. En el párrafo
3 se analizan sus contenidos básicos: el uso de modelos, el tratamiento de la
información y su génesis. Terminamos con una consideración sobre las fronteras
de la estadística.
2. EVOLUCIÓN DE LA
ESTADÍSTICA EN LA ÚLTIMA CENTURIA
1. Una consecuencia natural de los nuevos
cimientos echados por Lexis a la Estadística fue la teoría de la
significación de Karl Pearson. En la búsqueda del significado heurístico de
los modelos teóricos, a través de los cuales pretendía obtener una
representación lógico-formal de la catarsis darwiniana, Pearson había advertido
la necesidad de un criterio para probar la adecuación de los modelos a los
datos. En el año 1900 daba a luz una memoria (ver Pearson, 1900) en la que
construía un test (el test de la ᵡ2) apto para verificar la
accidentalidad de las discrepancias entre la distribución teórica y la
empírica. Este test era el preludio de toda una serie de algoritmos de
naturaleza inferencial.
En la teoría de la dispersión el problema que
se planteaba era investigar si en los errores fenomenológicos de una
sucesión de observaciones estadísticas concurrían factores sistemáticos.
Es lo que pretendía resolver la «teoría de la significación»: «Un criterio muy
simple -explicaba Pearson (1900)- para determinar la bondad de ajuste de una
distribución frecuencial cualquiera a una curva teórica. He calculado -añadía- la
probabilidad de que la divergencia con respecto a una curva sea atribuida al
azar del muestreo». La sustitución de una probabilidad directa por una inversa
es aquí un hecho. Con todo de este test dará Yule (1912) una versión en
términos de probabilidad directa: «Nos da -dice- la probabilidad de que por
efecto del muestreo aleatorio se tenga un valor del test igual o superior al
observado».
Con esta palabra parece advertir Yule la
restrictividad del canon hipotético-deductivo en cuyo ámbito de la Estadística
empezaba a darse reglas y criterios. «El estadístico -escribía- puede mostrar que
los hechos están de acuerdo con esta o aquella hipótesis. Pero otra cosa es
demostrar que todas las demás hipótesis posibles son excluidas y que los hechos
no admiten ninguna otra interpretación.»
2. La escuela biométrica estaba acuerdo con
el criterio de Pearson para la confrontación de los esquemas teóricos y los
hechos reales, un químico de los laboratorios «Messrs Guinnes» de Dublín,
dedicados a fabricar cerveza, lanzó una nueva idea metodológica. Era Williams
S. Gosset quien afirmaba que los métodos de sus amigos biómetras no se
amoldaban a la naturaleza empírica de los problemas que él tenía que resolver;
los postulados y esquemas teóricos válidos para muestras grandes no lo eran
para las muestras pequeñas de que él disponía. De hecho, los biómetras habían
trabajado, sobre todo Pearson y Weldon, a base de realizar muestreos en
poblaciones naturales, pero no habían llevado a cabo programas experimentales.
Los datos que obtenía Gosset eran medidas
precisas, pero poco numerosas. Se decidió, pues, a construir un test adecuado,
el resultado obtenido, publicado en 1908, constituyó un verdadero avance en la
inferencia estadística. Este trabajo fue firmado con el seudónimo de Studen
(1908). Gosset no desdeñó nunca la idea de probabilidad «a priori», necesaria
según él, para determinar las expectativas de que una constante se halle dentro
del intervalo prefijado. Mientras Pearson concentraba toda su atención en la
información suministrada por los datos, Gosset acudía insistentemente a la
intuición, como corresponde a un investigador experimental con sentido crítico
y anti dogmático.
3. Con los trabajos de Lexis, Pearson y
Gosset, la Estadística parecía orientarse en sentido cada vez más preciso: la
búsqueda de métodos inferenciales tendentes a objetivar, todo lo más posible,
los procedimientos de investigación. Esta meta ideal fue elevada por Ronald A.
Fisher ha principio heurístico.
Crítico decidido de todo asomo de
probabilidad inversa, Fisher se provee de instrumentos susceptibles de extraer
la información óptima de los resultados experimentales, mediante una técnica
sintéticamente tipificada y semánticamente neutra. «La teoría de la
probabilidad inversa -escribe en "Theory of Statistical Estimation (1925)-
se basa en un error y debe ser rechazada.»
Pearson y Student habían sido más prudentes:
su rechazo de la probabilidad inversa era puramente operativo. Fisher, en
cambio, hace del tema una ideología, pero no asume nunca una posición clara
respecto al problema más general de la inducción. «Sobre el argumento
fundamental de la inducción -escribe Bartlett (1962)- siempre he hallado sus
escritos extremadamente oscuros.» Quetelet había aconsejado «replicar»,
repetir, las observaciones, a fin de compensar los elementos perturbadores.
Student sugería eliminar «a priori» las circunstancias diferenciadoras
conocidas. Todo esto desagradaba a Fisher, partidario de eliminar lo subjetivo
y de aleatorizar, las muestras experimentales hasta lograr una plena
aleatorización.
Fisher reemprende la teoría de la
significación como técnica interpretativa al servicio de la investigación
experimental, dando prioridad a los programas de experimentos y proponiendo
fijar el «umbral de significación» antes de empezar el trabajo indagatorio.
La idea de la máxima verosimilitud -Fisher
(1912)- es introducida como un criterio natural para estimar los parámetros de
la población y para abordar hipótesis a la luz de la información muestral.
Fisher impone la adecuada «verosimilitud» en el paso inductivo de la muestra a
la población; la ve como predicado de la hipótesis a la luz de los datos.
4. Como en el caso de Pearson y Student, en
la metodología de Fisher las hipótesis son probadas una por una, sin la
menor alusión a la hipótesis alternativa. La idea de un proceso inferencial
referido a una pluralidad distintiva de hipótesis es original de Jerzy
Neyman (1926), quien sigue a grandes rasgos la metodología fisheriana,
acentuando más la distinción entre estimación de parámetros y contraste de
hipótesis, entendido éste contraste como confrontación entre hipótesis rivales.
Neyman deja su Varsovia natal frecuentemente,
a partir de 1926 para recibir enseñanzas y orientaciones del gran Karl Pearson.
Una consecuencia de estas estancias en Londres fue su amistad con Ergon S.
Pearson (Pearson Jr.) y una colaboración con el en materia científica. De esta
labor de investigación en equipo nació una nueva teoría de los tests de
hipótesis. Neyman y Pearson dan una regla de comportamiento más dúctil y
posibilística que la de Fisher. Es la que figura en los manuales de estadística
clásica.
5. En la década 1930-40 hay tres hechos
notorios en el desarrollo de la estadística que no se pueden silenciar.
El primero fue el auge logrado por él
Análisis Multivariante de la mano de Mahalanobis (1936), Fisher (1936),
Hotteling (1935, 1936), Bartlett (1938) y Wilks (1932), entre otros, y cuyos
orígenes están en Galton (1886, 1888) y Karl Pearson (1901).
El segundo se refiere al elevado nivel
matemático alcanzado por la estadística merced a los progresos logrados por el
Cálculo de Probabilidades. Es el momento en que empiezan a conjugarse los
trabajos de los probabilistas rusos y franceses (Kolmogorov, Kitchine,
Scheyschev, Borel, Levy, Fréchet ) con la escuela de estadísticos ingleses y
americanos; son los comienzos de la estadística matemática.
El tercer de hecho esta época, importante en
la historia de la Estadística es la aparición de los primeros trabajos serios
sobre probabilidad subjetiva, a cargo principalmente, de Bruno de
Finetti (1937), quien, a su vez, redescubrió lo que antes había realizado F.P.
Ramsay (1926). Era la base sobre la que construir el análisis bayesiano.
C. Gini (1939) había invitado a poner los problemas estadístico-inferenciales
en términos de probabilidad inversa señalando los peligros de ciertos criterios
«objetivistas», cuando son empleados sin la asimilación crítica de las premisas
conceptuales que los rigen y limitan. En ese mismo año harold Jeffreys (1939)
desarrolla la teoría de la probabilidad y de la inferencia de muestras
aleatorias en términos exquisitamente bayesianos. Con todo, las voces
bayesianas europeas no fueron escuchadas del otro lado del Atlántico hasta
prácticamente los años cincuenta. Dentro del grupo de americanos que más han
contribuido al avance bayesiano hemos de citar a Good (1950), Anscombe (1958),
Hodges y Lehman (1952), Schalaifer (1959) y, sobre todos, Leonard L. Savage
(1954) con su obra «The Foundation of Statistics».
6. La teoría de juegos y la teoría de la
utilidad forman parte del rico legado dejado por John Von Neumann, uno de
los matemáticos más insignes de nuestros tiempos. En 1927, con su prueba del
teorema de minimax para juegos finitos, Von Neumann estableció los fundamentos
de la teoría de juegos. Más tarde, en colaboración con Oscar Morgenstern,
culmina su labor con la publicación de la obra «Theory of Games and Economic
Behavior» (1944). Abrahán Wald (1947) aprecio la conexión entre la teoría de
juegos y la de contrastes de hipótesis de Neyman. Wald considera el
razonamiento estadístico como un proceso de decisión en ambiente de
incertidumbre, como un juego entre el estadístico y la naturaleza.
El problema de la estadística fue provisto de
funciones de pérdida y de riesgo que permiten contemplar una multitud de
alternativas posibles sometidas al criterio del minimax, de la minimización de
la máxima pérdida o riesgo. La escuela de estadísticos americanos se adhirió
pronto a este nuevo enfoque de la Estadística, principalmente en teoría
económica (donde la utilidad sustituyó al riesgo), que permite una
síntesis de las teorías de la estimación, del contraste de hipótesis y del
análisis secuencial.
La posibilidad de asignar una distribución de
probabilidad a los posibles estados de la naturaleza, según los cánones
bayesianos, condujeron a la teoría de la decisión bayesiana. Sus
partidarios, Blackwel y Girshick (1954), Raiffa y Schalaifer (1961), Ferguson
(1967), De Groot (1970), argumentan que todo problema específico de inferencia
implica una elección entre acciones alternativas cuyo grado de preferencia
puede expresarse por una función de utilidad que depende del estado desconocido
de la naturaleza. Dada la distribución «a posteriori», basada en la
distribución inicial asignada a los estados de la naturaleza y la información
suministrada por la muestra, la mejor acción a tomar es la que maximiza la
utilidad esperada.
Frente a estos bayesianos «decisionistas»,
los bayesianos puros no asumen un papel de decisión: la distribución «a
posteriori» sobre las hipótesis alternativas es el producto final de la
inferencia.
Un compromiso entre bayesianos y no
bayesianos son los métodos llamados «empírico-Bayes», no bien vistos por unos y
por otros. Introducidos por Robbins (1955) y propenden a una mayor utilización
de los datos estadísticos, principalmente en la distribución «a priori».
7. A estos distintos enfoques que atraen la
atención de los estadísticos actuales añadiremos otros tres de escasa importancia.
A) El primero es la llamada «inferencia
fiducial» de Fisher, que tiene un interés meramente histórico. Fisher opone a
la teoría de Neyman-Pearson los «test de significación» y a los bayesianos, la
teoría fiducial. En sucesivos trabajos (1930, 1933, 1935) desarrolla sus ideas
sobre «probabilidad fiducial», que le conducirían luego a los llamados
«intervalos fiduciales». A pesar de los esfuerzos por rehabilitar la inferencia
fiducial, a cargo de estadísticos tan eminentes como Frasser (1961) Lindley
(1958), Godambe y Thompson (1971), Birnabaum (1962), etcétera., no es en la
actualidad comúnmente aceptada.
B) la teoría de «verosimilitud» o del «soporte»
se contrapone a los puntos de vista, clásico y bayesiano, de la inducción
estadística por el distinto uso que hace de la función de verosimilitud.
La estimación de un parámetro (o selección de
una hipótesis) en comparación con otro (u otra) se apoya en el soporte
que proporciona un conjunto de datos, medido ese soporte por el logaritmo
natural de la razón de verosimilitudes calculadas a partir de esos datos. El
método ha sido ampliamente estudiado por Edwards (1972).
C) Finalmente, nos referimos a la «inferencia estructural».
La creación se debe exclusivamente a D.A.S Frasser y constituye un nuevo
intento de lograr la teoría unificada de la inferencia, como puede verse en su
libro «The Structure of Inference» (1968). La obra de Frasser ha suscitado gran
interés de los investigadores, por cuanto aporta pensamiento nuevo, pero no
aparece hasta ahora como método de fácil y general aplicación.
8. Addendum. Los distintos enfoques de
la inferencia estadística ponen de manifiesto su carácter sectorial más bien que
una teoría unificadora en la cúspide de la Estadística general. Las áreas
especializadas de la Estadística proceden frecuentemente bajo el impulso de su
énfasis particular, sin prestar atención a más amplias implicaciones. Ello
lleva consigo su desarmónico desarrollo. La investigación de una teoría
integradora de las distintas vertientes del pensamiento estadístico es el reto
que tiene planteado la Estadística actual.
3. CONTENIDOS BÁSICOS
DE LA ESTADÍSTICA ACTUAL.
En otra parte (1982) hemos escrito que «la
Estadística está caracterizada por la existencia de una información acerca de
un colectivo o universo, lo que constituye su objeto material; un modo
propio de razonamiento, una lógica propia, lo que constituye su objeto
formal y las previsiones de cara al futuro, lo conforma su objeto o
causa final. Todo esto, frecuentemente, con
lleva o preludia una toma de decisión.
En esta
caracterización están implícitos los elementos esenciales de todo problema
estadístico, esto es:
1. Una situación real en ambiente de incertidumbre.
2. Existencia o posible obtención de
información.
3. Necesidad de unas reglas que permitan
conocer situaciones actualmente desconocidas y, en su caso, tomar las acciones
oportunas.
Estos tres putos abarcan toda la problemática
teórica y práctica de la Estadística actual. El estudio de la situación real
de un estadístico exige describirla y esto nos obliga a estudiar los modelos
probabilísticos. La información constituye la materia prima de la
investigación estadística. ¿Dónde y cómo recabar esta información? ¿Qué
hemos de considerar como información relevante?. Finalmente, la inferencia
estadística y la teoría de la decisión ¿son la misma cosa o hay que
distinguir entre ellas?.
3. 1. El Modelo de la
Situación Actual.
1. Puede definirse un modelo como una
representación de la realidad que intenta explicar en alguna de sus facetas. El
modelo debe ser menos complejo que la realidad misma. Pero suficientemente
completo como para representar con aproximación los aspectos de la realidad que
van a ser objeto de estudio. El proceso mismo de pensar corresponde, en
su conjunto, a esta definición; de modo continuo estamos construyendo
modelos de la realidad. Esto explica por qué la construcción de modelos es
una operación tan frecuente. Acabamos de pensar en el «hecho de pensar», y en
el proceso utilizado hemos construido un «modelo de pensamiento».
Los modelos ofrecen aspectos tan distintos
que ninguna exposición sencilla puede aspirar a contener todos los elementos
esenciales para su construcción. En un extremo de la escala tenemos el hecho de
que todo esfuerzo humano está basado en la construcción de modelos; en
el otro extremo vemos que los hombres de ciencia y los metodólogos construyen
explicaciones de la realidad cuando ésta necesita una comprensión altamente
especializada.
Los modelos abstractos que nuestro
pensamiento construye sobre la realidad se basan en el lenguaje, como expresan
gráficamente Miller y Starr (1964), «en su orgullosa variante: las
matemáticas». Esto juega en favor de la especialización del lenguaje y de
la existencia de vocabulario científicos. Esto explica también el desarrollo de
la lógica y de las matemáticas.
En el polo opuesto están también los modelos
concretos, los que se asemejan a lo que representan, los que originaron la
palabra «modelo»: maquetas, retratos, construcciones, piloto, etc. entre ambos
extremos lo abstracto y lo concreto, hay toda una gama de modelos según el
grado de abstracción.
2. El primer elemento, el punto de partida,
de una investigación estadística es la consideración de una situación real
en ambiente de incertidumbre. Debemos tener en cuenta los resultados
posibles del fenómeno que se observa o del experimento que se realiza. El hecho
fundamental es que hay más de un resultado posible (de lo contrario no habría
incertidumbre) y que el resultado en un momento dado no es conocido de
antemano, está indeterminado. Nuestro interés está en determinar cuál es
el resultado o qué acción tomar como consecuencia del mismo un médico somete a un
enfermo a un cierto tratamiento, ¿curará dicho enfermo? A la vista del tiempo
que hace, ¿llevaré paraguas al salir de casa?.
Teorizar acerca de la conducta a seguir en
tales situaciones exige construir un modelo formal que resulte de
abstraer sus connotaciones más relevantes. Esto exige la introducción del
concepto de probabilidad que de algún modo mida la incertidumbre que las
rodea.
Así, en el caso del enfermo, un modelo de su
situación puede ser el siguiente: hay dos resultados posibles curar o no curar,
a los que podemos asignar las probabilidades respectivas p y 1-p.
Podemos pensar que este paciente representa a toda una población de pacientes
que sufren la misma enfermedad, en cuyo caso, el modelo servirá de norma para
dictaminar de cara al futuro. La determinación de p en estas
circunstancias puede hacerse en base a la frecuencia de curados en el
pasado de dicha enfermedad. Procediendo así, la probabilidad p
constituye a su vez un modelo abstraído de las frecuencias.
Pero puede suceder que, por su fisiología o
su psicología especial, este enfermo sea considerado por el médico como caso
patológico especial y, a pesar de que exista un cierto porcentaje de curados de
esa misma enfermedad, el médico asigne a este caso una probabilidad de curación
distinta de dicho porcentaje. Al proceder así, el médico ha asignado una
probabilidad de curar subjetiva (personal), ha medido sus propias
creencias acerca de la curación confiriéndoles un valor numérico. Tenemos
así dos modos de asignar probabilidades, a los que se añadirán otros como las
probabilidades «clásicas» o de Laplace y lógica. Estas formulaciones exigen
ideas asociadas de independencia, aleatoriedad, etcétera.
El modelo de la situación real consta
esencialmente de un enunciado acerca del conjunto de resultados posibles
y de una asunción acerca de sus respectivas probabilidades. Su finalidad
es permitir el uso de argumentos lógicos o matemáticos que permitan deducir
comportamientos de cara al futuro. Actúa como una idealización de la situación
real. La meta de todo buen investigador es construir modelos sencillos que se
adapten lo más posible a la realidad, ya que el mundo real de la situación
vendrá constituida por el modelo.
Pongamos algunos
ejemplos de modelos probabilísticos:
a)
Se
estudia el número de muertes por accidentes de tráfico en las poblaciones, en
intervalos de un mes. Los accidentes que ocurren en un mes determinado son
independientes de los que ocurren en otro mes cualquiera y obedecen al azar. La
probabilidad de que una persona muera en accidentes es pequeña. Éstas hipótesis
se amoldan perfectamente a un modelo de Poisson, el cualquiera
totalmente determinado por un parámetro simple, su media, que es proporcional a
la tasa λ de accidentes.
b)
Poseemos
las puntuaciones de los alumnos de una asignatura y deseamos, por ejemplo,
conocer el percentil correspondiente a un alumno que ha sacado una nota
determinada. En vez de trabajar con todas las puntuaciones (y pueden ser
muchas), podemos suponer que éstas siguen una distribución normal. El modelo
normal está completamente determinado por la media y desviación típica.
Obtenidas estas características con respecto a todas las puntuaciones, la tabla
del modelo normal resuelve el problema planteado. Este modelo puede servir para
resolver cuestiones distintas de la propuesta.
c)
La
situación real puede ser el indagar el número de varones de una población
valenciana de 20.000 habitantes. Se sabe por los boletines de nacimiento que la
probabilidad de nacer varón es 0.517 en la provincia de Valencia. Hay dos
estados posibles, ser varón o ser hembra, ambas posibilidades son aleatorias,
incompatibles e independientes. Luego la situación definida obedece aún
modelo binominal de parámetros n = 20.000 y p = 0.517. El valor
esperado sabemos que es np, en este caso, 20,000 × 0.517 = 10.340
varones.
3. El modelo incorpora a la situación real
una estructura con escasos elementos desconocidos, los parámetros: la
media en el ejemplo a), la media y la varianza en el ejemplo b) y el número de
individuos y la probabilidad de ocurrencia para cada uno, en el caso c). El
modelo probabilístico es pieza fundamental en los principales argumentos
estadísticos, la deducción progresiva y la reducción regresiva o
inferencia estadística propiamente dicha. Ambos procesos están esquematizados
en la figura.
i) El problema de la situación real es una
parte del mundo de los hechos. Por abstracción, a partir del problema
real se construye el modelo, y de éste, por deducción, se generan
propiedades probabilística de los datos que suministra la situación real, en el
supuesto, claro está, de que el modelo se ajusta a la situación real. En este
proceso la probabilidad actúa como «canal de información», esto es, como
«lenguaje» que liga el modelo con los datos potenciales. En los tres ejemplos
anteriores la información generada por el modelo ha servido para resolver
cuestiones planteadas en la situación real.
ii) La inferencia estadística invierte
este proceso. Se inicia con los datos muéstrales obtenidos del mundo de los
hechos y de la misma naturaleza que aquellos que constituyen la situación real
(obtenidos mediante un diseño adecuado de experimentos o quizá fortuitamente) y
luego utiliza estos datos y toda otra información para validar un modelo
especificado, para hacer «conjeturas racionales» o «estimar parámetros» o aún
para originar un modelo. Todo esto es objeto de la inferencia estadística. Este
proceso inverso, inductivo, es posible gracias al «lenguaje» de la
teoría de la probabilidad, dispuesto de antemano para formar el eslabón
deductivo. Su finalidad es facilitar la obtención de inferencias a través del
modelo de la información suministrada por la muestra (y, si es el caso, por
otras fuentes informativas relevantes que contribuyan a una inferencia más
precisa) o construir procesos que ayuden a tomar adecuadas decisiones en la
situación práctica.
3. 2. LA INFORMACIÓN
ESTADÍSTICA.
1. La información es el elemento más característico
del método estadístico: del hecho aislado no puede extraerse ninguna conclusión
en situaciones de incertidumbre, esto es, en las que interviene el azar; al
examinar un conjunto o colectivo de casos concretos se aprecia una cierta
regularidad o estabilidad en el comportamiento de dichos fenómenos. Por eso
se dice que no hay estadísticas sin observación o experimentación.
En los tres ejemplos a), b) y c), citados
anteriormente, la información tomaba la forma específica de «realizaciones» de
una situación práctica: muertes habidas por accidente, puntuaciones obtenidas
por alumnos, número de varones nacidos en una población. Estas realizaciones se
suponen obtenidas como repetición de la situación bajo idénticas
circunstancias. A este tipo de información se le suele llamar «datos
muestrales».
Para algunos autores como Von Mises (1964),
Venn (1962), Reichenbach (1949) y Bartlett (1962) sólo con información de este
tipo obtenida en situación repetitiva, a lo menos potencialmente, se
puede definir adecuadamente el concepto de probabilidad. Es la llamada
interpretación frecuentista o frecuencialista de la probabilidad.
«Limitamos nuestro propósito, hablando
"grosso modo" -dice Von Mises (op. cit., p.1)-, a una
teoría matemática de sucesos repetitivos.» Y más tarde (pp. 13 y 14) añade:
«si se habla de la probabilidad de que los poemas conocidos como la Ilíada
y la Odisea tengan el mismo autor, no es posible referirse a una
sucesión prolongada de casos y, difícilmente tendrá sentido asignar un valor
numérico a tal conjetura.
De análogo parecer es Bartlett cuando escribe
(1962, p. 11) que «la estadística se ocupa de cosas que podemos contar».
Los datos muestrales evaluados de acuerdo con
el concepto frecuencialista de la probabilidad intuye la base de la llamada
estadística clásica, esto es, la estadística de los cánones de Fisher,
Neyman y Pearson.
2. En el ejemplo c) la información utilizada,
proporción de varones, es de naturaleza frecuencial por su forma repetitiva. Pero
cuando hemos afirmado que en Valencia esta proporción es de 51.7 por cada 100
nacidos, no nos hemos referido a ningún experimento u observación particular,
sino que es algo que los estadísticos profesionales dan como valor medio de cómputos
llevados a cabo tras observaciones seculares de los boletines de nacimientos
remitidos por los registros de población. Se trata, pues, de una información
obtenida por experiencia anterior.
Una empresa que se dedica a construir aviones
recibe un día una oferta de un tipo de material por parte de uno de sus
abastecedores y que, según él, es el más adecuado por sus cualidades de
ligereza, resistencia, etc., para el nuevo modelo que se proyecta. Los técnicos
del modelo experimentan el nuevo material (datos muestrales),
pero tienen también en cuenta los datos suministrados por el proveedor
(experiencia pasada), persona que conoce los resultados del material que
ofrece en otros proyectos de otras firmas. Por otra parte, el equipo económico,
de acuerdo con el técnico, hará las valoraciones de todo tipo que se desprenden
de de la adopción del nuevo material: perjuicios causados si no se cumplen las
especificaciones exigidas por el mercado, diferencias en los costes,
comercialización, etc. (información sobre las consecuencias potenciales).
Vemos a través de
estos ejemplos de la información necesaria para resolver un problema
estadístico (que concluirá en muchos casos en un problema de decisión) puede
abarcar información de tres categorías distintas: datos muestrales
(debidos a observación o experimentación actual) y consecuencias potenciales
(información nacida de las posibles consecuencias que traerá consigo una u otra
acción).
3. La información que conlleva las posibles
consecuencias está inmersa en el problema de la valoración de esas
consecuencias, el cual es vital, ya que es determinante a la hora de tomar
acciones alternativas. Esta valoración debe ser cuantificada de algún
modo a fin de poder comparar los resultados de distintos cursos de acción. La
valoración de las consecuencias y su formal cuantificación es objeto de la
teoría de la utilidad. Esta teoría forma parte de las diversas
interpretaciones de la estadística y constituye uno de los elementos básicos de
la teoría de la decisión.
La información basada en las consecuencias
puede ser distinta (y hasta estar en contracción) de los datos muestrales. Lo
mismo que los datos muestrales, la valoración de las consecuencias puede ser
objetiva: los costes de manufacturas debidos a procesos distintos pueden ser
valorados en moneda de cuenta. Pero puede suceder que las consecuencias que se
desprenden de la toma de acciones distintas no sean susceptibles de una
valoración objetiva. ¿Cómo valorar objetivamente los resultados de elegir entre
el cumplimiento de la ley y el cohecho? ¿Cómo ser objetivo a la hora de elegir
como mujer a Juana o a María? En la esfera de las actividades humanas es a
menudo difícil ser objetivo. La valoración de consecuencias implica entonces
evaluar juicios subjetivos (personales), acudir a los instrumentos de la
teoría de la utilidad.
Aún en situaciones aparentemente objetivas es
difícil eludir todo factor personal. En la elección de uno u otro material,
aparte de componentes objetivos perfectamente comparables en precio, calidad,
etc., siempre intervendrán el gusto del decisor, las modas en el consumo, la
presión social, etc.. Todos sabemos lo que pesa, por encima de todas las
características técnicas y el precio, las preferencias y gustos de la
mujer a la hora de elegir el marido un nuevo modelo de automóvil.
Éstas diversas categorías de información
pueden resumirse en dos: una que posee ya el sujeto y que llamaremos
información a priori (no importa cuál sea su naturaleza y origen), y otra
suministrada por la muestra o información muestral. La combinación de
ambas constituye la esencia de la inferencia estadística bayesiana. El
uso exclusivo de la segunda es típico de la estadística clásica. La
información generada por las consecuencias es, en cambio, relevante en la
teoría de la decisión.
En los párrafos anteriores hemos referido a
inferencia estadística y a teoría de la decisión conceptos distintos, pero con
elementos comunes. A la inferencia estadística le asignaron la misión de
describir la situación real y a la teoría de la decisión le pedimos que
prescriba la acción a ejercer en la situación dada.
3. 3. LA OBSERVACIÓN
Y GENERACIÓN DE LOS DATOS: DISEÑO DE EXPERIMENTOS.
1. Diariamente cada uno de nosotros lleva a
cabo alguna observación con finalidad estadística. La parte más elemental de la
estadística hace su aparición en cuanto se realiza mentalmente la evaluación de
una investigación cualquiera. Cuando uno se pesa, automáticamente compara el
peso obtenido con el promedio de pesadas anteriores y considera si este
peso se desvía significativamente del comúnmente observado.
Estos resultados sencillos se obtienen con
facilidad; pero cuando se emprende una investigación en serio, el método
estadístico, que es el compañero inseparable de toda investigación científica,
exige especiales conocimientos. En general se apela a la estadística siempre
que acaecen sucesos en fenómeno de colectivo. Estos sucesos son de dos
tipos: en unos, el estadístico es mero observador de lo que sucede; tal
ocurre con la observación de los hechos demográficos como nacimientos,
matrimonios, defunciones, etc. Es lo que hacen también los astrónomos, sin que
en ningún caso pueda el observador modificar los fenómenos que tenía entre sí.
Otras veces los sucesos son el resultado de
una experiencia provocada por el investigador, bajo ciertas condiciones.
La experiencia puede provenir de las ciencias llamadas experimentales o de la
socieconómicas; puede obtenerse en un laboratorio o en la vida real, puede ser
libre o controlada.
Lo corriente es que una experiencia no sea
exactamente repetible en cuanto a resultados se refiere, cuando las
condiciones que la definen no son totalmente controlables en estos casos los
resultados no son predecibles. Se habla entonces de experiencia de azar o
experimento aleatorio o estocástico, por oposición a aquel en que hay relación
de causa a efecto llamado determinista. Son experiencias aleatorias la
extracción de una carta de un mazo, el lanzamiento de un dado para obtener una
de sus caras, la elección de un punto sobre una diana mediante un disparo sobre
ella.
Desde el punto de vista estadístico todos los
hechos observados, tanto si provienen de un fenómeno experimental como se
resultan de la simple observación del mundo que nos rodea, tienen el mismo
carácter de estabilidad, salvo el caso de experiencias controladas.
Pero es preciso tener en cuenta que a veces
puede desviarse el fenómeno de esa regularidad, debido a la variabilidad
exhibida por todo tipo de agrupación o clase. Así, al observar la población
habrá que considerar la variación por edades, por sexo, por razones de origen.
Habrá que tener en cuenta la variabilidad de un mismo fenómeno en el tiempo: la
tasa de mortalidad cambia con el progreso de la medicina, el número de
accidentes con el desarrollo económico.
2. Ciertas ciencias empíricas, como la
psicología, admiten, según algunos investigadores, como método investigación la
introspección. Esto es una excepción; en la mayoría de las ciencias de la
naturaleza la observación es exclusivamente sensible y externa. En el
caso más corriente los datos se obtienen por experimentación.
Existe una evidente analogía entre
experimentación y comunicación a través de un canal ruidoso. Las
entradas son los estados de la naturaleza, y las respuestas, los resultados del
experimento. La información transmitida mide el promedio de incertidumbre que
queda eliminada por el experimento acerca de los estados de la naturaleza. Será
ejecutado aquel experimento con mayor información esperada. El proceso es el de
la llamada «caja negra», según el esquema de la figura.
Algunos autores, como D.A.S. Frasser (1979),
llaman sistema aleatorio al concepto aquí reseñado y reservar la palabra
experimento para investigaciones en las que las entradas están controladas
por existir una relación de causa a efecto. El control de las entradas puede
ser de dos clases: entradas diseñadas o planificadas, de suerte que la
modificación de una, dejando fijas las demás, permite detectar influencia en
las respuestas: tenemos entonces lo que se conoce con el nombre de diseño de
experimentos; pero puede suceder que las entradas no sean directamente
controlables y se haga su elección aleatoriamente, en cuyo caso se
origina un efecto aleatorio sobre las respuestas. La aleatorización externa de
las entradas, ante diversas realizaciones del experimento, provee una cierta
compensación de la falta de control de dichas entradas. Esta aleatorización
externa es una componente de la investigación que determina la aleatoriedad
del experimento o sistema. Queda así aclarada la diferencia entre
experimento (o sistema aleatorio) y diseño de experimentos.
3. La estadística trabaja con conjuntos
numéricos. El conjunto de entes sobre los que se quiere investigar, con ciertas
características comunes, se llama población o universo. A una parte
de ese colectivo se le llama muestra. Cada uno de los elementos de la
población es un individuo. Esta nomenclatura recuerda los orígenes
demográficos de la Estadística. De una menor población pueden considerarse
características distintas: sexo, edad, estatura, peso. Y una misma
característica puede representar distintas manifestaciones: sexo
masculino y femenino, escala de edades, etc... Las modalidades pueden ser
medibles (estatura) o contables (edad), en cuyo caso el carácter cuantitativo
(llamado también atributo).
Estas definiciones pueden servir para una
adecuada ordenación de la información de cara a su aplicación en los
modelos. No olvidemos que la puesta en práctica de las diversas técnicas estadísticas
no tendrá validez sino a condición de que la recogida de datos sea
conveniente y su ordenación correcta.
La recogida de datos es la primera fase del
proceso estadístico. Estos datos proceden de lo que en el esquema descrito
llamamos al mundo de los hechos a priori. De estos hechos tomamos los
que convienen al problema real que nos ocupa y que servirán para construir el
modelo de ese problema. Esa información incorporada por el científico a su
ciencia, a la teoría científica que pretende construir, son las llamadas
observaciones científicas (llamadas también protocolarias). La llamamos así
para distinguirlas de la información estadística en general: datos
cuantitativos y datos cualitativos, tales como han sido definidos.
Óscar Morgenstern
utiliza el esquema de la figura para distinguir estos diversos tipos de
información estadística.
El círculo A representa el campo cubierto por
la teoría; los círculos B y C indican, respectivamente, las partes que cubren
los datos cuantitativos y cualitativos. Estos dos círculos se refieren a datos
empíricos, mientras que las observaciones, que ponen de manifiesto cómo la
teoría está enclavada en la realidad, eran circunscritas a la región
comprendida entre los tres círculos.
Hemos de matizar dos cosas. Primero, que no
todos los datos, como se desprende del esquema, deben ser considerados como
observaciones, en el sentido que se da aquí a esa palabra, sino solamente
aquellos que, recogidos, clasificados y reducidos a categorías, aspiran a ser
utilizados en los modelos. Segundo, que empleamos la palabra teoría por modelo,
ya que todo modelo es la interpretación real de una teoría y esto es lo que
aquí se está considerando.
4. Los datos numéricos de la Estadística
resultan de asignar números a objetos o relaciones empíricas de acuerdo con
ciertas reglas fijas.
Estas reglas dan lugar a las escalas de
medida. Las escalas de medida son posibles sólo en tanto existe un cierto
isomorfismo entre las operaciones que podemos hacer con números y las que
podemos hacer con los objetos empíricos. Los modos según los cuales las
propiedades y las operaciones efectuadas con los números son trasladables a los
objetos empíricos dan lugar a otros tantos tipos de medidas y escalas.
Las propiedad de los números trasladables a
los objetos son, principalmente, la igualdad y desigualdad, conexión u orden,
igualdad de diferencias e igualdad de razones. Estos tipos de operaciones dan
origen a cuatro clases de escalas: escalas enunerativas o nominales,
escalas ordinales, escalas de intervalos y escalas de razón.
La descripción de cada una puede verse en Gutiérrez Cabria (1980).
Con cualquiera de estas cuatro escalas
aplicadas a los conjuntos de objetos, se obtienen conjuntos numéricos, pero
información suministrada se va haciendo más precisa a medida que utilizamos
escalas más perfectas. Es evidente que, en la ordenación establecida, la más
imperfecta es la escala nominal y la más perfecta la basada en la igualdad la
razón.
4. LAS FRONTERAS
DE LA INFERENCIA ESTADÍSTICA.
Ha llegado ya el momento de analizar cuál es
la aportación de la estadística en general y de la inferencia estadística en
particular, a la metodología general científica.
La estadística general, en el proceso de
recogida y análisis de datos, ha sido contemplada ya en la primera fase del
proceso de formación de las ciencias naturales. Es una fase meramente
descriptiva que recoge datos, las observaciones protocolarias, los analiza y
termina con la formulación de enunciados universales sintéticos.
La inferencia estadística interviene en las
fases segunda y tercera y culmina con la obtención de modelos de las teorías
científicas. Hemos recalcado ya que la ciencia progresa no por meras
especulaciones teóricas, sino por una feliz simbiosis entre la teoría y la
práctica, suficientemente iteradas. En esta iteración de la teoría y la práctica,
nuevos datos sugieren nuevos modelos teóricos, y un nuevo modelo propuesto
inspira nuevos exámenes y análisis de los datos obtenidos o que deben
adquirirse. La dualidad de los procesos de inducción y deducción conducen así a
mejorar los modelos paulatinamente, pero siempre en presencia del estadístico.
Esta presencia se manifiesta en un doble
proceso que pudiéramos denominar de depuración y estimación del modelo
científico. Este doble proceso constituye la base inferencial que atañe
al estadístico, a la cual precede otra, pre inferencial, que complete al
científico. Karl Popper (8) describe así ambas fase del método científico: «el
científico teórico propone ciertas cuestiones determinadas al experimentador, y
éste último, con sus experimentos trata de dar una respuesta decisiva a ellas,
pero no a otras cuestiones: hace cuanto puede por eliminar éstas».
De los hechos «a priori» que reflejan los
verdaderos estados de la naturaleza, por vía reductiva o directamente, el
científico formula sus hipótesis o leyes, su modelo, Mj. El
estadístico consulta nuevamente a la naturaleza, la misma que inspiro al
científico su modelo, extrayendo nuevos datos con los que realiza el diseño Dj,
y los que confronta al modelo Mj. Los datos utilizados para esta
confrontación del modelo han de ser distintos de los que sirvieron para su
construcción (lo que implica una dicotomización de los hechos «a priori»), pues
de lo contrario, se incurrirá en un círculo vicioso. Los nuevos datos estarán
de acuerdo o en desacuerdo con Mj. Es este un proceso de
diagnóstico. En caso de existir desacuerdo, cabe preguntarse por qué. Los
instrumentos estadísticos utilizados para este análisis son los diversos test
de bondad de ajuste, análisis de la varianza residual, etcétera. Puede suceder
que sea aconsejable cambiar Mj por un nuevo modelo Mj +1 que será
sometido a prueba de los mismos datos obtenidos o a otros nuevos, si así lo
exige la independencia de la prueba, para lo que se diseñaría como experimento
de Di +1.
Caso de haber llegado a la obtención de un
modelo aceptable, esto es, aproximado suficientemente a la realidad que ha
servido de verificación o contraste, puede procederse a estimar sus parámetros,
en base a esa misma realidad con la que se ha probado está conforme. En
realidad, esta estimación es necesaria cada prueba de depuración del modelo
provisional, pues es el único modo de ver si se aproxima o no a los hechos
reales.
Así como las técnicas estadísticas utilizadas
en la depuración del modelo pertenecen a la escuela clásica, el problema de la
estimación puede hacerse por métodos clásicos o bayesianos, fiduciales o
estructurales, todo lo cual pone de manifiesto la complementariedad de las
escuelas y, en su caso, subsidiariedad, como habíamos anunciado al principio.
BIBLIOGRAFÍA
ANCOMBE, F. J.: «Rectifying of a continuous our put». J. Amer.
Statis. Ass , 53, p. 702, 1958.
BARTLETT, M. S.: «Further aspects of the theory of Multiple Regressión».
Proc. Cam. Phil. Soc., 34, p. 33, 1938.
_____: Essays an Probability and Statistics. London• Methuen, 1962.
BIRNBAUM, A.: «On the foundations of statistical inference». J. Amer.
Statis. Ass., 57, pp. 269-326, 1962.
BLACKWELL, D., y GIRSHICK, M. A.: Theory af games and Statistical
Decisions. J. Wiley, New York, 1954.
DE FINETTI. B.: «La prevision, ses lois logiques, ses sources
subjectives». Ann. Inst. Poincaré, 7, pp. 1-68, 1937.
DE GROOT, M.: Optimal Statistical Decisions. McGraw-Hill. New
York, 1970.
EDWARDS, A. W. F.: Likelihood. Cambridge: C. U. P., 1972.
FERGUSON, T. S.: Mathematical Statistics: A Decisión Theoretic
Approach. Acad. Press, New York, 1967.
FISHER, R. A.: «On a absotute criterion for fitting frequency curves». Messeng.
Math, 41, Pp. 1 SS-1 ó0, 1912.
_____:«Inverse probability». Proc. Camb. Phil. .Soc., 26, pp.
52$-35, 1930.
_____:«The concepts of inverse probability and fiducial probability
referring to unknown parameters». Prac. Roy. Soc., A., 139, pp. 343-48,
1933.
_____:«The fiducial argument statistical inference». Ann. Eugen, 6,
pp. 391-98, 1935.
_____:«The use af multiple measurements in taxonomic problems», Ann. Eugen,
7, p. 1; 9, 193fi.
_____:«Theory of Statistical estimatiom>. Proc. Camh. Phil. Svc.,
22, p. 70U, 1952.
FRASSER, D. A. S.: «The fiducial method and invariance». Blometrica, 48,
pp, 2fi1-280, 1961.
_____: The Structure of lnference. J. Wiley. New York, 1968.
_____: lnference and linear models. McGraw-Hill, 1979.
GALTON, F.: «Regresion tawards mediocrity in hereditary stature». J.
Antrho. Inst., 15, p. 246, 1877.
_____;«Family likeness in Stature». Proc. Royal Soc., 40, p. 42,
1886.
_____:«Co-relations and then measurements chiefly from anthropometric
data». Proc.
Roval Soc•. ,45,
p. 135, 1 R88.
GINI, C.: «I pericoli
della statistica». Actas de la I reunión científica de la Soc. italiana
de Estad. Pisa, 1939. Reimpreso en Questione fondamentali di Proóabilrtá e
Statistica, vol. I, Bibliot. di Metrom e Bihliote. di Estad, 1968.
GODAMBE, V. P. , y THC)titPSON, M. E.: «Bayes, fiducial and frequency
aspects of statistical inference in regression analysis in survey sampling». J.
Roy. Statis. Soc. B., 33, pp. 361-39U,1971.
GOOD, I. G.: Prohuhilitv and the Weighing of Rvidence. Griffin, London,
1950.
GUTIERREZ CABRIA, S.:
Bioestadística. Ed. Tebar. Madrid, 1980.
_____:«Origen y desarrollo
de la Estadistica en los siglo xvtt y xvnl». Estadfstica Española, núm.
97, octubre-diciembre 1982, 1982.
HODGES, J. L., y
LEHAMANN, E.L.: «The use of previous experience in reaching Statistical decisions».
Ann. Math. Statis, 23, p. 39fi, 1952.
HOTTELING, H.: «The most predictable criterion». l. Educ. Psichol, 26,
p. 239, 1935.
KEYNES, J. M.: «Treatise on probability». 7'he Roy. Econ. Soc. London,
1973.
LINDLEY, D. V.: «Fiducial distributions and Bayes Theorem^>, J.
Roy. Stutis. Soc•. B., 20, PP• 102-107, 1958.
MAHALANOBIS, P. C.: «On the generalized distance in Statistics». Proc.
Nat. Inst. Sei. India, PP. 12-49, 1936.
MILLE R y STAR.: Fonction de Direction et Recherche Operationelle. Editorial
Dunod. Paris, 1964.
NEYMANN, J.: «On the correlatiun of the mean and the Variance in samples
drawn from an infinite population». Biometrika, 1H, p. 4U1, 1926.
PEARSON, K.: «On the Criterion that a given System of Deviations from the
Probable in the case of a Correlated System of variables in such that it can be
reasonably supposed to have arisen from Randon Sampling^. Philosophical
Magazine. L, p. 157, 1900.
_____: «On lines and planes of closet
fit to systems of points in space». Phil. Nag. 2(6), p. 559, 1902.
POISSON, S. D.: Recherches
sur la prohabilité des jugements en matiére civile, precedées des régles
générales du calcul des prohahilités. Paris, 1937.
POPPER, K. R.: La
lógica de la investigación cienífica. Ed. Tecnos, 1967.
RAIFFA, H., y SCHLAIFER, R. : Applied Statistical Decision Theory. Harward
Univ. Press. Boston, 1961
RAMSEY, F. P.: «Truth and Probability». Reeditado en Studies in
Subjective Probability. ( Kyburgand Smokler.) J, Wiley, New York, 1926.
REICHENBACH, H.: The theory of prohability. Chicago, Los Angeles,
1949.
ROBBINS, H.: «The empirical Bayes apprvach to statistical decision
problems». Ann. Math. Statis., 35, pp. 1-21, 1964.
SAVAGE, L. J.: The founctutions of Statistics. J. Wiley, New
York, 1954.
SHA[FER, R.: Prohahilitv und Stutistics for Busines Decisions. MacGraw-Hill,
New York, 1959.
STUDENT: «The prohable error of a mean». Biometrika, 6, 1, 1908.
VON NEWMAN., y MORGENSTERN, O.: Theory of games and Economic
Behavior. Princeton Univ. Press, 1944.
VON MISSES, R..: «Mathematical theory of probabitity and statistics^. Academic
Press, New York, London, 19ó4.
WALD, A.: Sequential Analysis. New York, 1947.
WILKS, S. S.: «Certains generalizations in the analysis of variance». Biometrika,
24, p. 471, 1932.
YULE, G. U.: An Introduction to the Theory of Staristics. Charles Griffin and
Co. London, 1912.
Comentarios