ESTADÍSTICA ESPAÑOLA.
Número 101, 1983,
páginas 7 a 28.
Por:
SEGUNDO GUTIÉRREZ CABRÍA.
Departamento
de Estadística e Investigación Operativa.
Universidad
de Valencia.
Instituto
Nacional de Estadística.
RESUMEN.
Se contempla la Estadística durante el
presente siglo desde el punto de vista de su evolución histórica, contenidos y
características metodológicas de las corrientes más en boga.
Palabras clave: descripción e
inducción, probabilidades directas en inversas, información muestral y
auxiliar, sistema y diseño de experimentos.
1. INTRODUCCIÓN.
Metodológicamente, la Estadística puede ser
descriptiva e inductiva. La descriptiva utiliza instrumentos gráficos y
analíticos que le permiten estudiar caracteres específicos de grandes grupos de
fenómenos. La inductiva extiende la descripción de ciertas
características observadas en algunos sucesos a otros que no han sido
observados; para llevar a cabo esta extensión se puede elegir aquel tipo de
descripción que se estima más propicio. Históricamente se han utilizado
tres tipos de argumentos para inducir o inferir propiedades en datos no
observados.
El primero utiliza probabilidades a «a
priori» individuales para predecir frecuencias estadísticas sobre la totalidad
de la serie. Su fundamento lo constituyen los teoremas de Bernoulli, Poisson y Tchebischeff
. El teorema de Bernoulli fue el fruto de 20 años de trabajo, según su propia
confesión, y sólo es válido bajo condiciones muy estrictas. Una de estas condiciones
es la igualdad de probabilidades «a priori». Poisson prescinde de esta
condición y Tchebischeff obtiene una ley de la que las dos anteriores son casos
particulares. Un análisis sobre la consistencia de estos métodos puede verse en
Keynes (1973).
El segundo tipo de argumento se sirve de la
frecuencia con que ha ocurrido un suceso en una serie de ocasiones para
determinar la probabilidad de que ocurra «a posteriori». Dos procedimientos
teóricamente inconsistentes entre sí fueron comúnmente utilizados: la inversión
del teorema de Bernoulli y la regla de sucesión de Laplace. Ambos son
considerados en la actualidad como inválidos.
El tercer enfoque de la inferencia
estadística se apoya en esta simple idea: dada la frecuencia con que ocurrió un
suceso en una serie de ocasiones, ¿con qué frecuencia podemos esperar que
ocurra en otras ocasiones? Éste es el método vislumbrado ya en la estadística
de la conjetura de Graunt y sus discípulos, basada en la estabilidad de
las series estadísticas cuando son analizadas según los cánones sugeridos por
Lexis y Von Bortkiewicz. Esta inducción de muestra a muestra se opone
radicalmente a la deducción implicada en la regla de Laplace y es el
germen de la inferencia estadística moderna.
En el presente trabajo vamos a centrar
nuestras consideraciones en torno a la Estadística del presente siglo. En ell
párrafo 2 estudiamos los hitos más importantes de su desarrollo. En el párrafo
3 se analizan sus contenidos básicos: el uso de modelos, el tratamiento de la
información y su génesis. Terminamos con una consideración entre las fronteras
de la Estadística.
2. EVOLUCIÓN DE LA
ESTADÍSTICA EN LA ÚLTIMA CENTURIA.
1. Una consecuencia natural de los nuevos
cimientos echados por Lexis a la Estadística fue en la teoría de la
significación de Karl Pearson. En la búsqueda del significado heurístico de
los modelos teóricos, a través de los cuales pretendía obtener una
representación lógico-formal de la catarsis darwiniana. Pearson había advertido
la necesidad de un criterio para probar la adecuación de los modelos a los
datos. En el año 1900 daba la luz una memoria (ver Pearson, 1900) en la que
construía un test (el test del Ji cuadrado) apto para verificar la
accidentalidad de las discrepancias entre la distribución teórica y la
empírica. Este test era el preludio de toda una serie de algoritmos de
naturaleza inferencial.
En la teoría de la dispersión el problema que
se planteaba era investigar si en los errores fenomenológicos de una
sucesión de observaciones estadísticas concurrían factores sistemáticos.
Es lo que pretendía resolver la «teoría de la significación»: «un criterio muy
simple -explicaba Pearson (1900)- para determinar la bondad de ajuste de una
distribución frecuencial cualquiera a una curva teórica. He calculado -añadía-
la probabilidad de que la divergencia con respecto una curva sea atribuida al
azar del muestreo». La sustitución de una probabilidad directa por una inversa
es aquí un hecho. Con todo de este test dará Yule (1912) una versión en
términos de probabilidad directa: «nos da -dice- la probabilidad de que por
efecto de muestreo aleatorio se obtenga un valor del test igual o superior al
observado».
Con esas palabras parece advertir Yule la
restrictividad del canon hipotético-deductivo en cuyo ámbito la Estadística
empezaba a darse reglas y criterios. «El estadístico -escribía-... puede
mostrar que los hechos están de acuerdo con esta o aquella hipótesis. Pero otra
cosa es demostrar que todas las demás hipótesis posibles son excluidas y que
los hechos no admiten ninguna otra interpretación.»
2. La escuela biométrica estaba de acuerdo
con el criterio de Pearson para la confrontación de los esquemas teóricos y los
hechos reales, cuando un químico de los laboratorios «Messrs Guinnes» de
Dublín, dedicados a fabricar cerveza, lanzó una nueva idea metodológica. Era
William Gosset quien afirmaba que los métodos de sus amigos biómetras no se
ajustaban a la naturaleza empírica de los problemas que él tenía que resolver:
los postulados y esquemas teóricos válidos para muestras grandes no lo eran
para las muestras pequeñas de que él disponía. De hecho, los biómetras habían
trabajado, sobre todo Pearson y Weldon, a base de realizar muestreos en
poblaciones naturales, pero no se habian llevado a cabo programas experimentales.
Los datos que obtenía Gosset eran medidas
precisas, pero poco numerosas. Se decidió, pues, construir un test adecuado, y
el resultado obtenido, publicado en 1908, constituyó un verdadero avance en la
inferencia estadística. Este trabajo fue firmado con el seudónimo de Student
(1908). Gosset no desdeñó nunca la idea de probabilidad «a priori», necesaria,
según él, para determinar las expectativas de que una constante se halle dentro
de un intervalo prefijado. Mientras Pearson concentraba toda su atención en la
información suministrada por los datos, Gosset acudía insistentemente a la
intuición, como corresponde a un investigador experimental con sentido crítico
y antidogmático.
3. Con los trabajos de Lexis, Pearson y
Gosset, la Estadística parecía orientarse en un sentido tal vez más preciso: la
búsqueda de métodos inferenciales tendentes a objetivar, todo lo más posible,
los procedimientos de investigación. Esta meta ideal fue elevada por Ronald A.
Fisher ha principio heurístico.
Crítico decidido de todo asomo de
probabilidad inversa, Fisher se provee de instrumentos susceptibles de extraer
la información óptima de los resultados experimentales, mediante una técnica
sintéticamente tipificada y semánticamente neutra. «La teoría de la
probabilidad inversa -escribe en "Theory of Statistical Estimation"
(1925)- se basa en un error y debe ser rechazada.»
Pearson y Student habían sido más prudentes:
su rechazo de la probabilidad inversa era puramente operativo. Fisher, en
cambio, hace del tema una ideología, pero no asume nunca una posición clara con
respecto al problema más general de la inducción. «Sobre el argumento
fundamental de la inducción -escribe Bartlett (1962)- siempre he hallado sus
escritos extremadamente oscuros.» Quetelet había aconsejado «replicar», repetir
las observaciones, a fin de compensar los elementos perturbadores. Student
sugería eliminar «a priori» las circunstancias diferenciadoras conocidas. Todo
esto desagradaba a Fisher, partidario de eliminar lo subjetivo y de aleatorizar
las muestras experimentales hasta lograr la plena aleatorización.
Fisher reemprende la teoría de la
significación como técnica interpretativa al servicio de la investigación
experimental, dando prioridad a los programas de experimentos y proponiendo
fijar el «umbral de significación» antes de empezar el trabajo indagatorio.
La idea de la máxima verosimilitud -Fisher
(1912)- es introducida como un criterio natural para estimar los parámetros de
la población para valorar hipótesis a la luz de la información muestral. Fisher
impone la adecuada «verosimilitud» en el paso inductivo de la muestra a la
población; la ve como predicado del hipótesis a la luz de los datos.
4. Como en el caso de Pearson y Student, en
la metodología de Fisher las hipótesis son probadas una por una, sin la
menor alusión a la hipótesis alternativa. La idea de un proceso inferencial
referido a una pluralidad disyuntiva de hipótesis es original de Jerzy
Neyman (1926), quien sigue a grandes rasgos la metodología fisheriana,
acentuando más la distinción entre estimación de parámetros y contraste de
hipótesis, entendido éste contraste como confrontación entre hipótesis rivales.
Neyman deja su Varsovia natal frecuentemente,
a partir de 1926, para recibir enseñanzas y orientaciones del gran Karl
Pearson. Una consecuencia de estas estancias en Londres fue su amistad con Egon
S. Pearson (Pearson Jr.) y una colaboración con él en materia científica. De
esta labor de investigación en equipo nació una nueva teoría de los test de
hipótesis. Neyman y Pearson dan una regla de comportamiento más dúctil y
posibilistica que la de Fisher. Es la que figura en los manuales de estadística
clásica.
5. En la década de 1930-40 hay tres hechos
notorios en el desarrollo de la estadística que no se pueden silenciar.
El primero fue el auge logrado por el
Análisis Multivariante de la mano de Mahalanobis (1936), Fisher
(1936),Hotteling (1935, 1936), Bartlett (1938) y Wilks (1932), entre otros, y
cuyos orígenes están en Galton (1886, 1888) y Karl Pearson (1901).
El segundo se refiere al elevado nivel
matemático alcanzado por la Estadística merced a los progresos logrados por el
Cálculo de Probabilidades. Es el momento en que empiezan a conjugarse los
trabajos de los probabilistas rusos y franceses (Kolmogorov, Kitchine,
Schebyschev, Borel, Levy, Fréchet) con la escuela de estadísticos ingleses y
americanos; son los comienzos de la Estadística Matemática.
El tercer hecho de esta época, importante en
la historia de la estadística, en la aparición de los primeros trabajos serios
sobre probabilidad subjetiva, a cargo, principalmente, de Bruno de
Finetti (1937), quien, a su vez, redescubrió los que antes había realizado F.P.
Ramsay (1926). Eran las bases sobre las que construir el análisis bayesiano.
C. Gini (1939) había indicado a poner los problemas estadístico-inferenciales
en términos de probabilidad inversa señalando los peligros de ciertos criterios
«objetivistas», cuando son empleados sin la asimilación crítica de las premisas
conceptuales que los rigen y limitan. Ese mismo año Harold Jeffreys (1939)
desarrolló la teoría de la probabilidad y de la inferencia de muestras
aleatorias en términos exquisitamente bayesianos. Con todo, las voces
bayesianas europeas no fueron escuchadas del otro lado del Atlántico hasta prácticamente
en los años cincuenta. Dentro del grupo de americanos que más han contribuido
al avance bayesiano hemos de citar al Good (1950). Anscombe (1958), Hodges y Lehman (1952), Schalaifer (1259) y, sobre
todo, Leonard L. Savage (1954) con su obra «The foundation of Statistics».
6. La teoría de juegos y la teoría de la
utilidad parte del rico legado dejado por John Von Neumann, uno de los
matemáticos más insignes de nuestros tiempos. En 1927, con su prueba del
teorema del minimax es para juegos finitos, Von Neumann estableció los
fundamentos de la teoría de juegos. Más tarde, en colaboración con Oscar
Morgenstern , culmina su labor con la publicación de la obra «Theory of Games
and Economics Behavior». Abraham Wald (1947) apreció la conexión entre la teoría
de juegos y la de contrastes de hipótesis de Neyman. Wald considera el
razonamiento estadístico como un proceso de decisión en ambiente de
incertidumbre, como un juego entre el estadístico y la naturaleza.
El problema de la Estadística fue provisto de
funciones de pérdida y de riesgo que permiten contemplar una multitud de
alternativas posibles sometidas al criterio de mínimax, de la minimización de
la máxima pérdida o riesgo. La escuela de estadísticos americanos se adhirió
pronto a este nuevo enfoque de la Estadística, principalmente en teoría
económica (donde la utilidad sustituyó al riesgo), que permite la
síntesis de las teorías de la estimación, del contraste de hipótesis y del
análisis secuencial.
La posibilidad de asignar una distribución de
probabilidad a los posibles estados de la naturaleza, según los cánones
bayesianos, condujeron a la teoría de la decisión bayesiana. Sus
partidarios, Blackwel y Girshick (1954), Raiffa y Schlaifer (1961), Ferguson
(1967), De Groot (1970), argumentan que todo problema específico de inferencia
implica una elección entre acciones alternativas cuyo grado de preferencia
puede expresarse por una función de utilidad que depende del estado desconocido
de la naturaleza. Dada la distribución «a posteriori», basaba en la
distribución inicial asignada a los estados de la naturaleza y en la
información suministrada por la muestra, la mejor acción a tomar es la que
maximiza la utilidad esperada.
Frente a estos bayesianos «decisionistas»,
los bayesianos puros no asumen ningún papel de decisión: la distribución «a
posteriori» sobre las hipótesis alternativas es el producto final de la
inferencia.
Un compromiso entre bayesianos y no
bayesianos son los métodos llamados «empírico-Bayes», no bien vistos por unos y
por otros. Fueron introducidos por Robbins (1955) y propenden a una mayor
utilización de los datos estadísticos, principalmente en la distribución «a
priori».
7. A estos distintos enfoques que atraen la
atención de los estadísticos actuales añadiremos otros tres de escasa
importancia.
a). El primero es la llamada «inferencia
fiducial» de Fisher, que tiene un interés meramente histórico y se opone a la
teoría de Neyman-Pearson los «test de significación», y a los bayesianos, la
teoría fiducial. En sucesivos trabajos (1930, 1933, 1935) desarrolla sus ideas
sobre «probabilidad fiducial », que le conducirían luego a los llamados
«intervalos fiduciales». A pesar de los esfuerzos por rehabilitar la inferencia
fiducial, a cargo de estadísticos tan eminentes como Frasser (1961), Lindley
(1958), Godambe y Thompson (1971), Birnabaum (1962) en, etc., no es en la
actualidad comúnmente aceptada.
b). La teoría de «verosimilitud» o del
«soporte» se contrapone a los puntos de vista, clásico y bayesiano, de la
inducción estadística por el distinto uso que hace de la función de
verosimilitud.
La estimación de un parámetro (o selección de
una hipótesis) en comparación con otro (u otra) se apoya en el soporte
que proporciona un conjunto de datos, medido ese soporte por el logaritmo
natural de la razón de verosimilitudes calculadas a partir de esos datos el
método ha sido ampliamente estudiado por Edwards (1972).
c). Finalmente, nos referimos a la
«inferencia estructural». La creación se debe exclusivamente a D.A.S. Frasser y
constituye un nuevo intento de lograr una teoría unificada de la inferencia,
como puede verse en su libro «The Structure of Inference» (1968). La obra de
Frasser ha suscitado gran interés de los investigadores, por cuanto porta
pensamiento nuevo, pero no aparece hasta ahora como método de fácil y general
aplicación.
8. Addendum. Los distintos enfoques de
la inferencia estadística ponen de manifiesto su carácter sectorial más bien
que una teoría unificadora en la cúspide de la Estadística general. Las áreas
especializadas de la Estadística proceden frecuentemente bajo el impulso de su
énfasis particular, sin prestar atención a más amplias implicaciones. Ello
lleva consigo su desarmonico desarrollo. La investigación de una teoría
integradora de las distintas vertientes del pensamiento estadístico es el reto
que tiene planteado la Estadística actual.
3. CONTENIDOS BÁSICOS DE LA ESTADÍSTICA ACTUAL.
En otra parte (1982) hemos escrito que «la
Estadística está caracterizada por la existencia de una información acerca de
un colectivo o universo, lo que constituye su objetivo material; un modo
propio de razonamiento, una lógica propia, lo que constituye su objeto
formal, y unas previsiones de cara al futuro, lo que conforma su objeto
o causa final. Todo esto, frecuentemente, conlleva o preludia una toma
de decisión.
En esta
caracterización estan implícitos los elementos esenciales de todo problema
estadístico, esto es:
1. Una situación real
en ambiente de incertidumbre.
2. Existencia o
posible obtención de información.
3. Necesidad de unas
reglas que permitan conocer situaciones actualmente desconocidas y, en su caso,
tomar las acciones oportunas.
Estos tres puntos abarcan toda la
problemática teórica y práctica que la Estadística actual. El estudio de la
situación real de un problema estadístico exige describirla y esto nos
obliga a estudiar los modelos probabilísticos. La información
constituye la materia prima de toda investigación estadística. ¿Dónde y cómo
recabar esta información? ¿Qué hemos de considerar con información
relevante? Finalmente, la inferencia estadística y la teoría de la decisión
¿son la misma cosa o hay que distinguir entre ellas?.
3.1. EL MODELO DE LA
SITUACIÓN ACTUAL.
1. Puede definirse un modelo como una
representación de la realidad que intenta explicar en alguna de sus facetas. El
modelo debe ser menos complejo que la realidad misma, pero suficientemente
completo como para representar con aproximación los aspectos de la realidad que
van a ser objeto de estudio. El proceso mismo de pensar corresponde, en
su conjunto, a esta definición; de modo continuo estamos construyendo
modelos de la realidad. Esto explica por qué la construcción de modelos es
una operación tan frecuente. Acabamos de pensar en el «hecho de pensar», y en
el proceso utilizado hemos construido un «modelo de pensamiento».
Los modelos ofrecen aspectos tan distintos
que ninguna exposición sencilla puede aspirar a contener todos los elementos
esenciales para su construcción. En un extremo de la escala tenemos el hecho de
que todo esfuerzo humano está basado en la construcción de modelos; en
el otro extremo vemos que los hombres de ciencia y los metodólogos construyen
explicaciones de la realidad cuando ésta necesita una comprensión altamente
especializada.
Los modelos abstractos que nuestro
pensamiento construye sobre realidad se basan en el lenguaje o, como expresa
gráficamente Miller y Starr (1964), «en su orgullosa variante: las
matemáticas. Esto juega en favor de la especialización del lenguaje y de la
existencia de vocabularios científicos. Esto explica también el desarrollo de
la lógica y de las matemáticas.
En el otro polo opuesto están también los
modelos concretos, los que se asemejan a lo que representan, los que originaron
la palabra «modelo»: maquetas, retratos, construcciones, piloto, etc. entre
ambos extremos, lo abstracto y lo concreto, hay toda una gama de modelos según
el grado de abstracción.
2. El primer elemento, el punto de partida,
de una investigación estadística es la consideración de una situación real
en ambiente de incertidumbre. Debemos tener en cuenta los resultados
posibles del fenómeno que se observa o del experimento que se realiza. El hecho
fundamental es que hay más de un resultado posible (de lo contrario no habría
incertidumbre) y que el resultado en un momento dado no es conocido de
antemano, está indeterminado. Nuestro interés está en determinar cuál es
el resultado o que acción tomar como consecuencia del mismo. Un médico somete a
un enfermo a un cierto tratamiento, ¿curará dicho enfermo? A la vista del
tiempo que hace, ¿llevaré paraguas al salir de casa?
Teorizar acerca de la conducta a seguir en
tales situaciones exige construir un modelo formal que resulte de
abstraer sus connotaciones más relevantes. Esto exige la introducción del concepto
de probabilidad que de algún modo mide la incertidumbre que las rodea.
Así, en el caso del enfermo, un modelo de una
situación puede ser el siguiente: hay dos resultados posibles curar o no curar,
a los que podemos asignar las probabilidades respectivas p y 1-p.
Podemos pensar que este paciente representa a toda una población de pacientes
que sufren la misma enfermedad, en cuyo caso, el modelo servirá de normas para
dictaminar de cara al futuro. La determinación de p en estas
circunstancias puede hacerse en base a la frecuencia de curados en el
pasado de dicha enfermedad. Procediendo así, la probabilidad p
constituye a su vez un modelo abstraído de las frecuencias.
Pero puede suceder que, por su fisiología o
su psicología especial, este enfermo sea considerado por el médico como caso
patológico especial y, a pesar de que exista un cierto porcentaje de curados de
esa misma enfermedad, el médico asigne a este caso una probabilidad de curación
distinta de dicho porcentaje. Al proceder así, el médico ha asignado una
probabilidad de curar subjetiva (personal), ha medido sus propias
creencias acerca de la curación confiriéndoles un valor numérico. Tenemos
así dos modos de asignar probabilidades, a los que se añadirán otros como las
probabilidades «clásicas» o de Laplace y lógica. Estas formulaciones exigen
ideas asociada de independencia, aleatoriedad, etcétera.
El modelo de la situación real consta
esencialmente de un enunciado acerca del conjunto de resultados posibles
y de una asunción acerca de sus respectivas probabilidades. Su finalidad
es permitir el uso de argumentos lógicos o matemáticos que permitan deducir
comportamientos de cara al futuro. Actúa como una idealización de la
situación real. La meta de todo buen investigador es construir modelos
sencillos que se adapten lo más posible a la realidad, ya que el mundo real
de la situación vendrá constituida por el modelo.
Pongamos algunos
ejemplos de modelos probabilísticos:
a). Se estudia el número de muertes por
accidente de tráfico en las poblaciones, en intervalos de un mes. Los accidentes
que ocurren en un determinado mes determinado son independientes de los que
ocurren en otro mes cualquiera y obedecen al azar. La probabilidad de que una
persona muera en accidente es pequeña. Éstas hipótesis se amolda perfectamente
a un modelo de Poisson, el cual queda totalmente determinado por un
parámetro simple, su media, que es proporcional a la tasa mensual (λ) de
accidentes.
b). Poseemos las puntuaciones de los alumnos
de una asignatura y deseamos, por ejemplo, conocer el percentil correspondiente
a un alumno que ha sacado una nota determinada. En vez de trabajar con todas
las puntuaciones (que pueden ser muchas), podemos suponer que estas siguen una
distribución normal. El modelo normal está completamente determinado por
la media y desviación típica. Obtenidas estas características con respecto a
todas las puntuaciones, la tabla del modelo normal resuelve el problema
planteado. Este modelo puede servir para resolver cuestiones distintas de la
propuesta.
c). La situación real puede ser indagar el
número de varones de una población valenciana de 20.000 habitantes. Se sabe por
los boletines de nacimiento que la probabilidad de nacer varón es 0,517 en la
provincia de Valencia. Hay dos estados posibles, ser varón o ser hembra, ambas
posibilidades son aleatorias, incompatibles e independientes. Luego la
situación definida obedece a un modelo binomial de parámetros n= 20.000
y p= 0,517. El valor esperado sabemos que es np, en este caso, 20.000 ×
0,517 = 10.340 varones.
3. El modelo incorpora a la situación real
una estructura con escasos elementos desconocidos, los parámetros: la
media en el ejemplo a), la media y la varianza en el ejemplo b) y el número de
individuos y la probabilidad de ocurrencia para cada uno, en el caso c). El
modelo probabilístico es pieza fundamental en los principales argumentos
estadísticos, la deducción progresiva y la reducción regresiva o
inferencia estadística propiamente dicha. Ambos procesos están esquematizados
en la figura.
i). El problema de la situación real es parte
del mundo de los hechos. Por abstracción, a partir del problema real se
construye el modelo, y de éste, por deducción, se generan propiedades
probabilísticas de los datos que suministra la situación real, en el supuesto,
claro está, de que el modelo se ajuste a la situación real. En este proceso la
probabilidad actúa como «canal de información», esto es, como «lenguaje» que
liga el modelo con otros potenciales. En los tres ejemplos anteriores la
información generada por el modelo ha servido para resolver cuestiones
planteadas en la situación real.
ii). La inferencia estadística
invierte este proceso. Se inicia con los datos muestrales obtenidos del mundo
de los hechos y de la misma naturaleza que aquellos que constituyen la
situación real (obtenidos mediante un diseño adecuado de experimentos o quizá
fortuitamente) y luego utiliza estos datos y toda otra información para validar
un modelo especificado, para ser «conjeturas racionales» o «estimar parámetros»
o aun para originar un modelo. Todo esto es objeto de la inferencia
estadística. Este proceso inverso, inductivo, es posible gracias al
«lenguaje» de la teoría de la probabilidad, dispuesto de antemano para formar
el eslabón deductivo. Su finalidad es facilitar la obtención de inferencias a
través del modelo de información suministrada por la muestra (y, si es el caso,
por otras fuentes informativas relevantes que contribuyan a una inferencia más
precisa) o construir procesos que ayuden a tomar adecuadas decisiones en la
situación práctica.
3.2. LA INFORMACIÓN
ESTADÍSTICA.
1. La información es el de elemento más
característico del modelo estadístico: del hecho aislado no puede extraerse
ninguna conclusión en situaciones de incertidumbre, esto es, en las que
interviene el azar; al examinar un adulto o colectivo de casos concretos se
aprecia una cierta regularidad o estabilidad en el comportamiento de
dichos fenómenos. Por eso se dice que no hay estadísticas sin observación o
experimentación.
En los tres ejemplos a), b), y c), citados
anteriormente, la información tomaba la forma específica de «realizaciones» de
una situación práctica: muertes habidas por accidente, puntuaciones obtenidas
por alumnos, número de varones nacidos en la población. Estas realizaciones se
suponen obtenidas como repetición de la situación bajo idénticas
circunstancias. A este tipo de información se le suele llamar «datos
muestrales».
Para algunos autores como Von Mises (1964),
Venn (1962), Reichenbach (1949) y Bartlett (1962) sólo con información de este
tipo obtenida en situación repetitiva, a lo menos potencialmente, se
puede definir adecuadamente el concepto de probabilidad. Es la llamada
interpretación frecuentista o frecuencialista de la probabilidad.
«Limitamos nuestro propósito, hablando
"grosso modo" -dice Von Mises (op. cit. p.1)-, a una teoría
matemática de sucesos repetitivos.» Y más tarde (pp.13 y 14) añade: «si se
habla de la probabilidad de que los poemas conocidos como la Ilíada y la
Odisea tenga el mismo autor, no es posible referirse una situación prolongada
de casos y, difícilmente tendrá sentido asignar un valor numérico a tal
conjetura.
De análogo parecer es Bartlett cuando escribe
(1962, p. 11) que «la estadística se ocupa de cosas que podemos contar».
Los datos muestrales evaluados de acuerdo con
el concepto frecuencialista de la probabilidad constituyen la base de la
llamada estadística clásica, esto es, la estadística según los cánones
de Fisher, Neyman y Pearson.
2. En el ejemplo c la información utilizada,
proporción de varones, en la naturaleza frecuencial por su forma repetitiva.
Pero cuando hemos afirmado que en Valencia esta proporción es de 51,7 por cada
100 nacidos, no nos hemos referido a ningún experimento u observación
particular, sino que es algo que los estadísticos profesionales dan como valor
medio de cómputos llevados a cabo tras observaciones seculares de los boletines
de nacimientos remitidos por los registros de población. Se trata, pues, de una
información obtenida por experiencia anterior.
La empresa que se dedica a construir aviones
rescibe un día una oferta de un tipo de material por parte de uno de sus
abastecedores y que, según él, es el más adecuado por sus cualidades de
ligereza, resistencia, etc., para el nuevo modelo que se proyecta. Los técnicos
del modelo experimentan el nuevo material (datos muestrales),
pero tienen también en cuenta los o suministrados por el proveedor
(experiencia pasada), persona que conoce los resultados del material que
ofrece en otros proyectos de otras firmas. Por otra parte, el equipo económico,
de acuerdo con el técnico, hará las valoraciones de todo tipo que se desprenden
de la adopción del nuevo material: perjuicios causados si no se cumplen las
especificaciones exigidas por el mercado, diferencias en los costes de
comercialización, etc. (información sobre las consecuencias potenciales).
Vemos a través de estos ejemplos que la
información necesaria para resolver un problema estadístico (que concluirá en
muchos casos en un problema de decisión) puede abarcar información de tres
categorías distintas: información debida a la experiencia anterior
(información inicial del sujeto puede basarse en hechos objetivos observados
con anterioridad, o ser meramente «subjetiva»), datos muestrales (debidos
a observación experimentación actual) y consecuencias potenciales
(información nacida de las posibles consecuencias que traerá consigo una u otra
acción).
3. La información que con lleva las posibles
consecuencias esta inmensa del problema de la valoración de las
consecuencias, la cual es vital, ya que determinante a la hora de tomar
acciones alternativas. Esta valoración debe ser cuantificada de algún
modo a fin de poder comparar los resultados de distintos cursos de acción. La
valoración de las consecuencias y su formal cuantificación es objeto de la
teoría de la utilidad. Esta teoría forma parte de las diversas
interpretaciones de la estadística y constituye uno de los elementos básicos de
la teoría de la decisión.
La información basada en las consecuencias puede
ser distinta (y hasta estar en contracción) de los datos muestrales. Lo mismo
que los datos muestrales, la valoración de las consecuencias pueden ser
objetiva: los costes de manufacturas debidos a procesos distintos pueden
ser valorados en moneda de cuenta. Pero puede suceder que las consecuencias que
se desprenden de la toma de acciones distintas no sean susceptibles de una
valoración objetiva. ¿Cómo valorar objetivamente los resultados de elegir entre
el cumplimiento de la ley y el cohecho? ¿Cómo ser objetivo a la hora de elegir
como mujer a Juana o María? En la esfera de las actividades humanas es a menudo
difícil ser objetivo. La valoración de consecuencias implica entonces evaluar
juicios subjetivos (personales), acudir a los instrumentos de la teoría
de la utilidad.
Aún en situaciones aparentemente objetivas es
difícil eludir todo factor personal. En la elección de uno u otro material, a
parte de componentes objetivos perfectamente comparables en precio, calidad,
etc., todos sabemos lo que pesa, por encima de todas las características
técnicas y el precio, las preferencias y gustos de la mujer a la hora de
elegir el marido un nuevo modelo de automóvil.
Éstas diversas categorías de información
pueden resumirse en dos: una que posee ya el sujeto y que llamaremos
información a priori (no importa cuál sea su naturaleza y origen), y otra
suministrada por la muestra o información muestral. La combinación de
ambas constituyen la esencia de la inferencia estadística bayesiana. El
uso exclusivo de la segunda es típico de la estadística clásica. La
información generada por las consecuencias es, en cambio, relevante en la
teoría de la decisión.
En los párrafos anteriores hemos referido a
inferencia estadística y la teoría de la decisión como conceptos distintos,
pero con elementos comunes. A la inferencia estadística le asignamos la misión
de describir la situación real y a la teoría de la decisión le pedimos
que prescriba la acción a ejercer en la situación dada.
3.3. LA OBSERVACIÓN Y
GENERACIÓN DE LOS DATOS: DISEÑO DE EXPERIMENTOS.
1. Diariamente cada uno de nosotros lleva a
cabo alguna observación con finalidad estadística. La parte más elemental de la
estadística hace su aparición cuando se realiza mentalmente la evaluación de
una investigación cualquiera. Cuando uno se pesa, automáticamente compara el
peso obtenido con el promedio de pesadas anteriores y considera que ese
peso se desvía significativamente del comúnmente observado.
Estos resultados sencillos se obtienen con
facilidad, pero se emprende una investigación en serio, el método estadístico,
es el compañero inseparable de toda investigación científica exige especiales
conocimientos. En general se apela a la estadística siempre que acaecen sucesos
en fenómenos de colectivo. Estos sucesos son de dos tipos: en unos, el
estadístico es mero observador de lo que sucede; tal ocurre con la
observación de los hechos demográficos como nacimientos, matrimonios,
defunciones, etcétera. Es lo que hacen también los astrónomos, sin que en
ningún caso puede observador modificar los fenómenos que tenía ante sí.
Otras veces los sucesos son el resultado de
una experiencia provocada por el investigador, bajo ciertas condiciones.
La experiencia puede provenir de las ciencias llamadas experimentales o de las
socioeconómicas; puede obtenerse en un laboratorio o en la vida real, puede ser
libre o controlada.
Lo corriente es que una experiencia no sea
exactamente repetible en cuanto a resultados se refiere, cuando las
condiciones que la definen no son totalmente controlables, en estos casos los
resultados no son predecibles. Se habla entonces de experiencia de azar por
experimento aleatorio o estocástico, por oposición a aquel en que hay relación
de causa a efecto llamado determinista. Son experiencias aleatorias la
extracción de una carta de un mazo, el lanzamiento de un dado para obtener una
de sus caras, la elección de un punto sobre una diana mediante un disparo sobre
ella.
Desde el punto de vista estadístico todos los
hechos observados, tanto si provienen de un fenómeno experimental como si
resultan de la simple observación del mundo que nos rodea, tienen el mismo
carácter de estabilidad, salvo el caso de experiencias controladas.
Pero es preciso tener en cuenta que a veces
puede desviarse el fenómeno de esa regularidad, debido a la variabilidad
exhibida por todo tipo de agrupación o clase. Así, al observar la población
habrá que considerar la variación por edades, por sexo, por regiones de origen.
Habrá que tener en cuenta la variabilidad de un mismo fenómeno en el tiempo: la
tasa de mortalidad cambia por el progreso de la medicina, el número de
accidentes con el desarrollo económico.
2. Ciertas ciencias empíricas, como la
psicología, admiten, según algunos investigadores, como método de investigación
la introspección. Esto es una excepción; en la mayoría de las ciencias
de la naturaleza la observación es exclusivamente sensible y externa. En
el caso más corriente los datos se obtienen por experimentación.
Existe una evidente analogía entre
experimentación y comunicación a través de un canal ruidoso. Las
entradas son los estados de la naturaleza, y las respuestas, los resultados del
experimento. La información transmitida mide el promedio de incertidumbre que
queda eliminada por el experimento acerca de los estados de la naturaleza. Será
ejecutado aquel experimento con mayor información esperada. El proceso es el de
la llamada «caja negra», según el esquema de la figura.
Algunos autores, como D.A.S. Fraser (1979),
llaman sistema aleatorio al concepto aquí reseñado y reservan la palabra
experimento para las investigaciones en las que las entradas están
controladas por existir alguna relación de causa a efecto. El control de las
entradas puede ser de dos clases: entradas diseñadas o planificadas, de
suerte que la modificación de una, dejando fijas las demás, permita detectar su
influencia en las respuestas: tenemos entonces lo que se conoce con el nombre
de diseño de experimentos; pero puede suceder que las entradas no sean
directamente controlables y se haga su elección aleatoriamente, en cuyo
caso se origina un efecto aleatorio sobre las respuestas. La aleatorización
externa de las entradas, ante diversas realizaciones del experimento, provee de
una cierta compensación de la falta de control de dichas entradas. Esta
aleatorización externa es una componente de la investigación que determina la
aleatoriedad del experimento o sistema. Queda así aclarada diferencia entre
experimento (o sistema aleatorio) y diseño de experimentos.
3. La estadística trabaja con conjuntos
numéricos. El conjunto de entes sobre los que se quiere investigar, con ciertas
características comunes, se llama población o universo. A una parte
de ese colectivo se le llama muestra. Cada uno de los elementos de la
población es un individuo. Esta nomenclatura recuerda los orígenes
demográficos de la Estadística. De una misma población pueden considerarse
características distintas: sexo, edad, estatura, peso. Y una misma
característica puede presentar distintas manifestaciones: sexo masculino
y femenino, escala de edades, etcétera. Las modalidades pueden ser medibles
(estatura) o contables (edad), en cuyo caso el carácter cuantitativo (llamado
también variable) puede no serlo y entonces el carácter es cualitativo
(llamado también atributo).
Estas definiciones pueden servir para una
adecuada ordenación de la información de cara a su aplicación en los
modelos. No olvidemos que la puesta en práctica de las diversas técnicas
estadísticas no tendrá validez sino a condición de que la recogida de datos
sea conveniente y su ordenación correcta.
La recogida de datos es la primera fase del
proceso estadístico. Estos datos proceden de lo que en el esquema descrito
llamamos mundo de los hechos a priori. De estos hechos tomamos los que
convienen al problema real que nos ocupa y que servirán para construir el
modelo de ese problema. Esa información incorporada por el científico a su
ciencia, a la teoría científica que pretende construir, son las llamadas
observaciones científicas (llamadas también protocolarias). Las llamamos
así para distinguirlas de la información estadística en general: datos
cuantitativos y datos cualitativos, tales como ha sido definidos.
Óscar Morgenstern utiliza el esquema de la
figura para distinguir estos diversos tipos de información
estadística.
El círculo A representa el campo cubierto por
la teoría; los círculos B y C indican, respectivamente, las partes que cubren
los datos cuantitativos y cualitativos. Estos dos círculos se refieren a datos
empíricos, mientras que las observaciones, que ponen de manifiesto cómo la
teoría está enclavada en la realidad, quedan circunscritas a la región
comprendida entre los tres círculos.
Hemos de matizar dos cosas. Primero, que no
todos los datos, como se desprende del esquema, deben ser considerados como
observaciones, en el sentido que se da aquí a esa palabra, sino solamente
aquellos que, recogidos, clasificados y reducidos a categorías, aspiran a ser
utilizados en los modelos. Segundo, que empleamos la palabra teoría por modelo,
ya que todo modelo es la interpretación real de una teoría y esto es lo que
aquí se está considerando.
4. Los datos numéricos de la Estadística
resultan de asignar números a objetos o relaciones empíricas de acuerdo con
ciertas reglas fijas.
Estas reglas da lugar a las escalas de
medida. Las escalas de medida son posibles sólo en tanto existe un cierto
isomorfismo entre las operaciones que podemos hacer con los números y las que
podemos hacer con los objetos empíricos. Los modos según los cuales las
propiedades y las operaciones efectuadas con los números son trasladables a los
objetos empíricos dan lugar a otros tantos tipos de medidas y escalas.
Las propiedades de los números trasladables a
los objetos son, principalmente, la igualdad y la desigualdad conexión u orden,
igualdad de diferencias e igualdad de razones. Estos tipos de operaciones dan
lugar a cuatro clases de escalas: escalas enumerativas o nominales,
escalas ordinarias, escalas de intervalos y escalas de razón.
La descripción de cada una puede verse en Gutiérrez Cabria (1980).
Con cualquiera de estas cuatro escalas
aplicadas a los conjuntos de objetos, se obtienen conjuntos numéricos, pero la
información suministrada se va haciendo más y más precisa a medida que
utilizamos escalas más perfectas. Es evidente que, en la ordenación
establecida, la más imperfecta de la escala nominal y la más perfecta la basada
en la igualdad de razón.
4. LAS FRONTERAS DE LA
INFERENCIA ESTADÍSTICA.
Ha llegado ya el momento de analizar cuál es
la aportación de la estadística en general y de la inferencia estadística en
particular, a la metodología general científica.
La estadística general, el proceso de
recogida y análisis de datos, ha sido contemplada ya en la primera fase del
proceso de formación de las ciencias naturales. Es una fase meramente
descriptiva que recorre datos, las observaciones protocolarias, los analiza y
termina con la formulación de los enunciados universales sintéticos.
La inferencia estadística interviene en las
fases segunda y tercera, que culminan con la obtención de modelos de las
teorías científicas. Hemos recalcado ya que la ciencia progresa no por meras
especulaciones teóricas, sino por una feliz simbiosis entre la teoría y la
práctica, suficientemente iteradas. En esta iteración de la teoría y la
práctica, nuevos datos sugieren nuevos modelos teóricos, y un nuevo modelo
propuesto inspira nuevos exámenes y análisis de los datos obtenidos o que deben
adquirirse. La dualidad de los procesos de inducción y deducción conducen así a
mejorar los modelos paulatinamente, pero siempre en presencia del estadístico.
Esta presencia se manifiesta en un doble
proceso que podríamos denominar de depuración y estimación del modelo
científico. Este doble proceso constituye la fase inferencial que atañe
al estadístico, a la cual precede otra, pre inferencial, que compete al
científico. Karl Popper (8) describía asi ambas fases del método científico:
«el científico teórico propone ciertas cuestiones determinadas al
experimentador, y este último, con sus experimentos, trata de dar una respuesta
decisiva a ellas, pero no a otras cuestiones: hacen cuanto pueden por eliminar
estas».
De los hechos «a priori» que reflejan los
verdaderos estados de la naturaleza, por vía reductiva o directamente, el
científico formula sus hipótesis o leyes, su modelo, Mi. El estadístico
consulta nuevamente a la naturaleza, la misma que inspiró al científico su
modelo, extrayendo nuevos datos con los que realiza el diseño Di, y los
que confronta al modelo Mi. Los datos utilizados para esta confrontación
del modelo han de ser distintos de los que sirvieron para su construcción (lo
que implica una dicotomización de los hechos «a priori»), pues, de lo
contrario, se incurrirá en un sin vicioso. Los nuevos datos estarán de acuerdo
o en desacuerdo con Mi. Es éste un proceso diagnóstico. En caso de
existir desacuerdo, cabe preguntarse por qué. Los instrumentos estadísticos
utilizados para este análisis son los diversos test de bondad de ajuste,
análisis de la varianza residual, etcétera. Puede suceder que sería aconsejable
cambiar Mi por un nuevo modelo Mi +1 que será sometido a prueba
de los mismos datos obtenidos o a otros nuevos, si así lo exigen la independencia
de la prueba, para lo que se enseñaría un nuevo experimento Di.1.
Caso de haber llegado a la obtención de un
modelo aceptable, esto es, aproximado suficientemente la realidad que ha
servido de verificación o contraste, puede procederse a estimar sus parámetros,
en base a esa misma realidad con la que se ha probado está conforme. En
realidad, esta estimación es necesaria en cada prueba de depuración del modelo
provisional, pues es el único modo de ver si se aproxima o no a los hechos
reales.
Así como las técnicas estadísticas utilizadas
en la depuración del modelo pertenecen a la escuela clásica, el problema de la
estimación pueda hacerse por métodos clásicos o bayesianos, fiduciales o
estructurales, todo lo cual pone de manifiesto la complementariedad de las
escuelas y, en su caso, la subsidiaridad, como habíamos anunciado al principio.
BIBLIOGRAFÍA.
ANSCOMBE, F. J.: «Rectifying of a continuous our put». J. Amer.
Statis. Ass , 53, p. 702, 1958.
BARTLETT, M. S.: «Further aspects of the theory of Multiple Regressión».
Proc. Cam. Phil. Soc., 34, p. 33, 1938.
_____: Essays an Probability and Statistics. London• Methuen, 1962.
BIRNBAUM, A.: «On the foundations of statistical inference». J. Amer.
Statis. Ass., 57, pp. 269-326,1962.
BLACKWELL, D. , y GIRSHICK, M. A.: Theory af games and Statistical
Decisions. 1. Wiley, New York, 1954.
DE FINETTE. B.: «L.a prevision, ses lois logiques, ses sources
subjectives». Ann. Inst. Poincaré, 7,pp. 1-68, 1937.
DE GROOT, M.: Optimal Statistical Decisions. McGraw-Hili. New
Yark, 1970.
EDWARDS, A. W. F.: Likelihood. Cambridge: C. U. P., 1972.
FERGUSON, T. S.: Mathematical Statistics: A Decisión Theoretic
Approach. Acad. Press, New York, 1967.
FISHER, R. A.: «On a absotute criterion for fitting frequency curves». Messeng.
Math, 41, pp. 155-160, 1912.
_____:«Inverse probability». Proc. Camb. Phil. .Soc., 26, pp.
52$-35, 1930.
_____:«The concepts of inverse probability and fiducial probability
referring to unknown parameters». Proc. Roy. Soc., A., 139, pp. 343-48,
1933.
_____:«The fiducial argument statistical inference». Ann. Eugen, 6,
pp. 391-98, 1935.
_____:«The use of multiple measurements in taxonomic problems», Ann. Eugen,
7, p. 179, 1936.
_____:«Theory of Statistical estimatiom». Proc. Camb. Phil. Soc.,
22, p. 700, 1952.
FRASSER, D. A. S.: «The fiducial method and invariance». Blometrica, 48,
pp, 261-280, 1961.
_____: The Structure of lnference. J. Wiley. New York, 1968.
_____: lnference and linear models. McGraw-Hill, 1979.
GALTON, F.: «Regresion tawards mediocrity in hereditary stature». J.
Antrho. Inst., 15, p. 246, 1877.
_____;«Family likeness in Stature». Proc. Royal Soc., 40, p. 42,
1886.
_____;«Co-relations and then measurements chiefly from anthropometric
data». Proc.
Roval Soc.,45,
p. 135, 1988.
GINI, C.: «I pericoli
della statistica». Actas de la I reunión científica de la Soc.
italiana de Estad. Pisa, 1939. Reimpreso en Questione fondamentali di
Proóabilrtá e Statistica, vol. I, Bibliot. di Metrom e Bibliote. di
Estad, 1968.
GODAMBE, V. P. , y THOMPSON, M. E.: «Bayes, fiducial and frequency
aspects of statistical inference in regression analysis in survey sampling».
J. Roy. Statis. Soc. B., 33, pp. 361-390, 1971.
GOOD, I. G.: Probability and the Weighing of Evidence. Griffin, London,
1950.
GUTIERREZ CABRIA, S.:
Bioestadística. Ed. Tebar. Madrid, 1980.
_____:«Origen y
desarrollo de la Estadistica en los siglo XVII y XVIII». Estadística
Española, núm. 97, octubre-diciembre 1982 1982.
HODGES, J. L., y
LEHAMANN, E. L.: «The use of previous experience in reaching Statistical
decisions». Ann. Math. Statis, 23, p. 396, 1952.
HOTTELING, H.: «The most predictable criterion». J. Educ. Psichol, 26,
p. 239, 1935.
KEYNES, J. M.: «Treatise on probability». T'he Roy. Econ. Soc. London,
1973.
LINDLEY, D. V.: «Fiducial distributions and Bayes Theorem», J. Roy.
Statis. Soc. B., 20, PP• 102-107, 1958.
MAHALANOBIS, P. C.: «On the generalized distance in Statistics». Proc.
Nat. Inst. Sci. India, PP 12-49, 1936.
MILLE R y STAR.: Fonction de Direction et Recherche Operationelle. Editorial
Dunod. Paris, 1964.
NEYMANN, J.: «On the correlation of the mean and the Variance in samples
drawn from an infinite population». Biometrika, 18, p. 401, 1926.
PEARSON, K.: «On the Criterion that a given System of Deviations from
the Probable in the case of a Correlated System of variables in such that it
can be reasonably supposed to have arisen from Randon Sampling». Philosophicul
Magazine. L, p. 157, 1900.
_____: «On lines
and planes of closet fit to systems of points in space». Phil. Nag. 2(6), p. 559, 1902.
POISSON, S. D.: Recherches
sur la prohabilité des jugements en matiére civile, precedées des régles
générales du calcul des prohahilités. Paris, 1837.
POPPER, K. R.: La
lógica de la investigación científica. Ed. Tecnos, 1967.
RAIFFA, H. , y SCHLAIFER, R. : Applied Statistical Decision Theory. Harward
Univ. Press. Boston,1961.
RAMSEY, F. P.: «Truth and Probability». Reeditado en Studies in
Subjective Probabilty. ( Kyburg and Smokler.) J, Wiley, New York, 1926.
REICHENBACH, H.: The theory of probability. Chicago, Los Angeles,
1949.
ROBB[NS, H.: «The empirical Bayes approach to statistical decision
problems». Ann. Math. Statis.,35, pp. 1-21, 1964.
SAVAGE, L. J.: The foundations of Statistics. J. Wiley, New York,
1954.
SHAIFER, R.: Probability and Statistics for Busines Decisions. MacGraw-Hill,
New York, 1959.
STUDENT: «The probable error of a mean». Biometrika, 6, 1, 1908
VON NEUMAN, J., y MORGENSTERN, O.: Theory of Games and Economic
Behavior. Princeton Univ. Press, 1944.
VON MISES, R..: «Mathematical theory of probabitity and statistics». Academic
Press, New York, London, 1964.
WALD, A.: Sequential Analysis. New York, 1947.
WILKS, S. S.: «Certains generalizations in the analysis of variance». Biometrika,
24, p. 471, 1932.
YULE, G. U.: An Introduction to the Theory of Staristics. Charles Griffin and
Co. London, 1912.
Comentarios