Ir al contenido principal

Evolución y Contenidos de la Estadística del Siglo XX.



ESTADÍSTICA ESPAÑOLA.
Número 101, 1983, páginas 7 a 28.


Por: SEGUNDO GUTIÉRREZ CABRÍA.
Departamento de Estadística e Investigación Operativa.
Universidad de Valencia.
Instituto Nacional de Estadística.

RESUMEN.

Se contempla la Estadística durante el presente siglo desde el punto de vista de su evolución histórica, contenidos y características metodológicas de las corrientes más en boga.

Palabras clave: descripción e inducción, probabilidades directas en inversas, información muestral y auxiliar, sistema y diseño de experimentos.

1. INTRODUCCIÓN.

Metodológicamente, la Estadística puede ser descriptiva e inductiva. La descriptiva utiliza instrumentos gráficos y analíticos que le permiten estudiar caracteres específicos de grandes grupos de fenómenos. La inductiva extiende la descripción de ciertas características observadas en algunos sucesos a otros que no han sido observados; para llevar a cabo esta extensión se puede elegir aquel tipo de descripción que se estima más propicio. Históricamente se han utilizado tres tipos de argumentos para inducir o inferir propiedades en datos no observados.
El primero utiliza probabilidades a «a priori» individuales para predecir frecuencias estadísticas sobre la totalidad de la serie. Su fundamento lo constituyen los teoremas de Bernoulli, Poisson y Tchebischeff . El teorema de Bernoulli fue el fruto de 20 años de trabajo, según su propia confesión, y sólo es válido bajo condiciones muy estrictas. Una de estas condiciones es la igualdad de probabilidades «a priori». Poisson prescinde de esta condición y Tchebischeff obtiene una ley de la que las dos anteriores son casos particulares. Un análisis sobre la consistencia de estos métodos puede verse en Keynes (1973).
El segundo tipo de argumento se sirve de la frecuencia con que ha ocurrido un suceso en una serie de ocasiones para determinar la probabilidad de que ocurra «a posteriori». Dos procedimientos teóricamente inconsistentes entre sí fueron comúnmente utilizados: la inversión del teorema de Bernoulli y la regla de sucesión de Laplace. Ambos son considerados en la actualidad como inválidos.
El tercer enfoque de la inferencia estadística se apoya en esta simple idea: dada la frecuencia con que ocurrió un suceso en una serie de ocasiones, ¿con qué frecuencia podemos esperar que ocurra en otras ocasiones? Éste es el método vislumbrado ya en la estadística de la conjetura de Graunt y sus discípulos, basada en la estabilidad de las series estadísticas cuando son analizadas según los cánones sugeridos por Lexis y Von Bortkiewicz. Esta inducción de muestra a muestra se opone radicalmente a la deducción implicada en la regla de Laplace y es el germen de la inferencia estadística moderna.
En el presente trabajo vamos a centrar nuestras consideraciones en torno a la Estadística del presente siglo. En ell párrafo 2 estudiamos los hitos más importantes de su desarrollo. En el párrafo 3 se analizan sus contenidos básicos: el uso de modelos, el tratamiento de la información y su génesis. Terminamos con una consideración entre las fronteras de la Estadística.

2. EVOLUCIÓN DE LA ESTADÍSTICA EN LA ÚLTIMA CENTURIA.

1. Una consecuencia natural de los nuevos cimientos echados por Lexis a la Estadística fue en la teoría de la significación de Karl Pearson. En la búsqueda del significado heurístico de los modelos teóricos, a través de los cuales pretendía obtener una representación lógico-formal de la catarsis darwiniana. Pearson había advertido la necesidad de un criterio para probar la adecuación de los modelos a los datos. En el año 1900 daba la luz una memoria (ver Pearson, 1900) en la que construía un test (el test del Ji cuadrado) apto para verificar la accidentalidad de las discrepancias entre la distribución teórica y la empírica. Este test era el preludio de toda una serie de algoritmos de naturaleza inferencial.

En la teoría de la dispersión el problema que se planteaba era investigar si en los errores fenomenológicos de una sucesión de observaciones estadísticas concurrían factores sistemáticos. Es lo que pretendía resolver la «teoría de la significación»: «un criterio muy simple -explicaba Pearson (1900)- para determinar la bondad de ajuste de una distribución frecuencial cualquiera a una curva teórica. He calculado -añadía- la probabilidad de que la divergencia con respecto una curva sea atribuida al azar del muestreo». La sustitución de una probabilidad directa por una inversa es aquí un hecho. Con todo de este test dará Yule (1912) una versión en términos de probabilidad directa: «nos da -dice- la probabilidad de que por efecto de muestreo aleatorio se obtenga un valor del test igual o superior al observado».

Con esas palabras parece advertir Yule la restrictividad del canon hipotético-deductivo en cuyo ámbito la Estadística empezaba a darse reglas y criterios. «El estadístico -escribía-... puede mostrar que los hechos están de acuerdo con esta o aquella hipótesis. Pero otra cosa es demostrar que todas las demás hipótesis posibles son excluidas y que los hechos no admiten ninguna otra interpretación.»

2. La escuela biométrica estaba de acuerdo con el criterio de Pearson para la confrontación de los esquemas teóricos y los hechos reales, cuando un químico de los laboratorios «Messrs Guinnes» de Dublín, dedicados a fabricar cerveza, lanzó una nueva idea metodológica. Era William Gosset quien afirmaba que los métodos de sus amigos biómetras no se ajustaban a la naturaleza empírica de los problemas que él tenía que resolver: los postulados y esquemas teóricos válidos para muestras grandes no lo eran para las muestras pequeñas de que él disponía. De hecho, los biómetras habían trabajado, sobre todo Pearson y Weldon, a base de realizar muestreos en poblaciones naturales, pero no se habian llevado a cabo programas experimentales.

Los datos que obtenía Gosset eran medidas precisas, pero poco numerosas. Se decidió, pues, construir un test adecuado, y el resultado obtenido, publicado en 1908, constituyó un verdadero avance en la inferencia estadística. Este trabajo fue firmado con el seudónimo de Student (1908). Gosset no desdeñó nunca la idea de probabilidad «a priori», necesaria, según él, para determinar las expectativas de que una constante se halle dentro de un intervalo prefijado. Mientras Pearson concentraba toda su atención en la información suministrada por los datos, Gosset acudía insistentemente a la intuición, como corresponde a un investigador experimental con sentido crítico y antidogmático.

3. Con los trabajos de Lexis, Pearson y Gosset, la Estadística parecía orientarse en un sentido tal vez más preciso: la búsqueda de métodos inferenciales tendentes a objetivar, todo lo más posible, los procedimientos de investigación. Esta meta ideal fue elevada por Ronald A. Fisher ha principio heurístico.

Crítico decidido de todo asomo de probabilidad inversa, Fisher se provee de instrumentos susceptibles de extraer la información óptima de los resultados experimentales, mediante una técnica sintéticamente tipificada y semánticamente neutra. «La teoría de la probabilidad inversa -escribe en "Theory of Statistical Estimation" (1925)- se basa en un error y debe ser rechazada.»

Pearson y Student habían sido más prudentes: su rechazo de la probabilidad inversa era puramente operativo. Fisher, en cambio, hace del tema una ideología, pero no asume nunca una posición clara con respecto al problema más general de la inducción. «Sobre el argumento fundamental de la inducción -escribe Bartlett (1962)- siempre he hallado sus escritos extremadamente oscuros.» Quetelet había aconsejado «replicar», repetir las observaciones, a fin de compensar los elementos perturbadores. Student sugería eliminar «a priori» las circunstancias diferenciadoras conocidas. Todo esto desagradaba a Fisher, partidario de eliminar lo subjetivo y de aleatorizar las muestras experimentales hasta lograr la plena aleatorización.

Fisher reemprende la teoría de la significación como técnica interpretativa al servicio de la investigación experimental, dando prioridad a los programas de experimentos y proponiendo fijar el «umbral de significación» antes de empezar el trabajo indagatorio.

La idea de la máxima verosimilitud -Fisher (1912)- es introducida como un criterio natural para estimar los parámetros de la población para valorar hipótesis a la luz de la información muestral. Fisher impone la adecuada «verosimilitud» en el paso inductivo de la muestra a la población; la ve como predicado del hipótesis a la luz de los datos.

4. Como en el caso de Pearson y Student, en la metodología de Fisher las hipótesis son probadas una por una, sin la menor alusión a la hipótesis alternativa. La idea de un proceso inferencial referido a una pluralidad disyuntiva de hipótesis es original de Jerzy Neyman (1926), quien sigue a grandes rasgos la metodología fisheriana, acentuando más la distinción entre estimación de parámetros y contraste de hipótesis, entendido éste contraste como confrontación entre hipótesis rivales.

Neyman deja su Varsovia natal frecuentemente, a partir de 1926, para recibir enseñanzas y orientaciones del gran Karl Pearson. Una consecuencia de estas estancias en Londres fue su amistad con Egon S. Pearson (Pearson Jr.) y una colaboración con él en materia científica. De esta labor de investigación en equipo nació una nueva teoría de los test de hipótesis. Neyman y Pearson dan una regla de comportamiento más dúctil y posibilistica que la de Fisher. Es la que figura en los manuales de estadística clásica.

5. En la década de 1930-40 hay tres hechos notorios en el desarrollo de la estadística que no se pueden silenciar.

El primero fue el auge logrado por el Análisis Multivariante de la mano de Mahalanobis (1936), Fisher (1936),Hotteling (1935, 1936), Bartlett (1938) y Wilks (1932), entre otros, y cuyos orígenes están en Galton (1886, 1888) y Karl Pearson (1901).

El segundo se refiere al elevado nivel matemático alcanzado por la Estadística merced a los progresos logrados por el Cálculo de Probabilidades. Es el momento en que empiezan a conjugarse los trabajos de los probabilistas rusos y franceses (Kolmogorov, Kitchine, Schebyschev, Borel, Levy, Fréchet) con la escuela de estadísticos ingleses y americanos; son los comienzos de la Estadística Matemática.

El tercer hecho de esta época, importante en la historia de la estadística, en la aparición de los primeros trabajos serios sobre probabilidad subjetiva, a cargo, principalmente, de Bruno de Finetti (1937), quien, a su vez, redescubrió los que antes había realizado F.P. Ramsay (1926). Eran las bases sobre las que construir el análisis bayesiano. C. Gini (1939) había indicado a poner los problemas estadístico-inferenciales en términos de probabilidad inversa señalando los peligros de ciertos criterios «objetivistas», cuando son empleados sin la asimilación crítica de las premisas conceptuales que los rigen y limitan. Ese mismo año Harold Jeffreys (1939) desarrolló la teoría de la probabilidad y de la inferencia de muestras aleatorias en términos exquisitamente bayesianos. Con todo, las voces bayesianas europeas no fueron escuchadas del otro lado del Atlántico hasta prácticamente en los años cincuenta. Dentro del grupo de americanos que más han contribuido al avance bayesiano hemos de citar al Good (1950). Anscombe (1958), Hodges y Lehman (1952), Schalaifer (1259) y, sobre todo, Leonard L. Savage (1954) con su obra «The foundation of Statistics».

6. La teoría de juegos y la teoría de la utilidad parte del rico legado dejado por John Von Neumann, uno de los matemáticos más insignes de nuestros tiempos. En 1927, con su prueba del teorema del minimax es para juegos finitos, Von Neumann estableció los fundamentos de la teoría de juegos. Más tarde, en colaboración con Oscar Morgenstern , culmina su labor con la publicación de la obra «Theory of Games and Economics Behavior». Abraham Wald (1947) apreció la conexión entre la teoría de juegos y la de contrastes de hipótesis de Neyman. Wald considera el razonamiento estadístico como un proceso de decisión en ambiente de incertidumbre, como un juego entre el estadístico y la naturaleza.

El problema de la Estadística fue provisto de funciones de pérdida y de riesgo que permiten contemplar una multitud de alternativas posibles sometidas al criterio de mínimax, de la minimización de la máxima pérdida o riesgo. La escuela de estadísticos americanos se adhirió pronto a este nuevo enfoque de la Estadística, principalmente en teoría económica (donde la utilidad sustituyó al riesgo), que permite la síntesis de las teorías de la estimación, del contraste de hipótesis y del análisis secuencial.

La posibilidad de asignar una distribución de probabilidad a los posibles estados de la naturaleza, según los cánones bayesianos, condujeron a la teoría de la decisión bayesiana. Sus partidarios, Blackwel y Girshick (1954), Raiffa y Schlaifer (1961), Ferguson (1967), De Groot (1970), argumentan que todo problema específico de inferencia implica una elección entre acciones alternativas cuyo grado de preferencia puede expresarse por una función de utilidad que depende del estado desconocido de la naturaleza. Dada la distribución «a posteriori», basaba en la distribución inicial asignada a los estados de la naturaleza y en la información suministrada por la muestra, la mejor acción a tomar es la que maximiza la utilidad esperada.

Frente a estos bayesianos «decisionistas», los bayesianos puros no asumen ningún papel de decisión: la distribución «a posteriori» sobre las hipótesis alternativas es el producto final de la inferencia.

Un compromiso entre bayesianos y no bayesianos son los métodos llamados «empírico-Bayes», no bien vistos por unos y por otros. Fueron introducidos por Robbins (1955) y propenden a una mayor utilización de los datos estadísticos, principalmente en la distribución «a priori».

7. A estos distintos enfoques que atraen la atención de los estadísticos actuales añadiremos otros tres de escasa importancia.

a). El primero es la llamada «inferencia fiducial» de Fisher, que tiene un interés meramente histórico y se opone a la teoría de Neyman-Pearson los «test de significación», y a los bayesianos, la teoría fiducial. En sucesivos trabajos (1930, 1933, 1935) desarrolla sus ideas sobre «probabilidad fiducial », que le conducirían luego a los llamados «intervalos fiduciales». A pesar de los esfuerzos por rehabilitar la inferencia fiducial, a cargo de estadísticos tan eminentes como Frasser (1961), Lindley (1958), Godambe y Thompson (1971), Birnabaum (1962) en, etc., no es en la actualidad comúnmente aceptada.

b). La teoría de «verosimilitud» o del «soporte» se contrapone a los puntos de vista, clásico y bayesiano, de la inducción estadística por el distinto uso que hace de la función de verosimilitud.

La estimación de un parámetro (o selección de una hipótesis) en comparación con otro (u otra) se apoya en el soporte que proporciona un conjunto de datos, medido ese soporte por el logaritmo natural de la razón de verosimilitudes calculadas a partir de esos datos el método ha sido ampliamente estudiado por Edwards (1972).

c). Finalmente, nos referimos a la «inferencia estructural». La creación se debe exclusivamente a D.A.S. Frasser y constituye un nuevo intento de lograr una teoría unificada de la inferencia, como puede verse en su libro «The Structure of Inference» (1968). La obra de Frasser ha suscitado gran interés de los investigadores, por cuanto porta pensamiento nuevo, pero no aparece hasta ahora como método de fácil y general aplicación.

8. Addendum. Los distintos enfoques de la inferencia estadística ponen de manifiesto su carácter sectorial más bien que una teoría unificadora en la cúspide de la Estadística general. Las áreas especializadas de la Estadística proceden frecuentemente bajo el impulso de su énfasis particular, sin prestar atención a más amplias implicaciones. Ello lleva consigo su desarmonico desarrollo. La investigación de una teoría integradora de las distintas vertientes del pensamiento estadístico es el reto que tiene planteado la Estadística actual.

3. CONTENIDOS BÁSICOS DE LA ESTADÍSTICA ACTUAL.

En otra parte (1982) hemos escrito que «la Estadística está caracterizada por la existencia de una información acerca de un colectivo o universo, lo que constituye su objetivo material; un modo propio de razonamiento, una lógica propia, lo que constituye su objeto formal, y unas previsiones de cara al futuro, lo que conforma su objeto o causa final. Todo esto, frecuentemente, conlleva o preludia una toma de decisión.

En esta caracterización estan implícitos los elementos esenciales de todo problema estadístico, esto es:

1. Una situación real en ambiente de incertidumbre.
2. Existencia o posible obtención de información.
3. Necesidad de unas reglas que permitan conocer situaciones actualmente desconocidas y, en su caso, tomar las acciones oportunas.

Estos tres puntos abarcan toda la problemática teórica y práctica que la Estadística actual. El estudio de la situación real de un problema estadístico exige describirla y esto nos obliga a estudiar los modelos probabilísticos. La información constituye la materia prima de toda investigación estadística. ¿Dónde y cómo recabar esta información? ¿Qué hemos de considerar con información relevante? Finalmente, la inferencia estadística y la teoría de la decisión ¿son la misma cosa o hay que distinguir entre ellas?.

3.1. EL MODELO DE LA SITUACIÓN ACTUAL.

1. Puede definirse un modelo como una representación de la realidad que intenta explicar en alguna de sus facetas. El modelo debe ser menos complejo que la realidad misma, pero suficientemente completo como para representar con aproximación los aspectos de la realidad que van a ser objeto de estudio. El proceso mismo de pensar corresponde, en su conjunto, a esta definición; de modo continuo estamos construyendo modelos de la realidad. Esto explica por qué la construcción de modelos es una operación tan frecuente. Acabamos de pensar en el «hecho de pensar», y en el proceso utilizado hemos construido un «modelo de pensamiento».

Los modelos ofrecen aspectos tan distintos que ninguna exposición sencilla puede aspirar a contener todos los elementos esenciales para su construcción. En un extremo de la escala tenemos el hecho de que todo esfuerzo humano está basado en la construcción de modelos; en el otro extremo vemos que los hombres de ciencia y los metodólogos construyen explicaciones de la realidad cuando ésta necesita una comprensión altamente especializada.

Los modelos abstractos que nuestro pensamiento construye sobre realidad se basan en el lenguaje o, como expresa gráficamente Miller y Starr (1964), «en su orgullosa variante: las matemáticas. Esto juega en favor de la especialización del lenguaje y de la existencia de vocabularios científicos. Esto explica también el desarrollo de la lógica y de las matemáticas.

En el otro polo opuesto están también los modelos concretos, los que se asemejan a lo que representan, los que originaron la palabra «modelo»: maquetas, retratos, construcciones, piloto, etc. entre ambos extremos, lo abstracto y lo concreto, hay toda una gama de modelos según el grado de abstracción.

2. El primer elemento, el punto de partida, de una investigación estadística es la consideración de una situación real en ambiente de incertidumbre. Debemos tener en cuenta los resultados posibles del fenómeno que se observa o del experimento que se realiza. El hecho fundamental es que hay más de un resultado posible (de lo contrario no habría incertidumbre) y que el resultado en un momento dado no es conocido de antemano, está indeterminado. Nuestro interés está en determinar cuál es el resultado o que acción tomar como consecuencia del mismo. Un médico somete a un enfermo a un cierto tratamiento, ¿curará dicho enfermo? A la vista del tiempo que hace, ¿llevaré paraguas al salir de casa?

Teorizar acerca de la conducta a seguir en tales situaciones exige construir un modelo formal que resulte de abstraer sus connotaciones más relevantes. Esto exige la introducción del concepto de probabilidad que de algún modo mide la incertidumbre que las rodea.

Así, en el caso del enfermo, un modelo de una situación puede ser el siguiente: hay dos resultados posibles curar o no curar, a los que podemos asignar las probabilidades respectivas p y 1-p. Podemos pensar que este paciente representa a toda una población de pacientes que sufren la misma enfermedad, en cuyo caso, el modelo servirá de normas para dictaminar de cara al futuro. La determinación de p en estas circunstancias puede hacerse en base a la frecuencia de curados en el pasado de dicha enfermedad. Procediendo así, la probabilidad p constituye a su vez un modelo abstraído de las frecuencias.

Pero puede suceder que, por su fisiología o su psicología especial, este enfermo sea considerado por el médico como caso patológico especial y, a pesar de que exista un cierto porcentaje de curados de esa misma enfermedad, el médico asigne a este caso una probabilidad de curación distinta de dicho porcentaje. Al proceder así, el médico ha asignado una probabilidad de curar subjetiva (personal), ha medido sus propias creencias acerca de la curación confiriéndoles un valor numérico. Tenemos así dos modos de asignar probabilidades, a los que se añadirán otros como las probabilidades «clásicas» o de Laplace y lógica. Estas formulaciones exigen ideas asociada de independencia, aleatoriedad, etcétera.

El modelo de la situación real consta esencialmente de un enunciado acerca del conjunto de resultados posibles y de una asunción acerca de sus respectivas probabilidades. Su finalidad es permitir el uso de argumentos lógicos o matemáticos que permitan deducir comportamientos de cara al futuro. Actúa como una idealización de la situación real. La meta de todo buen investigador es construir modelos sencillos que se adapten lo más posible a la realidad, ya que el mundo real de la situación vendrá constituida por el modelo.

Pongamos algunos ejemplos de modelos probabilísticos:

a). Se estudia el número de muertes por accidente de tráfico en las poblaciones, en intervalos de un mes. Los accidentes que ocurren en un determinado mes determinado son independientes de los que ocurren en otro mes cualquiera y obedecen al azar. La probabilidad de que una persona muera en accidente es pequeña. Éstas hipótesis se amolda perfectamente a un modelo de Poisson, el cual queda totalmente determinado por un parámetro simple, su media, que es proporcional a la tasa mensual (λ) de accidentes.

b). Poseemos las puntuaciones de los alumnos de una asignatura y deseamos, por ejemplo, conocer el percentil correspondiente a un alumno que ha sacado una nota determinada. En vez de trabajar con todas las puntuaciones (que pueden ser muchas), podemos suponer que estas siguen una distribución normal. El modelo normal está completamente determinado por la media y desviación típica. Obtenidas estas características con respecto a todas las puntuaciones, la tabla del modelo normal resuelve el problema planteado. Este modelo puede servir para resolver cuestiones distintas de la propuesta.

c). La situación real puede ser indagar el número de varones de una población valenciana de 20.000 habitantes. Se sabe por los boletines de nacimiento que la probabilidad de nacer varón es 0,517 en la provincia de Valencia. Hay dos estados posibles, ser varón o ser hembra, ambas posibilidades son aleatorias, incompatibles e independientes. Luego la situación definida obedece a un modelo binomial de parámetros n= 20.000 y p= 0,517. El valor esperado sabemos que es np, en este caso, 20.000 × 0,517 = 10.340 varones.

3. El modelo incorpora a la situación real una estructura con escasos elementos desconocidos, los parámetros: la media en el ejemplo a), la media y la varianza en el ejemplo b) y el número de individuos y la probabilidad de ocurrencia para cada uno, en el caso c). El modelo probabilístico es pieza fundamental en los principales argumentos estadísticos, la deducción progresiva y la reducción regresiva o inferencia estadística propiamente dicha. Ambos procesos están esquematizados en la figura.



i). El problema de la situación real es parte del mundo de los hechos. Por abstracción, a partir del problema real se construye el modelo, y de éste, por deducción, se generan propiedades probabilísticas de los datos que suministra la situación real, en el supuesto, claro está, de que el modelo se ajuste a la situación real. En este proceso la probabilidad actúa como «canal de información», esto es, como «lenguaje» que liga el modelo con otros potenciales. En los tres ejemplos anteriores la información generada por el modelo ha servido para resolver cuestiones planteadas en la situación real.

ii). La inferencia estadística invierte este proceso. Se inicia con los datos muestrales obtenidos del mundo de los hechos y de la misma naturaleza que aquellos que constituyen la situación real (obtenidos mediante un diseño adecuado de experimentos o quizá fortuitamente) y luego utiliza estos datos y toda otra información para validar un modelo especificado, para ser «conjeturas racionales» o «estimar parámetros» o aun para originar un modelo. Todo esto es objeto de la inferencia estadística. Este proceso inverso, inductivo, es posible gracias al «lenguaje» de la teoría de la probabilidad, dispuesto de antemano para formar el eslabón deductivo. Su finalidad es facilitar la obtención de inferencias a través del modelo de información suministrada por la muestra (y, si es el caso, por otras fuentes informativas relevantes que contribuyan a una inferencia más precisa) o construir procesos que ayuden a tomar adecuadas decisiones en la situación práctica.

3.2. LA INFORMACIÓN ESTADÍSTICA.

1. La información es el de elemento más característico del modelo estadístico: del hecho aislado no puede extraerse ninguna conclusión en situaciones de incertidumbre, esto es, en las que interviene el azar; al examinar un adulto o colectivo de casos concretos se aprecia una cierta regularidad o estabilidad en el comportamiento de dichos fenómenos. Por eso se dice que no hay estadísticas sin observación o experimentación.

En los tres ejemplos a), b), y c), citados anteriormente, la información tomaba la forma específica de «realizaciones» de una situación práctica: muertes habidas por accidente, puntuaciones obtenidas por alumnos, número de varones nacidos en la población. Estas realizaciones se suponen obtenidas como repetición de la situación bajo idénticas circunstancias. A este tipo de información se le suele llamar «datos muestrales».

Para algunos autores como Von Mises (1964), Venn (1962), Reichenbach (1949) y Bartlett (1962) sólo con información de este tipo obtenida en situación repetitiva, a lo menos potencialmente, se puede definir adecuadamente el concepto de probabilidad. Es la llamada interpretación frecuentista o frecuencialista de la probabilidad.

«Limitamos nuestro propósito, hablando "grosso modo" -dice Von Mises (op. cit. p.1)-, a una teoría matemática de sucesos repetitivos.» Y más tarde (pp.13 y 14) añade: «si se habla de la probabilidad de que los poemas conocidos como la Ilíada y la Odisea tenga el mismo autor, no es posible referirse una situación prolongada de casos y, difícilmente tendrá sentido asignar un valor numérico a tal conjetura.

De análogo parecer es Bartlett cuando escribe (1962, p. 11) que «la estadística se ocupa de cosas que podemos contar».

Los datos muestrales evaluados de acuerdo con el concepto frecuencialista de la probabilidad constituyen la base de la llamada estadística clásica, esto es, la estadística según los cánones de Fisher, Neyman y Pearson.

2. En el ejemplo c la información utilizada, proporción de varones, en la naturaleza frecuencial por su forma repetitiva. Pero cuando hemos afirmado que en Valencia esta proporción es de 51,7 por cada 100 nacidos, no nos hemos referido a ningún experimento u observación particular, sino que es algo que los estadísticos profesionales dan como valor medio de cómputos llevados a cabo tras observaciones seculares de los boletines de nacimientos remitidos por los registros de población. Se trata, pues, de una información obtenida por experiencia anterior.
La empresa que se dedica a construir aviones rescibe un día una oferta de un tipo de material por parte de uno de sus abastecedores y que, según él, es el más adecuado por sus cualidades de ligereza, resistencia, etc., para el nuevo modelo que se proyecta. Los técnicos del modelo experimentan el nuevo material (datos muestrales), pero tienen también en cuenta los o suministrados por el proveedor (experiencia pasada), persona que conoce los resultados del material que ofrece en otros proyectos de otras firmas. Por otra parte, el equipo económico, de acuerdo con el técnico, hará las valoraciones de todo tipo que se desprenden de la adopción del nuevo material: perjuicios causados si no se cumplen las especificaciones exigidas por el mercado, diferencias en los costes de comercialización, etc. (información sobre las consecuencias potenciales).

Vemos a través de estos ejemplos que la información necesaria para resolver un problema estadístico (que concluirá en muchos casos en un problema de decisión) puede abarcar información de tres categorías distintas: información debida a la experiencia anterior (información inicial del sujeto puede basarse en hechos objetivos observados con anterioridad, o ser meramente «subjetiva»), datos muestrales (debidos a observación experimentación actual) y consecuencias potenciales (información nacida de las posibles consecuencias que traerá consigo una u otra acción).

3. La información que con lleva las posibles consecuencias esta inmensa del problema de la valoración de las consecuencias, la cual es vital, ya que determinante a la hora de tomar acciones alternativas. Esta valoración debe ser cuantificada de algún modo a fin de poder comparar los resultados de distintos cursos de acción. La valoración de las consecuencias y su formal cuantificación es objeto de la teoría de la utilidad. Esta teoría forma parte de las diversas interpretaciones de la estadística y constituye uno de los elementos básicos de la teoría de la decisión.

La información basada en las consecuencias puede ser distinta (y hasta estar en contracción) de los datos muestrales. Lo mismo que los datos muestrales, la valoración de las consecuencias pueden ser objetiva: los costes de manufacturas debidos a procesos distintos pueden ser valorados en moneda de cuenta. Pero puede suceder que las consecuencias que se desprenden de la toma de acciones distintas no sean susceptibles de una valoración objetiva. ¿Cómo valorar objetivamente los resultados de elegir entre el cumplimiento de la ley y el cohecho? ¿Cómo ser objetivo a la hora de elegir como mujer a Juana o María? En la esfera de las actividades humanas es a menudo difícil ser objetivo. La valoración de consecuencias implica entonces evaluar juicios subjetivos (personales), acudir a los instrumentos de la teoría de la utilidad.

Aún en situaciones aparentemente objetivas es difícil eludir todo factor personal. En la elección de uno u otro material, a parte de componentes objetivos perfectamente comparables en precio, calidad, etc., todos sabemos lo que pesa, por encima de todas las características técnicas y el precio, las preferencias y gustos de la mujer a la hora de elegir el marido un nuevo modelo de automóvil.

Éstas diversas categorías de información pueden resumirse en dos: una que posee ya el sujeto y que llamaremos información a priori (no importa cuál sea su naturaleza y origen), y otra suministrada por la muestra o información muestral. La combinación de ambas constituyen la esencia de la inferencia estadística bayesiana. El uso exclusivo de la segunda es típico de la estadística clásica. La información generada por las consecuencias es, en cambio, relevante en la teoría de la decisión.

En los párrafos anteriores hemos referido a inferencia estadística y la teoría de la decisión como conceptos distintos, pero con elementos comunes. A la inferencia estadística le asignamos la misión de describir la situación real y a la teoría de la decisión le pedimos que prescriba la acción a ejercer en la situación dada.

3.3. LA OBSERVACIÓN Y GENERACIÓN DE LOS DATOS: DISEÑO DE EXPERIMENTOS.

1. Diariamente cada uno de nosotros lleva a cabo alguna observación con finalidad estadística. La parte más elemental de la estadística hace su aparición cuando se realiza mentalmente la evaluación de una investigación cualquiera. Cuando uno se pesa, automáticamente compara el peso obtenido con el promedio de pesadas anteriores y considera que ese peso se desvía significativamente del comúnmente observado.

Estos resultados sencillos se obtienen con facilidad, pero se emprende una investigación en serio, el método estadístico, es el compañero inseparable de toda investigación científica exige especiales conocimientos. En general se apela a la estadística siempre que acaecen sucesos en fenómenos de colectivo. Estos sucesos son de dos tipos: en unos, el estadístico es mero observador de lo que sucede; tal ocurre con la observación de los hechos demográficos como nacimientos, matrimonios, defunciones, etcétera. Es lo que hacen también los astrónomos, sin que en ningún caso puede observador modificar los fenómenos que tenía ante sí.

Otras veces los sucesos son el resultado de una experiencia provocada por el investigador, bajo ciertas condiciones. La experiencia puede provenir de las ciencias llamadas experimentales o de las socioeconómicas; puede obtenerse en un laboratorio o en la vida real, puede ser libre o controlada.

Lo corriente es que una experiencia no sea exactamente repetible en cuanto a resultados se refiere, cuando las condiciones que la definen no son totalmente controlables, en estos casos los resultados no son predecibles. Se habla entonces de experiencia de azar por experimento aleatorio o estocástico, por oposición a aquel en que hay relación de causa a efecto llamado determinista. Son experiencias aleatorias la extracción de una carta de un mazo, el lanzamiento de un dado para obtener una de sus caras, la elección de un punto sobre una diana mediante un disparo sobre ella.

Desde el punto de vista estadístico todos los hechos observados, tanto si provienen de un fenómeno experimental como si resultan de la simple observación del mundo que nos rodea, tienen el mismo carácter de estabilidad, salvo el caso de experiencias controladas.

Pero es preciso tener en cuenta que a veces puede desviarse el fenómeno de esa regularidad, debido a la variabilidad exhibida por todo tipo de agrupación o clase. Así, al observar la población habrá que considerar la variación por edades, por sexo, por regiones de origen. Habrá que tener en cuenta la variabilidad de un mismo fenómeno en el tiempo: la tasa de mortalidad cambia por el progreso de la medicina, el número de accidentes con el desarrollo económico.

2. Ciertas ciencias empíricas, como la psicología, admiten, según algunos investigadores, como método de investigación la introspección. Esto es una excepción; en la mayoría de las ciencias de la naturaleza la observación es exclusivamente sensible y externa. En el caso más corriente los datos se obtienen por experimentación.

Existe una evidente analogía entre experimentación y comunicación a través de un canal ruidoso. Las entradas son los estados de la naturaleza, y las respuestas, los resultados del experimento. La información transmitida mide el promedio de incertidumbre que queda eliminada por el experimento acerca de los estados de la naturaleza. Será ejecutado aquel experimento con mayor información esperada. El proceso es el de la llamada «caja negra», según el esquema de la figura.



Algunos autores, como D.A.S. Fraser (1979), llaman sistema aleatorio al concepto aquí reseñado y reservan la palabra experimento para las investigaciones en las que las entradas están controladas por existir alguna relación de causa a efecto. El control de las entradas puede ser de dos clases: entradas diseñadas o planificadas, de suerte que la modificación de una, dejando fijas las demás, permita detectar su influencia en las respuestas: tenemos entonces lo que se conoce con el nombre de diseño de experimentos; pero puede suceder que las entradas no sean directamente controlables y se haga su elección aleatoriamente, en cuyo caso se origina un efecto aleatorio sobre las respuestas. La aleatorización externa de las entradas, ante diversas realizaciones del experimento, provee de una cierta compensación de la falta de control de dichas entradas. Esta aleatorización externa es una componente de la investigación que determina la aleatoriedad del experimento o sistema. Queda así aclarada diferencia entre experimento (o sistema aleatorio) y diseño de experimentos.

3. La estadística trabaja con conjuntos numéricos. El conjunto de entes sobre los que se quiere investigar, con ciertas características comunes, se llama población o universo. A una parte de ese colectivo se le llama muestra. Cada uno de los elementos de la población es un individuo. Esta nomenclatura recuerda los orígenes demográficos de la Estadística. De una misma población pueden considerarse características distintas: sexo, edad, estatura, peso. Y una misma característica puede presentar distintas manifestaciones: sexo masculino y femenino, escala de edades, etcétera. Las modalidades pueden ser medibles (estatura) o contables (edad), en cuyo caso el carácter cuantitativo (llamado también variable) puede no serlo y entonces el carácter es cualitativo (llamado también atributo).

Estas definiciones pueden servir para una adecuada ordenación de la información de cara a su aplicación en los modelos. No olvidemos que la puesta en práctica de las diversas técnicas estadísticas no tendrá validez sino a condición de que la recogida de datos sea conveniente y su ordenación correcta.

La recogida de datos es la primera fase del proceso estadístico. Estos datos proceden de lo que en el esquema descrito llamamos mundo de los hechos a priori. De estos hechos tomamos los que convienen al problema real que nos ocupa y que servirán para construir el modelo de ese problema. Esa información incorporada por el científico a su ciencia, a la teoría científica que pretende construir, son las llamadas observaciones científicas (llamadas también protocolarias). Las llamamos así para distinguirlas de la información estadística en general: datos cuantitativos y datos cualitativos, tales como ha sido definidos.

Óscar Morgenstern utiliza el esquema de la figura para distinguir estos diversos tipos de información estadística.



El círculo A representa el campo cubierto por la teoría; los círculos B y C indican, respectivamente, las partes que cubren los datos cuantitativos y cualitativos. Estos dos círculos se refieren a datos empíricos, mientras que las observaciones, que ponen de manifiesto cómo la teoría está enclavada en la realidad, quedan circunscritas a la región comprendida entre los tres círculos.

Hemos de matizar dos cosas. Primero, que no todos los datos, como se desprende del esquema, deben ser considerados como observaciones, en el sentido que se da aquí a esa palabra, sino solamente aquellos que, recogidos, clasificados y reducidos a categorías, aspiran a ser utilizados en los modelos. Segundo, que empleamos la palabra teoría por modelo, ya que todo modelo es la interpretación real de una teoría y esto es lo que aquí se está considerando.

4. Los datos numéricos de la Estadística resultan de asignar números a objetos o relaciones empíricas de acuerdo con ciertas reglas fijas.

Estas reglas da lugar a las escalas de medida. Las escalas de medida son posibles sólo en tanto existe un cierto isomorfismo entre las operaciones que podemos hacer con los números y las que podemos hacer con los objetos empíricos. Los modos según los cuales las propiedades y las operaciones efectuadas con los números son trasladables a los objetos empíricos dan lugar a otros tantos tipos de medidas y escalas.

Las propiedades de los números trasladables a los objetos son, principalmente, la igualdad y la desigualdad conexión u orden, igualdad de diferencias e igualdad de razones. Estos tipos de operaciones dan lugar a cuatro clases de escalas: escalas enumerativas o nominales, escalas ordinarias, escalas de intervalos y escalas de razón. La descripción de cada una puede verse en Gutiérrez Cabria (1980).

Con cualquiera de estas cuatro escalas aplicadas a los conjuntos de objetos, se obtienen conjuntos numéricos, pero la información suministrada se va haciendo más y más precisa a medida que utilizamos escalas más perfectas. Es evidente que, en la ordenación establecida, la más imperfecta de la escala nominal y la más perfecta la basada en la igualdad de razón.

4. LAS FRONTERAS DE LA INFERENCIA ESTADÍSTICA.

Ha llegado ya el momento de analizar cuál es la aportación de la estadística en general y de la inferencia estadística en particular, a la metodología general científica.

La estadística general, el proceso de recogida y análisis de datos, ha sido contemplada ya en la primera fase del proceso de formación de las ciencias naturales. Es una fase meramente descriptiva que recorre datos, las observaciones protocolarias, los analiza y termina con la formulación de los enunciados universales sintéticos.

La inferencia estadística interviene en las fases segunda y tercera, que culminan con la obtención de modelos de las teorías científicas. Hemos recalcado ya que la ciencia progresa no por meras especulaciones teóricas, sino por una feliz simbiosis entre la teoría y la práctica, suficientemente iteradas. En esta iteración de la teoría y la práctica, nuevos datos sugieren nuevos modelos teóricos, y un nuevo modelo propuesto inspira nuevos exámenes y análisis de los datos obtenidos o que deben adquirirse. La dualidad de los procesos de inducción y deducción conducen así a mejorar los modelos paulatinamente, pero siempre en presencia del estadístico.

Esta presencia se manifiesta en un doble proceso que podríamos denominar de depuración y estimación del modelo científico. Este doble proceso constituye la fase inferencial que atañe al estadístico, a la cual precede otra, pre inferencial, que compete al científico. Karl Popper (8) describía asi ambas fases del método científico: «el científico teórico propone ciertas cuestiones determinadas al experimentador, y este último, con sus experimentos, trata de dar una respuesta decisiva a ellas, pero no a otras cuestiones: hacen cuanto pueden por eliminar estas».

De los hechos «a priori» que reflejan los verdaderos estados de la naturaleza, por vía reductiva o directamente, el científico formula sus hipótesis o leyes, su modelo, Mi. El estadístico consulta nuevamente a la naturaleza, la misma que inspiró al científico su modelo, extrayendo nuevos datos con los que realiza el diseño Di, y los que confronta al modelo Mi. Los datos utilizados para esta confrontación del modelo han de ser distintos de los que sirvieron para su construcción (lo que implica una dicotomización de los hechos «a priori»), pues, de lo contrario, se incurrirá en un sin vicioso. Los nuevos datos estarán de acuerdo o en desacuerdo con Mi. Es éste un proceso diagnóstico. En caso de existir desacuerdo, cabe preguntarse por qué. Los instrumentos estadísticos utilizados para este análisis son los diversos test de bondad de ajuste, análisis de la varianza residual, etcétera. Puede suceder que sería aconsejable cambiar Mi por un nuevo modelo Mi +1 que será sometido a prueba de los mismos datos obtenidos o a otros nuevos, si así lo exigen la independencia de la prueba, para lo que se enseñaría un nuevo experimento Di.1.

Caso de haber llegado a la obtención de un modelo aceptable, esto es, aproximado suficientemente la realidad que ha servido de verificación o contraste, puede procederse a estimar sus parámetros, en base a esa misma realidad con la que se ha probado está conforme. En realidad, esta estimación es necesaria en cada prueba de depuración del modelo provisional, pues es el único modo de ver si se aproxima o no a los hechos reales.

Así como las técnicas estadísticas utilizadas en la depuración del modelo pertenecen a la escuela clásica, el problema de la estimación pueda hacerse por métodos clásicos o bayesianos, fiduciales o estructurales, todo lo cual pone de manifiesto la complementariedad de las escuelas y, en su caso, la subsidiaridad, como habíamos anunciado al principio.



BIBLIOGRAFÍA.

ANSCOMBE, F. J.: «Rectifying of a continuous our put». J. Amer. Statis. Ass , 53, p. 702, 1958.
BARTLETT, M. S.: «Further aspects of the theory of Multiple Regressión». Proc. Cam. Phil. Soc., 34, p. 33, 1938.
_____: Essays an Probability and Statistics. London• Methuen, 1962.
BIRNBAUM, A.: «On the foundations of statistical inference». J. Amer. Statis. Ass., 57, pp. 269-326,1962.
BLACKWELL, D. , y GIRSHICK, M. A.: Theory af games and Statistical Decisions. 1. Wiley, New York, 1954.
DE FINETTE. B.: «L.a prevision, ses lois logiques, ses sources subjectives». Ann. Inst. Poincaré, 7,pp. 1-68, 1937.
DE GROOT, M.: Optimal Statistical Decisions. McGraw-Hili. New Yark, 1970.
EDWARDS, A. W. F.: Likelihood. Cambridge: C. U. P., 1972.
FERGUSON, T. S.: Mathematical Statistics: A Decisión Theoretic Approach. Acad. Press, New York, 1967.
FISHER, R. A.: «On a absotute criterion for fitting frequency curves». Messeng. Math, 41, pp. 155-160, 1912.
_____:«Inverse probability». Proc. Camb. Phil. .Soc., 26, pp. 52$-35, 1930.
_____:«The concepts of inverse probability and fiducial probability referring to unknown parameters». Proc. Roy. Soc., A., 139, pp. 343-48, 1933.
_____:«The fiducial argument statistical inference». Ann. Eugen, 6, pp. 391-98, 1935.
_____:«The use of multiple measurements in taxonomic problems», Ann. Eugen, 7, p. 179, 1936.
_____:«Theory of Statistical estimatiom». Proc. Camb. Phil. Soc., 22, p. 700, 1952.
FRASSER, D. A. S.: «The fiducial method and invariance». Blometrica, 48, pp, 261-280, 1961.
_____: The Structure of lnference. J. Wiley. New York, 1968.
_____: lnference and linear models. McGraw-Hill, 1979.
GALTON, F.: «Regresion tawards mediocrity in hereditary stature». J. Antrho. Inst., 15, p. 246, 1877.
_____;«Family likeness in Stature». Proc. Royal Soc., 40, p. 42, 1886.
_____;«Co-relations and then measurements chiefly from anthropometric data». Proc. Roval Soc.,45, p. 135, 1988.
GINI, C.: «I pericoli della statistica». Actas de la I reunión científica de la Soc. italiana de Estad. Pisa, 1939. Reimpreso en Questione fondamentali di Proóabilrtá e Statistica, vol. I, Bibliot. di Metrom e Bibliote. di Estad, 1968.
GODAMBE, V. P. , y THOMPSON, M. E.: «Bayes, fiducial and frequency aspects of statistical inference in regression analysis in survey sampling». J. Roy. Statis. Soc. B., 33, pp. 361-390, 1971.
GOOD, I. G.: Probability and the Weighing of Evidence. Griffin, London, 1950.
GUTIERREZ CABRIA, S.: Bioestadística. Ed. Tebar. Madrid, 1980.
_____:«Origen y desarrollo de la Estadistica en los siglo XVII y XVIII». Estadística Española, núm. 97, octubre-diciembre 1982 1982.
HODGES, J. L., y LEHAMANN, E. L.: «The use of previous experience in reaching Statistical decisions». Ann. Math. Statis, 23, p. 396, 1952.
HOTTELING, H.: «The most predictable criterion». J. Educ. Psichol, 26, p. 239, 1935.
KEYNES, J. M.: «Treatise on probability». T'he Roy. Econ. Soc. London, 1973.
LINDLEY, D. V.: «Fiducial distributions and Bayes Theorem», J. Roy. Statis. Soc. B., 20, PP• 102-107, 1958.
MAHALANOBIS, P. C.: «On the generalized distance in Statistics». Proc. Nat. Inst. Sci. India, PP 12-49, 1936.
MILLE R y STAR.: Fonction de Direction et Recherche Operationelle. Editorial Dunod. Paris, 1964.
NEYMANN, J.: «On the correlation of the mean and the Variance in samples drawn from an infinite population». Biometrika, 18, p. 401, 1926.
PEARSON, K.: «On the Criterion that a given System of Deviations from the Probable in the case of a Correlated System of variables in such that it can be reasonably supposed to have arisen from Randon Sampling». Philosophicul Magazine. L, p. 157, 1900.
_____: «On lines and planes of closet fit to systems of points in space». Phil. Nag. 2(6), p. 559, 1902.
POISSON, S. D.: Recherches sur la prohabilité des jugements en matiére civile, precedées des régles générales du calcul des prohahilités. Paris, 1837.
POPPER, K. R.: La lógica de la investigación científica. Ed. Tecnos, 1967.
RAIFFA, H. , y SCHLAIFER, R. : Applied Statistical Decision Theory. Harward Univ. Press. Boston,1961.
RAMSEY, F. P.: «Truth and Probability». Reeditado en Studies in Subjective Probabilty. ( Kyburg and Smokler.) J, Wiley, New York, 1926.
REICHENBACH, H.: The theory of probability. Chicago, Los Angeles, 1949.
ROBB[NS, H.: «The empirical Bayes approach to statistical decision problems». Ann. Math. Statis.,35, pp. 1-21, 1964.
SAVAGE, L. J.: The foundations of Statistics. J. Wiley, New York, 1954.
SHAIFER, R.: Probability and Statistics for Busines Decisions. MacGraw-Hill, New York, 1959.
STUDENT: «The probable error of a mean». Biometrika, 6, 1, 1908
VON NEUMAN, J., y MORGENSTERN, O.: Theory of Games and Economic Behavior. Princeton Univ. Press, 1944.
VON MISES, R..: «Mathematical theory of probabitity and statistics». Academic Press, New York, London, 1964.
WALD, A.: Sequential Analysis. New York, 1947.
WILKS, S. S.: «Certains generalizations in the analysis of variance». Biometrika, 24, p. 471, 1932.
YULE, G. U.: An Introduction to the Theory of Staristics. Charles Griffin and Co. London, 1912.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería