Ir al contenido principal

Evolución y Contenidos de la Estadística del siglo XX




ESTADÍSTICA ESPAÑOLA
número 101, 1983, páginas 7 a 28



por: SEGUNDO GUTIÉRREZ CABRIA
Departamento de Estadística e Investigación Operativa.
Universidad de Valencia.
Instituto Nacional de Estadística.

RESUMEN.

Se contempla la estadística durante el presente siglo desde el punto de vista de su evolución histórica, contenidos y características metodológicas de las corrientes más en boga.

Palabras clave: Descripción e inducción, probabilidades directas e inversas, información muestral y auxiliar, sistema y diseño de experimentos.

1. INTRODUCCIÓN.

Metodológicamente, la Estadística puede ser descriptiva e inductiva. La descriptiva utiliza instrumentos gráficos y analíticos y le permite estudiar caracteres específicos de grandes grupos de fenómenos. La inductiva extiende la descripción de ciertas características observadas en algunos sucesos a otros que no han sido observados, para llevar a cabo esta extensión se puede elegir aquel tipo de descripción que se estima más propicio. Históricamente se han utilizado tres tipos de argumentos para inducir o inferir propiedades en datos no observados.

El primero utiliza probabilidades «a priori» individuales para predecir frecuencias estadísticas sobre la totalidad de la serie. Su fundamento lo constituyen los teoremas de Bernouilli, Poisson y Tchebischeff. El teorema de Bernouilli fue el fruto de veinte años de trabajo, según su propia confesión, y sólo es válido bajo condiciones muy estrictas. Una de estas condiciones es la igualdad de probabilidades «a priori». Poisson prescinde de esta condición y Tchebischeff tiene una ley de la que las dos anteriores son casos particulares. Un análisis sobre la consistencia de estos métodos puede verse en Keynes (1973).

El segundo tipo de argumento se sirve de la frecuencia con que ha ocurrido un suceso en una serie de ocasiones para determinar la probabilidad de que ocurra «a posteriori». Dos procedimientos teóricamente inconsistentes entre sí fueron comúnmente utilizados: la inversión del teorema de Bernouilli y la regla de sucesión de Laplace. Ambos son considerados en la actualidad como inválidos.

El tercer enfoque de la inferencia estadística se apoya en una simple idea: dada la frecuencia con que ha ocurrido un suceso en una serie de ocasiones, ¿con qué frecuencia podemos esperar que ocurra en otras ocasiones? Es el método vislumbrado ya en la estadística de la conjetura de Graunt y sus discípulos, basada en la estabilidad de las series estadísticas cuando son analizadas según los cánones sugeridos por Lexis y Von Bortkiewicz. Esta inducción de muestra a muestra se opone radicalmente a la deducción implicaba la regla de Laplace y es el germen de la inferencia estadística moderna.

En el presente trabajo vamos a centrar nuestras consideraciones en torno a la Estadística del presente siglo. En el párrafo 2 estudiamos los hitos más importantes de su desarrollo. En el párrafo 3 se analizan sus contenidos básicos: el uso de modelos, el tratamiento de la información y su génesis. Terminamos con una consideración sobre las fronteras de la estadística.

2. EVOLUCIÓN DE LA ESTADÍSTICA EN LA ÚLTIMA CENTURIA

1. Una consecuencia natural de los nuevos cimientos echados por Lexis a la Estadística fue la teoría de la significación de Karl Pearson. En la búsqueda del significado heurístico de los modelos teóricos, a través de los cuales pretendía obtener una representación lógico-formal de la catarsis darwiniana, Pearson había advertido la necesidad de un criterio para probar la adecuación de los modelos a los datos. En el año 1900 daba a luz una memoria (ver Pearson, 1900) en la que construía un test (el test de la 2) apto para verificar la accidentalidad de las discrepancias entre la distribución teórica y la empírica. Este test era el preludio de toda una serie de algoritmos de naturaleza inferencial.

En la teoría de la dispersión el problema que se planteaba era investigar si en los errores fenomenológicos de una sucesión de observaciones estadísticas concurrían factores sistemáticos. Es lo que pretendía resolver la «teoría de la significación»: «Un criterio muy simple -explicaba Pearson (1900)- para determinar la bondad de ajuste de una distribución frecuencial cualquiera a una curva teórica. He calculado -añadía- la probabilidad de que la divergencia con respecto a una curva sea atribuida al azar del muestreo». La sustitución de una probabilidad directa por una inversa es aquí un hecho. Con todo de este test dará Yule (1912) una versión en términos de probabilidad directa: «Nos da -dice- la probabilidad de que por efecto del muestreo aleatorio se tenga un valor del test igual o superior al observado».

Con esta palabra parece advertir Yule la restrictividad del canon hipotético-deductivo en cuyo ámbito de la Estadística empezaba a darse reglas y criterios. «El estadístico -escribía- puede mostrar que los hechos están de acuerdo con esta o aquella hipótesis. Pero otra cosa es demostrar que todas las demás hipótesis posibles son excluidas y que los hechos no admiten ninguna otra interpretación.»

2. La escuela biométrica estaba acuerdo con el criterio de Pearson para la confrontación de los esquemas teóricos y los hechos reales, un químico de los laboratorios «Messrs Guinnes» de Dublín, dedicados a fabricar cerveza, lanzó una nueva idea metodológica. Era Williams S. Gosset quien afirmaba que los métodos de sus amigos biómetras no se amoldaban a la naturaleza empírica de los problemas que él tenía que resolver; los postulados y esquemas teóricos válidos para muestras grandes no lo eran para las muestras pequeñas de que él disponía. De hecho, los biómetras habían trabajado, sobre todo Pearson y Weldon, a base de realizar muestreos en poblaciones naturales, pero no habían llevado a cabo programas experimentales.


Los datos que obtenía Gosset eran medidas precisas, pero poco numerosas. Se decidió, pues, a construir un test adecuado, el resultado obtenido, publicado en 1908, constituyó un verdadero avance en la inferencia estadística. Este trabajo fue firmado con el seudónimo de Studen (1908). Gosset no desdeñó nunca la idea de probabilidad «a priori», necesaria según él, para determinar las expectativas de que una constante se halle dentro del intervalo prefijado. Mientras Pearson concentraba toda su atención en la información suministrada por los datos, Gosset acudía insistentemente a la intuición, como corresponde a un investigador experimental con sentido crítico y anti dogmático.

3. Con los trabajos de Lexis, Pearson y Gosset, la Estadística parecía orientarse en sentido cada vez más preciso: la búsqueda de métodos inferenciales tendentes a objetivar, todo lo más posible, los procedimientos de investigación. Esta meta ideal fue elevada por Ronald A. Fisher ha principio heurístico.

Crítico decidido de todo asomo de probabilidad inversa, Fisher se provee de instrumentos susceptibles de extraer la información óptima de los resultados experimentales, mediante una técnica sintéticamente tipificada y semánticamente neutra. «La teoría de la probabilidad inversa -escribe en "Theory of Statistical Estimation (1925)- se basa en un error y debe ser rechazada.»

Pearson y Student habían sido más prudentes: su rechazo de la probabilidad inversa era puramente operativo. Fisher, en cambio, hace del tema una ideología, pero no asume nunca una posición clara respecto al problema más general de la inducción. «Sobre el argumento fundamental de la inducción -escribe Bartlett (1962)- siempre he hallado sus escritos extremadamente oscuros.» Quetelet había aconsejado «replicar», repetir, las observaciones, a fin de compensar los elementos perturbadores. Student sugería eliminar «a priori» las circunstancias diferenciadoras conocidas. Todo esto desagradaba a Fisher, partidario de eliminar lo subjetivo y de aleatorizar, las muestras experimentales hasta lograr una plena aleatorización.

Fisher reemprende la teoría de la significación como técnica interpretativa al servicio de la investigación experimental, dando prioridad a los programas de experimentos y proponiendo fijar el «umbral de significación» antes de empezar el trabajo indagatorio.

La idea de la máxima verosimilitud -Fisher (1912)- es introducida como un criterio natural para estimar los parámetros de la población y para abordar hipótesis a la luz de la información muestral. Fisher impone la adecuada «verosimilitud» en el paso inductivo de la muestra a la población; la ve como predicado de la hipótesis a la luz de los datos.

4. Como en el caso de Pearson y Student, en la metodología de Fisher las hipótesis son probadas una por una, sin la menor alusión a la hipótesis alternativa. La idea de un proceso inferencial referido a una pluralidad distintiva de hipótesis es original de Jerzy Neyman (1926), quien sigue a grandes rasgos la metodología fisheriana, acentuando más la distinción entre estimación de parámetros y contraste de hipótesis, entendido éste contraste como confrontación entre hipótesis rivales.

Neyman deja su Varsovia natal frecuentemente, a partir de 1926 para recibir enseñanzas y orientaciones del gran Karl Pearson. Una consecuencia de estas estancias en Londres fue su amistad con Ergon S. Pearson (Pearson Jr.) y una colaboración con el en materia científica. De esta labor de investigación en equipo nació una nueva teoría de los tests de hipótesis. Neyman y Pearson dan una regla de comportamiento más dúctil y posibilística que la de Fisher. Es la que figura en los manuales de estadística clásica.

5. En la década 1930-40 hay tres hechos notorios en el desarrollo de la estadística que no se pueden silenciar.

El primero fue el auge logrado por él Análisis Multivariante de la mano de Mahalanobis (1936), Fisher (1936), Hotteling (1935, 1936), Bartlett (1938) y Wilks (1932), entre otros, y cuyos orígenes están en Galton (1886, 1888) y Karl Pearson (1901).

El segundo se refiere al elevado nivel matemático alcanzado por la estadística merced a los progresos logrados por el Cálculo de Probabilidades. Es el momento en que empiezan a conjugarse los trabajos de los probabilistas rusos y franceses (Kolmogorov, Kitchine, Scheyschev, Borel, Levy, Fréchet ) con la escuela de estadísticos ingleses y americanos; son los comienzos de la estadística matemática.

El tercer de hecho esta época, importante en la historia de la Estadística es la aparición de los primeros trabajos serios sobre probabilidad subjetiva, a cargo principalmente, de Bruno de Finetti (1937), quien, a su vez, redescubrió lo que antes había realizado F.P. Ramsay (1926). Era la base sobre la que construir el análisis bayesiano. C. Gini (1939) había invitado a poner los problemas estadístico-inferenciales en términos de probabilidad inversa señalando los peligros de ciertos criterios «objetivistas», cuando son empleados sin la asimilación crítica de las premisas conceptuales que los rigen y limitan. En ese mismo año harold Jeffreys (1939) desarrolla la teoría de la probabilidad y de la inferencia de muestras aleatorias en términos exquisitamente bayesianos. Con todo, las voces bayesianas europeas no fueron escuchadas del otro lado del Atlántico hasta prácticamente los años cincuenta. Dentro del grupo de americanos que más han contribuido al avance bayesiano hemos de citar a Good (1950), Anscombe (1958), Hodges y Lehman (1952), Schalaifer (1959) y, sobre todos, Leonard L. Savage (1954) con su obra «The Foundation of Statistics».

6. La teoría de juegos y la teoría de la utilidad forman parte del rico legado dejado por John Von Neumann, uno de los matemáticos más insignes de nuestros tiempos. En 1927, con su prueba del teorema de minimax para juegos finitos, Von Neumann estableció los fundamentos de la teoría de juegos. Más tarde, en colaboración con Oscar Morgenstern, culmina su labor con la publicación de la obra «Theory of Games and Economic Behavior» (1944). Abrahán Wald (1947) aprecio la conexión entre la teoría de juegos y la de contrastes de hipótesis de Neyman. Wald considera el razonamiento estadístico como un proceso de decisión en ambiente de incertidumbre, como un juego entre el estadístico y la naturaleza.

El problema de la estadística fue provisto de funciones de pérdida y de riesgo que permiten contemplar una multitud de alternativas posibles sometidas al criterio del minimax, de la minimización de la máxima pérdida o riesgo. La escuela de estadísticos americanos se adhirió pronto a este nuevo enfoque de la Estadística, principalmente en teoría económica (donde la utilidad sustituyó al riesgo), que permite una síntesis de las teorías de la estimación, del contraste de hipótesis y del análisis secuencial.

La posibilidad de asignar una distribución de probabilidad a los posibles estados de la naturaleza, según los cánones bayesianos, condujeron a la teoría de la decisión bayesiana. Sus partidarios, Blackwel y Girshick (1954), Raiffa y Schalaifer (1961), Ferguson (1967), De Groot (1970), argumentan que todo problema específico de inferencia implica una elección entre acciones alternativas cuyo grado de preferencia puede expresarse por una función de utilidad que depende del estado desconocido de la naturaleza. Dada la distribución «a posteriori», basada en la distribución inicial asignada a los estados de la naturaleza y la información suministrada por la muestra, la mejor acción a tomar es la que maximiza la utilidad esperada.

Frente a estos bayesianos «decisionistas», los bayesianos puros no asumen un papel de decisión: la distribución «a posteriori» sobre las hipótesis alternativas es el producto final de la inferencia.

Un compromiso entre bayesianos y no bayesianos son los métodos llamados «empírico-Bayes», no bien vistos por unos y por otros. Introducidos por Robbins (1955) y propenden a una mayor utilización de los datos estadísticos, principalmente en la distribución «a priori».

7. A estos distintos enfoques que atraen la atención de los estadísticos actuales añadiremos otros tres de escasa importancia.

A) El primero es la llamada «inferencia fiducial» de Fisher, que tiene un interés meramente histórico. Fisher opone a la teoría de Neyman-Pearson los «test de significación» y a los bayesianos, la teoría fiducial. En sucesivos trabajos (1930, 1933, 1935) desarrolla sus ideas sobre «probabilidad fiducial», que le conducirían luego a los llamados «intervalos fiduciales». A pesar de los esfuerzos por rehabilitar la inferencia fiducial, a cargo de estadísticos tan eminentes como Frasser (1961) Lindley (1958), Godambe y Thompson (1971), Birnabaum (1962), etcétera., no es en la actualidad comúnmente aceptada.

B) la teoría de «verosimilitud» o del «soporte» se contrapone a los puntos de vista, clásico y bayesiano, de la inducción estadística por el distinto uso que hace de la función de verosimilitud.

La estimación de un parámetro (o selección de una hipótesis) en comparación con otro (u otra) se apoya en el soporte que proporciona un conjunto de datos, medido ese soporte por el logaritmo natural de la razón de verosimilitudes calculadas a partir de esos datos. El método ha sido ampliamente estudiado por Edwards (1972).

C) Finalmente, nos referimos a la «inferencia estructural». La creación se debe exclusivamente a D.A.S Frasser y constituye un nuevo intento de lograr la teoría unificada de la inferencia, como puede verse en su libro «The Structure of Inference» (1968). La obra de Frasser ha suscitado gran interés de los investigadores, por cuanto aporta pensamiento nuevo, pero no aparece hasta ahora como método de fácil y general aplicación.

8. Addendum. Los distintos enfoques de la inferencia estadística ponen de manifiesto su carácter sectorial más bien que una teoría unificadora en la cúspide de la Estadística general. Las áreas especializadas de la Estadística proceden frecuentemente bajo el impulso de su énfasis particular, sin prestar atención a más amplias implicaciones. Ello lleva consigo su desarmónico desarrollo. La investigación de una teoría integradora de las distintas vertientes del pensamiento estadístico es el reto que tiene planteado la Estadística actual.

3. CONTENIDOS BÁSICOS DE LA ESTADÍSTICA ACTUAL.

En otra parte (1982) hemos escrito que «la Estadística está caracterizada por la existencia de una información acerca de un colectivo o universo, lo que constituye su objeto material; un modo propio de razonamiento, una lógica propia, lo que constituye su objeto formal y las previsiones de cara al futuro, lo conforma su objeto o causa final. Todo esto, frecuentemente, con
lleva o preludia una toma de decisión.

En esta caracterización están implícitos los elementos esenciales de todo problema estadístico, esto es:

1. Una situación real en ambiente de incertidumbre.
2. Existencia o posible obtención de información.
3. Necesidad de unas reglas que permitan conocer situaciones actualmente desconocidas y, en su caso, tomar las acciones oportunas.

Estos tres putos abarcan toda la problemática teórica y práctica de la Estadística actual. El estudio de la situación real de un estadístico exige describirla y esto nos obliga a estudiar los modelos probabilísticos. La información constituye la materia prima de la investigación estadística. ¿Dónde y cómo recabar esta información? ¿Qué hemos de considerar como información relevante?. Finalmente, la inferencia estadística y la teoría de la decisión ¿son la misma cosa o hay que distinguir entre ellas?.

3. 1. El Modelo de la Situación Actual.

1. Puede definirse un modelo como una representación de la realidad que intenta explicar en alguna de sus facetas. El modelo debe ser menos complejo que la realidad misma. Pero suficientemente completo como para representar con aproximación los aspectos de la realidad que van a ser objeto de estudio. El proceso mismo de pensar corresponde, en su conjunto, a esta definición; de modo continuo estamos construyendo modelos de la realidad. Esto explica por qué la construcción de modelos es una operación tan frecuente. Acabamos de pensar en el «hecho de pensar», y en el proceso utilizado hemos construido un «modelo de pensamiento».

Los modelos ofrecen aspectos tan distintos que ninguna exposición sencilla puede aspirar a contener todos los elementos esenciales para su construcción. En un extremo de la escala tenemos el hecho de que todo esfuerzo humano está basado en la construcción de modelos; en el otro extremo vemos que los hombres de ciencia y los metodólogos construyen explicaciones de la realidad cuando ésta necesita una comprensión altamente especializada.

Los modelos abstractos que nuestro pensamiento construye sobre la realidad se basan en el lenguaje, como expresan gráficamente Miller y Starr (1964), «en su orgullosa variante: las matemáticas». Esto juega en favor de la especialización del lenguaje y de la existencia de vocabulario científicos. Esto explica también el desarrollo de la lógica y de las matemáticas.

En el polo opuesto están también los modelos concretos, los que se asemejan a lo que representan, los que originaron la palabra «modelo»: maquetas, retratos, construcciones, piloto, etc. entre ambos extremos lo abstracto y lo concreto, hay toda una gama de modelos según el grado de abstracción.

2. El primer elemento, el punto de partida, de una investigación estadística es la consideración de una situación real en ambiente de incertidumbre. Debemos tener en cuenta los resultados posibles del fenómeno que se observa o del experimento que se realiza. El hecho fundamental es que hay más de un resultado posible (de lo contrario no habría incertidumbre) y que el resultado en un momento dado no es conocido de antemano, está indeterminado. Nuestro interés está en determinar cuál es el resultado o qué acción tomar como consecuencia del mismo un médico somete a un enfermo a un cierto tratamiento, ¿curará dicho enfermo? A la vista del tiempo que hace, ¿llevaré paraguas al salir de casa?.

Teorizar acerca de la conducta a seguir en tales situaciones exige construir un modelo formal que resulte de abstraer sus connotaciones más relevantes. Esto exige la introducción del concepto de probabilidad que de algún modo mida la incertidumbre que las rodea.

Así, en el caso del enfermo, un modelo de su situación puede ser el siguiente: hay dos resultados posibles curar o no curar, a los que podemos asignar las probabilidades respectivas p y 1-p. Podemos pensar que este paciente representa a toda una población de pacientes que sufren la misma enfermedad, en cuyo caso, el modelo servirá de norma para dictaminar de cara al futuro. La determinación de p en estas circunstancias puede hacerse en base a la frecuencia de curados en el pasado de dicha enfermedad. Procediendo así, la probabilidad p constituye a su vez un modelo abstraído de las frecuencias.

Pero puede suceder que, por su fisiología o su psicología especial, este enfermo sea considerado por el médico como caso patológico especial y, a pesar de que exista un cierto porcentaje de curados de esa misma enfermedad, el médico asigne a este caso una probabilidad de curación distinta de dicho porcentaje. Al proceder así, el médico ha asignado una probabilidad de curar subjetiva (personal), ha medido sus propias creencias acerca de la curación confiriéndoles un valor numérico. Tenemos así dos modos de asignar probabilidades, a los que se añadirán otros como las probabilidades «clásicas» o de Laplace y lógica. Estas formulaciones exigen ideas asociadas de independencia, aleatoriedad, etcétera.

El modelo de la situación real consta esencialmente de un enunciado acerca del conjunto de resultados posibles y de una asunción acerca de sus respectivas probabilidades. Su finalidad es permitir el uso de argumentos lógicos o matemáticos que permitan deducir comportamientos de cara al futuro. Actúa como una idealización de la situación real. La meta de todo buen investigador es construir modelos sencillos que se adapten lo más posible a la realidad, ya que el mundo real de la situación vendrá constituida por el modelo.

Pongamos algunos ejemplos de modelos probabilísticos:

a)     Se estudia el número de muertes por accidentes de tráfico en las poblaciones, en intervalos de un mes. Los accidentes que ocurren en un mes determinado son independientes de los que ocurren en otro mes cualquiera y obedecen al azar. La probabilidad de que una persona muera en accidentes es pequeña. Éstas hipótesis se amoldan perfectamente a un modelo de Poisson, el cualquiera totalmente determinado por un parámetro simple, su media, que es proporcional a la tasa λ de accidentes.
b)    Poseemos las puntuaciones de los alumnos de una asignatura y deseamos, por ejemplo, conocer el percentil correspondiente a un alumno que ha sacado una nota determinada. En vez de trabajar con todas las puntuaciones (y pueden ser muchas), podemos suponer que éstas siguen una distribución normal. El modelo normal está completamente determinado por la media y desviación típica. Obtenidas estas características con respecto a todas las puntuaciones, la tabla del modelo normal resuelve el problema planteado. Este modelo puede servir para resolver cuestiones distintas de la propuesta.
c)     La situación real puede ser el indagar el número de varones de una población valenciana de 20.000 habitantes. Se sabe por los boletines de nacimiento que la probabilidad de nacer varón es 0.517 en la provincia de Valencia. Hay dos estados posibles, ser varón o ser hembra, ambas posibilidades son aleatorias, incompatibles e independientes. Luego la situación definida obedece aún modelo binominal de parámetros n = 20.000 y p = 0.517. El valor esperado sabemos que es np, en este caso, 20,000 × 0.517 = 10.340 varones.

3. El modelo incorpora a la situación real una estructura con escasos elementos desconocidos, los parámetros: la media en el ejemplo a), la media y la varianza en el ejemplo b) y el número de individuos y la probabilidad de ocurrencia para cada uno, en el caso c). El modelo probabilístico es pieza fundamental en los principales argumentos estadísticos, la deducción progresiva y la reducción regresiva o inferencia estadística propiamente dicha. Ambos procesos están esquematizados en la figura.

i) El problema de la situación real es una parte del mundo de los hechos. Por abstracción, a partir del problema real se construye el modelo, y de éste, por deducción, se generan propiedades probabilística de los datos que suministra la situación real, en el supuesto, claro está, de que el modelo se ajusta a la situación real. En este proceso la probabilidad actúa como «canal de información», esto es, como «lenguaje» que liga el modelo con los datos potenciales. En los tres ejemplos anteriores la información generada por el modelo ha servido para resolver cuestiones planteadas en la situación real.


ii) La inferencia estadística invierte este proceso. Se inicia con los datos muéstrales obtenidos del mundo de los hechos y de la misma naturaleza que aquellos que constituyen la situación real (obtenidos mediante un diseño adecuado de experimentos o quizá fortuitamente) y luego utiliza estos datos y toda otra información para validar un modelo especificado, para hacer «conjeturas racionales» o «estimar parámetros» o aún para originar un modelo. Todo esto es objeto de la inferencia estadística. Este proceso inverso, inductivo, es posible gracias al «lenguaje» de la teoría de la probabilidad, dispuesto de antemano para formar el eslabón deductivo. Su finalidad es facilitar la obtención de inferencias a través del modelo de la información suministrada por la muestra (y, si es el caso, por otras fuentes informativas relevantes que contribuyan a una inferencia más precisa) o construir procesos que ayuden a tomar adecuadas decisiones en la situación práctica.

3. 2. LA INFORMACIÓN ESTADÍSTICA.

1. La información es el elemento más característico del método estadístico: del hecho aislado no puede extraerse ninguna conclusión en situaciones de incertidumbre, esto es, en las que interviene el azar; al examinar un conjunto o colectivo de casos concretos se aprecia una cierta regularidad o estabilidad en el comportamiento de dichos fenómenos. Por eso se dice que no hay estadísticas sin observación o experimentación.

En los tres ejemplos a), b) y c), citados anteriormente, la información tomaba la forma específica de «realizaciones» de una situación práctica: muertes habidas por accidente, puntuaciones obtenidas por alumnos, número de varones nacidos en una población. Estas realizaciones se suponen obtenidas como repetición de la situación bajo idénticas circunstancias. A este tipo de información se le suele llamar «datos muestrales».

Para algunos autores como Von Mises (1964), Venn (1962), Reichenbach (1949) y Bartlett (1962) sólo con información de este tipo obtenida en situación repetitiva, a lo menos potencialmente, se puede definir adecuadamente el concepto de probabilidad. Es la llamada interpretación frecuentista o frecuencialista de la probabilidad.

«Limitamos nuestro propósito, hablando "grosso modo" -dice Von Mises (op. cit., p.1)-, a una teoría matemática de sucesos repetitivos.» Y más tarde (pp. 13 y 14) añade: «si se habla de la probabilidad de que los poemas conocidos como la Ilíada y la Odisea tengan el mismo autor, no es posible referirse a una sucesión prolongada de casos y, difícilmente tendrá sentido asignar un valor numérico a tal conjetura.

De análogo parecer es Bartlett cuando escribe (1962, p. 11) que «la estadística se ocupa de cosas que podemos contar».

Los datos muestrales evaluados de acuerdo con el concepto frecuencialista de la probabilidad intuye la base de la llamada estadística clásica, esto es, la estadística de los cánones de Fisher, Neyman y Pearson.

2. En el ejemplo c) la información utilizada, proporción de varones, es de naturaleza frecuencial por su forma repetitiva. Pero cuando hemos afirmado que en Valencia esta proporción es de 51.7 por cada 100 nacidos, no nos hemos referido a ningún experimento u observación particular, sino que es algo que los estadísticos profesionales dan como valor medio de cómputos llevados a cabo tras observaciones seculares de los boletines de nacimientos remitidos por los registros de población. Se trata, pues, de una información obtenida por experiencia anterior.

Una empresa que se dedica a construir aviones recibe un día una oferta de un tipo de material por parte de uno de sus abastecedores y que, según él, es el más adecuado por sus cualidades de ligereza, resistencia, etc., para el nuevo modelo que se proyecta. Los técnicos del modelo experimentan el nuevo material (datos muestrales), pero tienen también en cuenta los datos suministrados por el proveedor (experiencia pasada), persona que conoce los resultados del material que ofrece en otros proyectos de otras firmas. Por otra parte, el equipo económico, de acuerdo con el técnico, hará las valoraciones de todo tipo que se desprenden de de la adopción del nuevo material: perjuicios causados si no se cumplen las especificaciones exigidas por el mercado, diferencias en los costes, comercialización, etc. (información sobre las consecuencias potenciales).
Vemos a través de estos ejemplos de la información necesaria para resolver un problema estadístico (que concluirá en muchos casos en un problema de decisión) puede abarcar información de tres categorías distintas: datos muestrales (debidos a observación o experimentación actual) y consecuencias potenciales (información nacida de las posibles consecuencias que traerá consigo una u otra acción).

3. La información que conlleva las posibles consecuencias está inmersa en el problema de la valoración de esas consecuencias, el cual es vital, ya que es determinante a la hora de tomar acciones alternativas. Esta valoración debe ser cuantificada de algún modo a fin de poder comparar los resultados de distintos cursos de acción. La valoración de las consecuencias y su formal cuantificación es objeto de la teoría de la utilidad. Esta teoría forma parte de las diversas interpretaciones de la estadística y constituye uno de los elementos básicos de la teoría de la decisión.

La información basada en las consecuencias puede ser distinta (y hasta estar en contracción) de los datos muestrales. Lo mismo que los datos muestrales, la valoración de las consecuencias puede ser objetiva: los costes de manufacturas debidos a procesos distintos pueden ser valorados en moneda de cuenta. Pero puede suceder que las consecuencias que se desprenden de la toma de acciones distintas no sean susceptibles de una valoración objetiva. ¿Cómo valorar objetivamente los resultados de elegir entre el cumplimiento de la ley y el cohecho? ¿Cómo ser objetivo a la hora de elegir como mujer a Juana o a María? En la esfera de las actividades humanas es a menudo difícil ser objetivo. La valoración de consecuencias implica entonces evaluar juicios subjetivos (personales), acudir a los instrumentos de la teoría de la utilidad.

Aún en situaciones aparentemente objetivas es difícil eludir todo factor personal. En la elección de uno u otro material, aparte de componentes objetivos perfectamente comparables en precio, calidad, etc., siempre intervendrán el gusto del decisor, las modas en el consumo, la presión social, etc.. Todos sabemos lo que pesa, por encima de todas las características técnicas y el precio, las preferencias y gustos de la mujer a la hora de elegir el marido un nuevo modelo de automóvil.

Éstas diversas categorías de información pueden resumirse en dos: una que posee ya el sujeto y que llamaremos información a priori (no importa cuál sea su naturaleza y origen), y otra suministrada por la muestra o información muestral. La combinación de ambas constituye la esencia de la inferencia estadística bayesiana. El uso exclusivo de la segunda es típico de la estadística clásica. La información generada por las consecuencias es, en cambio, relevante en la teoría de la decisión.

En los párrafos anteriores hemos referido a inferencia estadística y a teoría de la decisión conceptos distintos, pero con elementos comunes. A la inferencia estadística le asignaron la misión de describir la situación real y a la teoría de la decisión le pedimos que prescriba la acción a ejercer en la situación dada.

3. 3. LA OBSERVACIÓN Y GENERACIÓN DE LOS DATOS: DISEÑO DE EXPERIMENTOS.

1. Diariamente cada uno de nosotros lleva a cabo alguna observación con finalidad estadística. La parte más elemental de la estadística hace su aparición en cuanto se realiza mentalmente la evaluación de una investigación cualquiera. Cuando uno se pesa, automáticamente compara el peso obtenido con el promedio de pesadas anteriores y considera si este peso se desvía significativamente del comúnmente observado.

Estos resultados sencillos se obtienen con facilidad; pero cuando se emprende una investigación en serio, el método estadístico, que es el compañero inseparable de toda investigación científica, exige especiales conocimientos. En general se apela a la estadística siempre que acaecen sucesos en fenómeno de colectivo. Estos sucesos son de dos tipos: en unos, el estadístico es mero observador de lo que sucede; tal ocurre con la observación de los hechos demográficos como nacimientos, matrimonios, defunciones, etc. Es lo que hacen también los astrónomos, sin que en ningún caso pueda el observador modificar los fenómenos que tenía entre sí.

Otras veces los sucesos son el resultado de una experiencia provocada por el investigador, bajo ciertas condiciones. La experiencia puede provenir de las ciencias llamadas experimentales o de la socieconómicas; puede obtenerse en un laboratorio o en la vida real, puede ser libre o controlada.

Lo corriente es que una experiencia no sea exactamente repetible en cuanto a resultados se refiere, cuando las condiciones que la definen no son totalmente controlables en estos casos los resultados no son predecibles. Se habla entonces de experiencia de azar o experimento aleatorio o estocástico, por oposición a aquel en que hay relación de causa a efecto llamado determinista. Son experiencias aleatorias la extracción de una carta de un mazo, el lanzamiento de un dado para obtener una de sus caras, la elección de un punto sobre una diana mediante un disparo sobre ella.

Desde el punto de vista estadístico todos los hechos observados, tanto si provienen de un fenómeno experimental como se resultan de la simple observación del mundo que nos rodea, tienen el mismo carácter de estabilidad, salvo el caso de experiencias controladas.

Pero es preciso tener en cuenta que a veces puede desviarse el fenómeno de esa regularidad, debido a la variabilidad exhibida por todo tipo de agrupación o clase. Así, al observar la población habrá que considerar la variación por edades, por sexo, por razones de origen. Habrá que tener en cuenta la variabilidad de un mismo fenómeno en el tiempo: la tasa de mortalidad cambia con el progreso de la medicina, el número de accidentes con el desarrollo económico.

2. Ciertas ciencias empíricas, como la psicología, admiten, según algunos investigadores, como método investigación la introspección. Esto es una excepción; en la mayoría de las ciencias de la naturaleza la observación es exclusivamente sensible y externa. En el caso más corriente los datos se obtienen por experimentación.

Existe una evidente analogía entre experimentación y comunicación a través de un canal ruidoso. Las entradas son los estados de la naturaleza, y las respuestas, los resultados del experimento. La información transmitida mide el promedio de incertidumbre que queda eliminada por el experimento acerca de los estados de la naturaleza. Será ejecutado aquel experimento con mayor información esperada. El proceso es el de la llamada «caja negra», según el esquema de la figura.

.

Algunos autores, como D.A.S. Frasser (1979), llaman sistema aleatorio al concepto aquí reseñado y reservar la palabra experimento para investigaciones en las que las entradas están controladas por existir una relación de causa a efecto. El control de las entradas puede ser de dos clases: entradas diseñadas o planificadas, de suerte que la modificación de una, dejando fijas las demás, permite detectar influencia en las respuestas: tenemos entonces lo que se conoce con el nombre de diseño de experimentos; pero puede suceder que las entradas no sean directamente controlables y se haga su elección aleatoriamente, en cuyo caso se origina un efecto aleatorio sobre las respuestas. La aleatorización externa de las entradas, ante diversas realizaciones del experimento, provee una cierta compensación de la falta de control de dichas entradas. Esta aleatorización externa es una componente de la investigación que determina la aleatoriedad del experimento o sistema. Queda así aclarada la diferencia entre experimento (o sistema aleatorio) y diseño de experimentos.

3. La estadística trabaja con conjuntos numéricos. El conjunto de entes sobre los que se quiere investigar, con ciertas características comunes, se llama población o universo. A una parte de ese colectivo se le llama muestra. Cada uno de los elementos de la población es un individuo. Esta nomenclatura recuerda los orígenes demográficos de la Estadística. De una menor población pueden considerarse características distintas: sexo, edad, estatura, peso. Y una misma característica puede representar distintas manifestaciones: sexo masculino y femenino, escala de edades, etc... Las modalidades pueden ser medibles (estatura) o contables (edad), en cuyo caso el carácter cuantitativo (llamado también atributo).

Estas definiciones pueden servir para una adecuada ordenación de la información de cara a su aplicación en los modelos. No olvidemos que la puesta en práctica de las diversas técnicas estadísticas no tendrá validez sino a condición de que la recogida de datos sea conveniente y su ordenación correcta.

La recogida de datos es la primera fase del proceso estadístico. Estos datos proceden de lo que en el esquema descrito llamamos al mundo de los hechos a priori. De estos hechos tomamos los que convienen al problema real que nos ocupa y que servirán para construir el modelo de ese problema. Esa información incorporada por el científico a su ciencia, a la teoría científica que pretende construir, son las llamadas observaciones científicas (llamadas también protocolarias). La llamamos así para distinguirlas de la información estadística en general: datos cuantitativos y datos cualitativos, tales como han sido definidos.

Óscar Morgenstern utiliza el esquema de la figura para distinguir estos diversos tipos de información estadística.

.

El círculo A representa el campo cubierto por la teoría; los círculos B y C indican, respectivamente, las partes que cubren los datos cuantitativos y cualitativos. Estos dos círculos se refieren a datos empíricos, mientras que las observaciones, que ponen de manifiesto cómo la teoría está enclavada en la realidad, eran circunscritas a la región comprendida entre los tres círculos.

Hemos de matizar dos cosas. Primero, que no todos los datos, como se desprende del esquema, deben ser considerados como observaciones, en el sentido que se da aquí a esa palabra, sino solamente aquellos que, recogidos, clasificados y reducidos a categorías, aspiran a ser utilizados en los modelos. Segundo, que empleamos la palabra teoría por modelo, ya que todo modelo es la interpretación real de una teoría y esto es lo que aquí se está considerando.

4. Los datos numéricos de la Estadística resultan de asignar números a objetos o relaciones empíricas de acuerdo con ciertas reglas fijas.

Estas reglas dan lugar a las escalas de medida. Las escalas de medida son posibles sólo en tanto existe un cierto isomorfismo entre las operaciones que podemos hacer con números y las que podemos hacer con los objetos empíricos. Los modos según los cuales las propiedades y las operaciones efectuadas con los números son trasladables a los objetos empíricos dan lugar a otros tantos tipos de medidas y escalas.

Las propiedad de los números trasladables a los objetos son, principalmente, la igualdad y desigualdad, conexión u orden, igualdad de diferencias e igualdad de razones. Estos tipos de operaciones dan origen a cuatro clases de escalas: escalas enunerativas o nominales, escalas ordinales, escalas de intervalos y escalas de razón. La descripción de cada una puede verse en Gutiérrez Cabria (1980).

Con cualquiera de estas cuatro escalas aplicadas a los conjuntos de objetos, se obtienen conjuntos numéricos, pero información suministrada se va haciendo más precisa a medida que utilizamos escalas más perfectas. Es evidente que, en la ordenación establecida, la más imperfecta es la escala nominal y la más perfecta la basada en la igualdad la razón.

4. LAS FRONTERAS DE LA INFERENCIA ESTADÍSTICA.

Ha llegado ya el momento de analizar cuál es la aportación de la estadística en general y de la inferencia estadística en particular, a la metodología general científica.

La estadística general, en el proceso de recogida y análisis de datos, ha sido contemplada ya en la primera fase del proceso de formación de las ciencias naturales. Es una fase meramente descriptiva que recoge datos, las observaciones protocolarias, los analiza y termina con la formulación de enunciados universales sintéticos.

La inferencia estadística interviene en las fases segunda y tercera y culmina con la obtención de modelos de las teorías científicas. Hemos recalcado ya que la ciencia progresa no por meras especulaciones teóricas, sino por una feliz simbiosis entre la teoría y la práctica, suficientemente iteradas. En esta iteración de la teoría y la práctica, nuevos datos sugieren nuevos modelos teóricos, y un nuevo modelo propuesto inspira nuevos exámenes y análisis de los datos obtenidos o que deben adquirirse. La dualidad de los procesos de inducción y deducción conducen así a mejorar los modelos paulatinamente, pero siempre en presencia del estadístico.

Esta presencia se manifiesta en un doble proceso que pudiéramos denominar de depuración y estimación del modelo científico. Este doble proceso constituye la base inferencial que atañe al estadístico, a la cual precede otra, pre inferencial, que complete al científico. Karl Popper (8) describe así ambas fase del método científico: «el científico teórico propone ciertas cuestiones determinadas al experimentador, y éste último, con sus experimentos trata de dar una respuesta decisiva a ellas, pero no a otras cuestiones: hace cuanto puede por eliminar éstas».

De los hechos «a priori» que reflejan los verdaderos estados de la naturaleza, por vía reductiva o directamente, el científico formula sus hipótesis o leyes, su modelo, Mj. El estadístico consulta nuevamente a la naturaleza, la misma que inspiro al científico su modelo, extrayendo nuevos datos con los que realiza el diseño Dj, y los que confronta al modelo Mj. Los datos utilizados para esta confrontación del modelo han de ser distintos de los que sirvieron para su construcción (lo que implica una dicotomización de los hechos «a priori»), pues de lo contrario, se incurrirá en un círculo vicioso. Los nuevos datos estarán de acuerdo o en desacuerdo con Mj. Es este un proceso de diagnóstico. En caso de existir desacuerdo, cabe preguntarse por qué. Los instrumentos estadísticos utilizados para este análisis son los diversos test de bondad de ajuste, análisis de la varianza residual, etcétera. Puede suceder que sea aconsejable cambiar Mj por un nuevo modelo Mj +1 que será sometido a prueba de los mismos datos obtenidos o a otros nuevos, si así lo exige la independencia de la prueba, para lo que se diseñaría como experimento de Di +1.


Caso de haber llegado a la obtención de un modelo aceptable, esto es, aproximado suficientemente a la realidad que ha servido de verificación o contraste, puede procederse a estimar sus parámetros, en base a esa misma realidad con la que se ha probado está conforme. En realidad, esta estimación es necesaria cada prueba de depuración del modelo provisional, pues es el único modo de ver si se aproxima o no a los hechos reales.

Así como las técnicas estadísticas utilizadas en la depuración del modelo pertenecen a la escuela clásica, el problema de la estimación puede hacerse por métodos clásicos o bayesianos, fiduciales o estructurales, todo lo cual pone de manifiesto la complementariedad de las escuelas y, en su caso, subsidiariedad, como habíamos anunciado al principio.

BIBLIOGRAFÍA

ANCOMBE, F. J.: «Rectifying of a continuous our put». J. Amer. Statis. Ass , 53, p. 702, 1958.
BARTLETT, M. S.: «Further aspects of the theory of Multiple Regressión». Proc. Cam. Phil. Soc., 34, p. 33, 1938.
_____: Essays an Probability and Statistics. London• Methuen, 1962.
BIRNBAUM, A.: «On the foundations of statistical inference». J. Amer. Statis. Ass., 57, pp. 269-326, 1962.
BLACKWELL, D., y GIRSHICK, M. A.: Theory af games and Statistical Decisions. J. Wiley, New York, 1954.
DE FINETTI. B.: «La prevision, ses lois logiques, ses sources subjectives». Ann. Inst. Poincaré, 7, pp. 1-68, 1937.
DE GROOT, M.: Optimal Statistical Decisions. McGraw-Hill. New York, 1970.
EDWARDS, A. W. F.: Likelihood. Cambridge: C. U. P., 1972.
FERGUSON, T. S.: Mathematical Statistics: A Decisión Theoretic Approach. Acad. Press, New York, 1967.
FISHER, R. A.: «On a absotute criterion for fitting frequency curves». Messeng. Math, 41, Pp. 1 SS-1 ó0, 1912.
_____:«Inverse probability». Proc. Camb. Phil. .Soc., 26, pp. 52$-35, 1930.
_____:«The concepts of inverse probability and fiducial probability referring to unknown parameters». Prac. Roy. Soc., A., 139, pp. 343-48, 1933.
_____:«The fiducial argument statistical inference». Ann. Eugen, 6, pp. 391-98, 1935.
_____:«The use af multiple measurements in taxonomic problems», Ann. Eugen, 7, p. 1; 9, 193fi.
_____:«Theory of Statistical estimatiom>. Proc. Camh. Phil. Svc., 22, p. 70U, 1952.
FRASSER, D. A. S.: «The fiducial method and invariance». Blometrica, 48, pp, 2fi1-280, 1961.
_____: The Structure of lnference. J. Wiley. New York, 1968.
_____: lnference and linear models. McGraw-Hill, 1979.
GALTON, F.: «Regresion tawards mediocrity in hereditary stature». J. Antrho. Inst., 15, p. 246, 1877.
_____;«Family likeness in Stature». Proc. Royal Soc., 40, p. 42, 1886.
_____:«Co-relations and then measurements chiefly from anthropometric data». Proc. Roval Soc•. ,45, p. 135, 1 R88.
GINI, C.: «I pericoli della statistica». Actas de la I reunión científica de la Soc. italiana de Estad. Pisa, 1939. Reimpreso en Questione fondamentali di Proóabilrtá e Statistica, vol. I, Bibliot. di Metrom e Bihliote. di Estad, 1968.
GODAMBE, V. P. , y THC)titPSON, M. E.: «Bayes, fiducial and frequency aspects of statistical inference in regression analysis in survey sampling». J. Roy. Statis. Soc. B., 33, pp. 361-39U,1971.
GOOD, I. G.: Prohuhilitv and the Weighing of Rvidence. Griffin, London, 1950.
GUTIERREZ CABRIA, S.: Bioestadística. Ed. Tebar. Madrid, 1980.
_____:«Origen y desarrollo de la Estadistica en los siglo xvtt y xvnl». Estadfstica Española, núm. 97, octubre-diciembre 1982, 1982.
HODGES, J. L., y LEHAMANN, E.L.: «The use of previous experience in reaching Statistical decisions». Ann. Math. Statis, 23, p. 39fi, 1952.
HOTTELING, H.: «The most predictable criterion». l. Educ. Psichol, 26, p. 239, 1935.
KEYNES, J. M.: «Treatise on probability». 7'he Roy. Econ. Soc. London, 1973.
LINDLEY, D. V.: «Fiducial distributions and Bayes Theorem^>, J. Roy. Stutis. Soc•. B., 20, PP• 102-107, 1958.
MAHALANOBIS, P. C.: «On the generalized distance in Statistics». Proc. Nat. Inst. Sei. India, PP. 12-49, 1936.
MILLE R y STAR.: Fonction de Direction et Recherche Operationelle. Editorial Dunod. Paris, 1964.
NEYMANN, J.: «On the correlatiun of the mean and the Variance in samples drawn from an infinite population». Biometrika, 1H, p. 4U1, 1926.
PEARSON, K.: «On the Criterion that a given System of Deviations from the Probable in the case of a Correlated System of variables in such that it can be reasonably supposed to have arisen from Randon Sampling^. Philosophical Magazine. L, p. 157, 1900.
_____: «On lines and planes of closet fit to systems of points in space». Phil. Nag. 2(6), p. 559, 1902.
POISSON, S. D.: Recherches sur la prohabilité des jugements en matiére civile, precedées des régles générales du calcul des prohahilités. Paris, 1937.
POPPER, K. R.: La lógica de la investigación cienífica. Ed. Tecnos, 1967.
RAIFFA, H., y SCHLAIFER, R. : Applied Statistical Decision Theory. Harward Univ. Press. Boston, 1961
RAMSEY, F. P.: «Truth and Probability». Reeditado en Studies in Subjective Probability. ( Kyburgand Smokler.) J, Wiley, New York, 1926.
REICHENBACH, H.: The theory of prohability. Chicago, Los Angeles, 1949.
ROBBINS, H.: «The empirical Bayes apprvach to statistical decision problems». Ann. Math. Statis., 35, pp. 1-21, 1964.
SAVAGE, L. J.: The founctutions of Statistics. J. Wiley, New York, 1954.
SHA[FER, R.: Prohahilitv und Stutistics for Busines Decisions. MacGraw-Hill, New York, 1959.
STUDENT: «The prohable error of a mean». Biometrika, 6, 1, 1908.
VON NEWMAN., y MORGENSTERN, O.: Theory of games and Economic Behavior. Princeton Univ. Press, 1944.
VON MISSES, R..: «Mathematical theory of probabitity and statistics^. Academic Press, New York, London, 19ó4.
WALD, A.: Sequential Analysis. New York, 1947.
WILKS, S. S.: «Certains generalizations in the analysis of variance». Biometrika, 24, p. 471, 1932.
YULE, G. U.: An Introduction to the Theory of Staristics. Charles Griffin and Co. London, 1912.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería