Ir al contenido principal

LA ESTADÍSTICA Y LOS DIFERENTES PARADIGMAS DE INVESTIGACIÓN EDUCATIVA.



Educar, 10 (1986). 79-101.
 
F. Javier Tejedor
Profesor Catedrático del Área de Métodos de Investigación y Diagnóstico en Educación.
Universidad de Santiago de Compostela.

RESUMEN.

En este trabajo el autor asocia el término paradigma a la perspectiva científica que predomina en un campo determinado y aboga por mantener la denominación «paradigmas racionalista y naturalista» y evitar el planteamiento del problema en términos de «cuantitativo y cualitativo». Analiza las diferencias entre ambos paradigmas y asocia la dicotomía entre los métodos cuantitativos y cualitativos al pensamiento de que existe una vinculación única e inequívoca entre método y paradigma justificando que no existe una relación exclusiva entre método y paradigma.

Se define el método como el conjunto de procedimientos a seguir por toda actividad que aspire a ser científica cuya misión es aportar pruebas empíricas verificables aunque, una vez observado el hecho, el investigador puede afrontar el problema dentro de un marco Hipotético-Deductivo o dentro de un marco Analítico-Inductivo.

Se aportan las características de los métodos cuantitativos y de los métodos cualitativos asociándolos a unas metodologías, diseños y unas técnicas de análisis de datos determinadas y se analizan las diferencias principales entre ambos aportando soluciones para responder a posibles desajustes entre modelos teóricos y esquemas experimentales.

Se fundamenta la Estadística como instrumento principal del estudio pedagógico concreto y se la define como la ciencia que, analizando los datos reales, posibilita el contacto con las estructuras de los sistemas formales. El autor deja claro la no procedencia de «rebajar» las exigencias del análisis estadístico para hacerlo compatible con estrategias cualitativas y apunta la posibilidad y la necesidad de convergencia metodológica de la investigación educativa. Una afirmación rotunda: la investigación más relevante será aquella que contribuyendo a mejorar la práctica, ofrezca hipótesis cuya aplicación pueda verificarse con la propia acción docente al desarrollar el currículum. Esta investigación no puede ser otra que aquella que consiga la adecuada síntesis entre las diversas estrategias metodológicas.

1. PARADIGMAS RACIONALISTA Y NATURALISTA EN LA INVESTIGACIÓN EDUCATIVA: SUS CARACTERÍSTICAS DIFERENCIALES.

Un Paradigma es definido por Khun (1976) como «un conjunto de asunciones interrelacionadas acerca del mundo social que proporciona un marco filosófico y conceptual para el estudio organizado del mundo social».

De acuerdo con Khun, el trabajo día a día de la ciencia se organiza en torno a un paradigma. En este sentido, un paradigma representa una «matriz disciplinar» que comprende los presupuestos, valores, necesidades y ejemplos que constituyen el interés de una disciplina.

Un paradigma sirve como guía para detectar los problemas importantes de una disciplina; para desarrollar esquemas explicativos (modelos y teorías); para establecer criterios apropiados de trabajo (metodología, instrumentos, tipo y forma de recolección de datos,...) para proporcionar las bases epistemológicas a partir de las cuales puede construirse el conocimiento.

Será empleado el término «paradigma», en definitiva, como equivalente a «perspectiva científica» que predomina en un campo determinado.

Aunque la terminología sobre los diferentes paradigmas de investigación educativa es muy variada, entiendo que es el marco referencial en que ahora nos movemos procede mantener la denominación «paradigmas racionalista y naturalista», evitando plantear el problema en términos de «cuantitativo y cualitativo», por considerar que aquella conceptualización responde más propiamente a la clarificación del tema, en tanto que la antinomia cuantitativo vs cualitativo tiene connotaciones más referidas al método y al paradigma (lo que ha supuesto no poca confusión).

La distinción entre los paradigmas racionalista y naturalista conecta con los clásicos enfrentamientos filosóficos entre las escuelas de realismo e idealismo y sus subsiguientes reformulaciones, todas ellas siempre intentando dar respuestas coherentes a una misma cuestión: los caminos a seguir en la construcción del conocimiento.

Por su parte, el realismo y el positivismo lógico asumen que los científicos pueden obtener un conocimiento objetivo del estudio del mundo natural y social; la ciencia natural y social utiliza una metodología básica similar, no en virtud de un mismo objetivo de referencia, sino por emplear la misma lógica y similares procedimientos de investigación. Se considera desde esta perspectiva que el método científico es único y el mismo en todos los campos del saber, residiendo en el método y la unidad de todas las ciencias. No serían los hechos por sí mismos los que hacen la ciencia, sino el método con el que se les trata.

Las diferencias entre los datos de las ciencias sociales y los de las ciencias físicas son más aparentes que reales: «no conocemos los datos físicos más directa objetivamente que los datos sociales, excepto en la medida en que hemos desarrollado instrumentos y símbolos más adecuados para registrar los primeros» (Lumberg, 1968.20).

Por otra parte, la posición idealista, generadora del paradigma naturalista, percibe lo social como la creatividad compartida de los individuos. El mundo se entiende como cambiante, dinámico. No se concibe el mundo como una fuerza externa objetivamente identificable o independiente del hombre. Los individuos son conceptualizados como agentes activos en la construcción de la realidad que ellos van encontrando. Emergen patrones de interacción que permiten interpretar los procesos. Incluye este paradigma la asunción importante de comprender situaciones desde la perspectiva de los participantes en la situación.

El punto de partida básico del paradigma naturalista en la conceptualización del mundo social es el desarrollo de conceptos y teorías que conecten con los datos, pretendiendo descubrir incidentes claros en términos funcionalmente relevantes para colocarlos en relación con un contexto social más extenso, usando el incidente clave como un caso concreto del funcionamiento de los principios abstractos de organización social.

Serán los significados sociales y la insistencia en que estos significados pueden ser sólo examinados en el contexto de las interacciones individuales lo que distingue este paradigma del modelo de investigación de las ciencias naturales. Se entiende que existe una relación dinámica entre la parte sustantiva y la parte metodológica de una disciplina:

-Los problemas concretos determinan el método.
-La utilización de unos determinados métodos influye la solución que se da a los problemas.

Los paradigmas racionalista y naturalista difieren, según opina Guba (1983.149) en los siguientes supuestos básicos:

a). La naturaleza de la realidad. Los racionalista suponen que hay una realidad única, separable o fragmentable en partes manipulables independientemente. Los naturalistas opinan que hay múltiples realidades y que la investigación se diversificara a medida que avanza el conocimiento. Esas múltiples realidades se interrelacionan y el estudio de una parte influye necesariamente en el estudio de las demás.

b). La naturaleza de la relación investigador-objeto: en el paradigma racionalista se refuerza la distancia entre ambos mientras que los naturalistas potencian la relación entre ambos.

c). La naturaleza de los enunciados legales: los racionalistas suponen posibles las generalizaciones, relegando a un segundo plano la acción de influencia del contexto. Centran su atención en la búsqueda de un conocimiento monotético, en la búsqueda de similitudes.

En el paradigma naturalista no se admiten las generalizaciones; se desarrolla un conocimiento ideográfico, centrándose en el estudio de las diferencias, las peculiaridades determinadas por el contexto.

Ambos paradigmas difieren no sólo en los supuestos básicos que acabamos de exponer sino también en determinadas posturas que caracterizan a sus respectivos seguidores. Posturas que relaciona, en opinión de Guba (1983.150), con:

-. Métodos: En el paradigma racionalista predomina la utilización de métodos cuantitativos y en el naturalista de cualitativos. Esta predisposición es tan intensa que a menudo el conflicto que analizamos se ha confundido con el conflicto entre los métodos: no hay razón intrínseca por la que ambos paradigmas no puedan acomodarse y ser desarrollados por ambas metodologías; no hay razones intrínsecas para considerar superior el método del estudio de casos al análisis de encuestas.

-. Criterios de calidad: en el paradigma racionalista el criterio de calidad básico es el rigor, expresado en términos metodológicos de validez externa. Personalmente, propongo la búsqueda de un deseado equilibrio entre ambos tipos de validez (Tejedor, 1981).

-. Fuentes de la teoría: en el paradigma racionalista, existe una teoría previa, hipotética-deductiva; ella genera hipótesis a contrastar. En el naturalista, sólo se valora la teoría que sale de los hechos, la teoría que «toca tierra».

-. Tipo de conocimiento utilizado: unos, los racionalistas, utilizan un conocimiento proposicional, expresable en forma lógica. Otros, un conocimiento táctico, basado en intuiciones, sentimientos; mucho más difícil de expresar, pero la existencia real.

-. Instrumento de investigación: en el paradigma racionalista se «intercalan» los instrumentos entre el investigador y los fenómenos, con el fin de mejorar la fiabilidad y la objetividad del estudio. Los naturalistas se utilizan a sí mismos como instrumentos, perdiendo fiabilidad y objetividad pero ganando flexibilidad.

-. Diseño: en un caso se utilizan diseños preestructurados, esquematizados. En el otro, diseños abiertos emergentes, nunca completos.

-. Escenario: en un caso, el laboratorio. En el otro, la naturaleza. Quizá en este aspecto es donde más esfuerzos se han hecho por eliminar las barreras diferenciadoras. Parece claro que gran parte de la investigación educativa debe realizarse en el aula. Igualmente parece claro la improcedencia de considerar el aula como «laboratorio de investigación». Los esfuerzos de Cronbach (1975), y Cronbach y Snow (1977) y Snow (1980) con su propuesta de estudios ATI pretendían armonizar el escenario con el diseño de investigación.

El análisis de los criterios diferenciales entre ambos paradigmas ha sido objeto de preocupación para no pocos metodólogos (Rist, 1977; Patton, 1978, 1980). Ofrecemos un extracto del esquema presentado por Cook y Reichardt (1979.10):


Paradigma naturalista
Paradigma racionalista
Utilización de métodos cualitativos
Utilización de métodos cuantitativos

Fenomenologismo: comprensión de la conducta humana en un marco de referencia
Positivismo lógico: buscando los hechos o causas de los fenómenos sociales con ligera referencia a los estados subjetivos de los individuos.

Observación naturalista y no controlada
Medidas provocadas y controladas.

Subjetivo
Objetivo.

Orientado al descubrimiento, exploratorio, expansionista, descriptivo e inductivo
Orientado a la verificación, confirmatorio, reduccionista, inferencial e hipotético deductivo.

Orientado al proceso (análisis de procesos)
Orientado al resultado (análisis de resultados).

Válido: real, rico y profundo
Friable: datos replicables.

No generalizable: estudio de casos
Generalizable: estudio con muestras grandes.

Holístico
Particularista.

Asume una realidad dinámica
Asume una realidad estática.


2. EL MÉTODO DE INVESTIGACIÓN COMO ESPECIFICACIÓN DE UN DETERMINADO PARADIGMA.

Ya hemos señalado que en alguna ocasión del debate entre los paradigmas se ha entendido -erróneamente desde mi punto de vista- como un enfrentamiento entre métodos de investigación. Se establece la dicotomía entre los métodos cuantitativos y cualitativos al pensar que existe una vinculación única e inequívoca entre método y paradigma.

El método, entendido en sentido filosófico y en el contexto de la investigación, hace referencia al conjunto de procedimientos a seguir por toda actividad que aspira ser científica.

La misión del método científico es aportar pruebas empíricas verificables (Bayés, 1978). El fenómeno que se estudia debe permitir la reproducibilidad. Para que así suceda hay que destacar dos momentos del proceso:

-. La observación o recogida de datos.
-. La experimentación o establecimiento de evidencia empírica.

Maximizar la fiabilidad de la observación equivale a definir operacionalmente, es decir, indicar lo que hacer para observar un fenómeno enumerando las operaciones necesarias -mediciones y unidad de medida- para reproducirlo.

El procedimiento para conseguir evidencia empírica en el método científico consiste en provocar u observar cambios de una variable (variable independiente) y registrar las posibles alteraciones o falta de ellas en otra variable (variable dependiente) mientras se mantienen controladas otras variables intervinientes.

Cuando los cambios en la variable independiente producen variaciones sistemáticas en la variable dependiente, se dice que existe una relación funcional entre ellas, que si se halla bien establecida recibe el nombre de ley científica.

El momento crucial de la investigación científica lo constituye el momento de la observación, el momento de la recogida de datos. Una vez observado el hecho el investigador pueda afrontar el problema dentro de un marco Hipotético-Deductivo o dentro de un marco Analítico-Inductivo. Veamos cada uno de ellos

a.- Procedimiento Hipotético-Deductivo: el investigador formula una hipótesis como tentativa de solución al problema en el que todos sus términos se encuentran operacionalmente decididos y diseña un experimento u observación controlada para recoger evidencia empírica, que le permita confirmar o rechazar la hipótesis.

Si los datos confirman la hipótesis, considera que ha establecido una relación funcional de un valor predictivo generalmente restringido. Si es rechazada, buscará nuevas hipótesis.

Los investigadores que siguen este procedimiento tras la confirmación de alguna hipótesis de rango inferior, suelen proceder a la elaboración de modelos hipotéticos de ámbito considerable, para posteriormente, traducir cada una de sus partes a hipótesis verificables y someterlas a la prueba de los hechos, rectificando o sustituyendo el modelo si los datos se encuentran en contradicción.

Los partidarios del procedimiento Hipotético-Deductivo destacan la importancia de los modelos como guía de una investigación futura. Todos los modelos poseen unas proposiciones generales (axiomas) de las que por deducción lógica pueden extraerse proposiciones de ámbito más reducido, las cuales permiten formular hipótesis y buscar evidencias de apoyo.

b.-Quienes siguen el procedimiento Analítico-Inductivo, comienzan averiguando si dos variables se encuentran relacionadas funcionalmente en condiciones de riguroso control. Establecida esta relación el investigador postula una generalización inductiva o ley científica y ámbito predictivo limitado. Relacionará posteriormente leyes bien establecidas tratando a alcanzar un grado mayor de generalización.

Los investigadores que siguen esta orientación construyen sus modelos con mucha lentitud, ya que no quieren perder contacto con los hechos. Centran su interés en hallar variables críticas que les permitan efectuar exploraciones sistemáticas.

Por métodos cuantitativos entendemos aquéllos que se encuentran en el ámbito de lo experimental (en un sentido amplio) caracterizado por:

-. Control de las variables intervinientes.
-. Manipulación de las variables independientes.
-. Extracción aleatoria de las muestras.

En su conjunto, y con una aplicación adecuada, los métodos o técnicas experimentales proporcionan resultados de investigación con gran validez interna (seguridad en el resultado obtenido) y escasa validez externa (dificultades de generalización cuando no se produce el control o cuando se crea un ambiente artificial para el estudio).

Campbell y Stanley (1978) escribían:

El método experimental es el único medio de zanjar las disputas relativas a la práctica educacional, única forma de verificar adelantos en el campo pedagógico y único método de acumular un saber al cual puedan introducírsele mejoras sin correr el peligro de que se descarten caprichosamente los conocimientos ya adquiridos a cambio de novedades de inferior calidad... (p. 11).

La dificultad de ejercer un control efectivo sobre la variables intervinientes en el proceso de investigación hizo surgir la alternativa denominada cuasi experimentación caracterizada por:

-. Menor control de la variables intervinientes.
-. Manipulación de las variables independientes.
-. Extracción aleatoria de las puertas.

Se reduce validez interna con el fin de mejorar la validez externa.

Si en la metodología experimental además de reducir el control efectivo sobre las variables, eliminamos la manipulación intencional sobre la variables independientes, estudiando los cambios producidos por ellas una vez que el resultado ya se ha producido, nos encontramos con la modalidad de diseños experimentales denominados «ex-post-facto», caracterizado por:

-. Reducción del control sobre las variables.
-. Cambios naturales (no intencionales) en las variables independientes.
-. Selección parcialmente aleatoria de las muestras a utilizar.

Se tiende a conseguir un mayor equilibrio entre la validez interna y externa. Igualmente se incluyen entre los métodos cuantitativos todas las modalidades de «análisis correlacional», tanto las bivariantes como las multi variantes: regresión y correlación simple, regresión y correlación múltiple, correlación parcial y semi parcial, análisis causal, análisis factoriales (en toda su amplia gama de alternativas metodológicas), análisis discrimínante, análisis canónico, análisis cluster, análisis de correspondencias, análisis de estructuras latentes,...

Como la gama es muy amplia y cada técnica tiene sus propios presupuestos y peculiaridades de aplicación, nos limitamos a características conjuntamente en los siguientes términos:

-No se produce control de variables; se incorporan al estudio todas aquellas que parecen ser importantes, sin más limitaciones que las sugeridas por la teoría, por otros estudios, por el objetivo de evitar lo que en Teoría de la Información se conoce con el nombre de «ruido». Será muy importante, en algunos casos, el orden de entrada de las variables del modelo.

-No se produce manipulación de la variables: se las estudia en forma natural, tal y como se encuentran en el mundo real.

-La selección aleatoria de las muestras es mucho menos restrictiva que en la metodología experimental propiamente dicha.

No se hablará ya tanto de validez interna-externa de los resultados sino que pasará a hablarse de «poder explicativo» del modelo, que vendrá determinado por las posibilidades predictoras del mismo, intentándose lógicamente lograr el mayor poder explicativo con el menor número de variables.

Ya hemos advertido que estas características son excesivamente globales al estar referidas al macro grupo de técnicas correlaciónales. La elección de una u otra dependerá de diversos factores, destacando desde mi punto de vista el objetivo de la investigación.

Tienen cabida igualmente en los métodos cuantitativos los métodos longitudinales y transversales, con todas sus variantes y modalidades. Se utilizan básicamente en los estudios evolutivos y diferenciales.

Bajo el punto de vista del instrumento que proporciona la información básica podemos considerar cuantitativos todos aquellos métodos que trabajan con datos resultantes de la aplicación de instrumentos objetivos: test, escala de medida, cuestionarios,...

La investigación cualitativa, naturalista o etnográfica requiere una metodología sensible a las diferencias, a los procesos singulares y anómalos, a los acontecimientos imprevisibles, al cambio, a las observaciones manifestables y a los significados latentes.

Las diferencias principales respecto a los métodos cuantitativos implican el paso:

-De la generalización estadística a la consideración ideosincrática del comportamiento.

-De la reducción y operacionalización de variables a la consideración holística de la vida peculiar de un sistema abierto, complejo y cambiante.

-Del control de las variables a la observación abierta y flexible de la vida natural.

-Del distanciamiento aséptico del investigador a la participación activa y observación directa de los acontecimientos implicándose en su dinámica.

-De las técnicas objetivas a la observación interactiva y la entrevista.

-Del diseño preestablecido al diseño flexible y emergente de enfoque progresivo.

-Del informe anónimo al reportaje vivo.

Algunas de las características más sobresalientes de este planteamiento metodológico serían:

-Observación participativa, que implica la presencia del investigador en el escenario natural (deberá intentar evitar el subjetivismo valorativo);

-respecto a la complejidad natural se entiende que es ella quien dicta el método,

-utilización de diseños de enfoque progresivo, flexible, elástico y cambiante, adaptándose a los acontecimientos y a la interpretación de su significación;

-investigación en la acción, dimensiones indisociables de un mismo proyecto; sólo así se puede comprender la práctica; la finalidad de la investigación es a la vez explicativa y normativa: se investiga para perfeccionar nuestro conocimiento y fundamentar racionalmente la práctica;

-proceso de triangulación, entendido aquí en sentido restringido como el procedimiento donde tienen cabida las opiniones e impresiones de los diferentes miembros del escenario investigado; su objetivo fundamental es contrarrestar las percepciones subjetivas de los significados e intencionalidades que se generan e intercambian en el aula;

-técnicas flexibles de recogida de información (entrevistas en profundidad, estudio de casos,...);

-se reinterpretan los conceptos de validez, fiabilidad y neutralidad: la validez interna se consigue con la presencia prolongada; la validez, la generalización, se entiende como una osadía científica al ser considerados los fenómenos sociales como situacionales, momentáneos y contextualizados y, sin embargo, no se rechaza la posibilidad de transferencia; la fiabilidad (mejor, la falta de fiabilidad), se convierte el objetivo de estudio, y algo que hay que explicar...

Aunque personalmente juzgo las dos alternativas como válidas para la construcción del saber pedagógico, me interesa ahora manifestar que admito una posibilidad de aproximación gradual a experimentos formales, sobre todo cuando se conocen las variables intervinientes en el proceso en estudio por estudios correlaciónales previos y cuando puede situarse el trabajo experimental en el marco de una teoría, que pueda especificarse mediante modelos formalizados.

Sólo así será posible lograr cotas razonables de validez en las aportaciones experimentales. Me manifiesto en este punto partidario de la corriente de opinión epistemológica que potencia el valor de la teoría, bajo la afirmación de que tanto la experimentación (en todas sus variantes) como los estudios correlaciónales mejorarán si obtienen sus premisas (variables a estudiar) de los estudios teóricos.

Parece claro que es la experiencia, la práctica, quien genera ideas a la investigación; pero que desde un principio hay que situarse en un contexto teórico (la formulación de hipótesis debe suponerlo de hecho), y debe quedar claro que la interpretación de la investigación debe retomar, vía respuesta a la hipótesis, la conceptualización teórica.

Para Van Dalen y Meyer (1978) el hecho de que la investigación pedagógica no se apoye en una teoría es su deficiencia más grave:

«Los fracasos de muchas investigaciones experimentales en educación fueron erróneamente atribuidas al propio método experimental, siendo así que la verdadera fuente de frustración era la inadecuación de la teoría que lo sustentaba o la carencia de la misma».

La experimentación concebida entonces como «cualquier acción llevada a cabo sobre una realidad dada con el fin de suscitar o recoger las consecuencias observables» consistiría, ante todo en una observación guiada por un sistema de abstracciones, inspirado a su vez en modelos teóricos escogidos en calidad de hipótesis. Es pues en la unión del modelo teórico y del diseño experimental, es decir, el esquema que orientan la observación, las medidas y el análisis de datos, lo que debe constituir el procedimiento metodológico fundamental de la Pedagogía, siendo en esta interacción de la deducción y de la experiencia donde radica el carácter general de toda ciencia, tanto natural como humana.

El problema ahora residirá en ajustar el modelo teórico a los esquemas experimentales. No olvidemos que:

-Un modelo teórico que no lleva a interpretaciones concretas verificables no es más que un esquema lógico;

-Un conjunto observaciones, sin estructuración suficiente, se reduce a una simple descripción.

Soluciones posibles para responder a esta situación podrían ser:

a) mejorar el análisis matemático de las variaciones y de las dependencias funcionales, lo que es posible gracias al análisis multivariado, que permite ir más allá de las correlaciones en busca de causas.

b) buscar por debajo de los datos observables el papel de las estructuras en tanto que sistemas de transformación. Éste es el método estructuralista de Levi Strauss que tiene que ir más allá de las causas y busca explicaciones en término de causa y de implicación.

c) coordinar el análisis estructuralista con el análisis evolutivo, entendiendo que la explicación consiste en coordinar la estructura y la génesis.

d) estudiar en una escala inferior fenómenos de la escala superior: estudio de los subsistemas dentro de los sistemas.

e) utilizar la simulación de procesos como recurso alternativo de experimentación, entendiendo que la simulación no es una teoría matemática sino sólo una técnica que permite sustituir por un modelo una teoría que no se sabe traducir matemáticamente o que no se sabe explotar de forma deductiva.

Hemos visto que un paradigma supone un cierto punto de vista filosófico y un cierto tipo de método. En este sentido, el paradigma determina el método. Pero podemos cuestionarnos si esa unión es consustancial o simplemente una unión definitoria y práctica. En otras palabras, ¿hay inconsistencia en suscribir la filosofía de un paradigma empleando los métodos de otro? La respuesta nos vendrá dada por la consideración de los criterios paradigmáticos diferenciales: si estos criterios están vinculados diferencialmente a un tipo de métodos, la unión método-paradigma será consustancial; si por el contrario, no es específica la relación del criterio con un tipo determinado de método, no será procedente establecer una relación exclusiva entre método y paradigma.

Veamos lo que ocurre con algunos de los criterios señalados (Cook y Reichardt, 1979.12-15):

¿Podemos considerar positivistas-lógicos a todos los que utilizan métodos cuantitativos y fenomenologistas a todos los que utilizan métodos cualitativos? Ciertamente, no. Por ejemplo, la teoría psicológica-social de la atribución es fenomenológica porque pretende entender la conducta y necesidades desde la perspectiva del propio sujeto, pero se puede investigar en un laboratorio con métodos cuantitativos.

¿Son las medidas cualitativas necesariamente naturalistas y los procedimientos cuantitativos necesariamente provocados? No. Algunos datos de la observación participante pueden ser «provocados», por ejemplo.

¿Son los procedimientos cualitativos necesariamente subjetivos y los cuantitativos necesariamente objetivos? En términos subjetivos tiene, en este contexto, dos significados diferentes:

-La influencia del juicio humano (bajo este punto de vista todos los métodos son en alguna manera subjetivos)
-la medición de variables latentes, no directamente observables.

No hay razón, creo para asumir que los métodos cualitativos tienen el monopolio de la subjetividad.

¿Son los procedimientos cualitativos necesariamente exploratorios e inductivos y los procedimientos cuantitativos son siempre confirmatorios e hipotético-deductivos? Parece claro que no es correcta esa asociación; parece más correcto pensar que cada forma de analizar los datos permite verificar y generar teorías, aunque cada conjunto de técnicas ponga el énfasis en algunas de estas preocupaciones.

Así pues, los métodos cualitativos no deben utilizarse sólo para descubrir qué pregunta debemos hacernos ni los métodos cuantitativos deben utilizarse exclusivamente para contestarlas. Parece poco realista negar a muchas de las técnicas correlaciónales sus posibilidades exploratorias. Hay infinidad de casos en los que las técnicas cuantitativas han contribuido a generar teorías (Glasser y Straus, 1965). Igualmente casos en los que las técnicas cualitativas definen reglas de evidencia de confirmación de teorías (Barton y Lazarsfeld, 1969; Becker, 1958,...). Campbell (1975) muestra cómo los métodos tecnológicos estudio de casos, de la más pura raigambre cualitativa, pueden contribuir verificar proposiciones teóricas.

¿Se vincula el estudio de los procesos exclusivamente a las técnicas cualitativas y se asocian las técnicas cuantitativas al estudio de los resultados? Son muchos los ejemplos que muestran el estudio de los procesos con técnicas cuantitativas: Campbell (1960, 1970), estudia los procesos con diseños experimentales, la psicología evolutiva estudia los procesos con técnicas cuantitativas (Wohlwill, 1973; Baltes, 1968,...); la psicología cognitiva, centrada básicamente del estudio de los procesos, utiliza técnicas cuantitativas en modelo de simulación...

¿Sólo métodos cualitativos necesariamente válidos y no fiables y los cuantitativos fiables pero no válidos? Parece claro que no; ni la fiabilidad ni la validez son atributos inherentes a un determinado instrumento de medida.

La generalización de resultados, ¿va unida inexcusablemente a la selección aleatoria de la muestra? La generalización estadística, en términos probabilísticos, si. La generalización lógica nunca está suficientemente justificada tanto si está basada en datos cuantitativos como sí lo está en datos cualitativos. Tanto puede ayudar a la generalización una muestra amplia y representativa como estudio comprensivo y en profundidad de un caso. No hay razón para pensar que los resultados de datos cuantitativos son más generalizables que los resultados procedentes de métodos cualitativos.

¿Asumen necesariamente los procedimientos cuantitativos que la realidad es estable? Desde luego es cierto que algunos diseños más elegidos que otros. Pero también es cierto que los diseños cuasi-experimentales de series temporales, por ejemplo, asumen los cambios que se van produciendo a lo largo del tiempo.

Así pues, si no de una manera exclusiva ni de una forma predominante, el investigador que sigue el paradigma racionalista está decidido a descubrir, verificar e identificar relaciones causales entre conceptos que deriva de un esquema teórico. Utiliza técnicas de aleatorización u otras técnicas de muestreo para minimizar el impacto que las variables instrumentales pueden tener en los resultados de la investigación. A menudo un «grupo de control» para analizar si hubo o no influencia del tratamiento con la intervención realizada. Recoge lo datos aplicando pruebas estandarizadas, cuestionarios y entrevistas estructuradas, escalas baremadas,... utiliza procedimientos estadísticos de variada complejidad para analizar esta información.

Por el contrario, un investigador que siga el paradigma naturalista, en lugar de basarse en esquemas teóricos de explicación del fenómeno estudia, prefiere la «teoría» que emerge de los datos mismos, lo cual exige una habilidad especial en el investigador para entender y cuestionar una explicación del fenómeno que sea consistente con lo que ha encontrado en el mundo social. Para elaborar la teoría el investigador intenta encontrar los esquemas explicativos usados por los sujetos bajo estudio; intenta descubrir los conceptos y categorías que son sugeridas por los propios datos. La insistencia sobre esta referencia el mundo diario de los participantes y la comprensión de sus acciones en un contexto determinado, determina las explicaciones que el investigador eventualmente propone. En el desarrollo de estas explicaciones, el investigador naturalista prefiere trabajar «conceptos sensibilizadores» más que ofrecer definiciones operacionales.

El paradigma racionalista emplearía un modelo de «pasos cerrados» de razonamiento lógico-deductivo, definiciones operacionales, colecciones de datos, pruebas de hipótesis y análisis estadísticos. El paradigma naturalista, supone un intercambio dinámico entre teorías, conceptos y datos, con un feedback permanente, y una constante modificación de la teoría y de los conceptos a partir de los nuevos datos que se van integrando en el sistema. Se vincula más con el descubrimiento de una teoría que con la verificación de la misma.

Esta postura ya la criticaba Lundberg en 1942, considerando que las diferencias entre símbolos y técnicas cuantitativas, por un lado, y procedimientos cualitativos, por otro, son de grado. Aquéllos son formas lingüísticas que se han desarrollado para comunicar ciertos tipos de relaciones. Recomendaba a los naturalistas la sustitución paulatina de «procedimientos intuitivos» basados en el sentido común por definiciones operacionales.

3. LA ESTADÍSTICA COMO SOPORTE DE LA INVESTIGACIÓN EDUCATIVA.

Aunque es evidente que en los paradigmas racionalista y naturalista se conciben «realidades diferentes» a la hora de fundamentar sus acciones investigadoras, en ambos casos se puede constatar el interés manifiesto por conseguir que sus respectivos análisis de esa realidad no pierdan credibilidad, aceptando en mayor o menor medida la necesidad de diseñar el fenómeno para proceder a su estudio.

Esta tendencia es mucho más notoria en el paradigma racionalista donde se asume que progresar en el saber en un determinado contexto científico requiere delimitar los problemas, dejando para el final aquéllos respecto de los cuales no se puede llegar a un acuerdo y avanzando en el sentido de que son posibles la objetividad, la comprobación y la verificación.

Las preocupaciones por la objetividad, la comprobación y la verificación de los supuestos que han de ir conformando el cuerpo científico pedagógico pasa por la discusión de un problema previo importante, el problema de la medida.

La medida consiste, en principio, en una valoración de los datos. Y si se recurre al número no es en virtud del prestigio de la matemáticas o de algún prejuicio en favor de la cantidad, que no es más que una relación entre cualidades.

El valor instrumental del número proviene del hecho de que constituye una estructura mucho más rica que la de los principios lógicos de que se compone:

-La inclusión de clases, que preside los sistemas de clasificación.
-El orden, que caracteriza las seriaciones.

El número, en tanto que síntesis de la inclusión y del orden, presenta una riqueza y una movilidad que hacen que sus estructuras sean particularmente útiles en todas las cuestiones de comparación, es decir, de correspondencia e isomofirmo.

Pero el empleo de la medida y la aplicación del número suponen la constitución de «unidades de medida», es decir, la consideración de elementos comunes dejando a un lado sus cualidades diferenciales.

La dificultad mayor de las ciencias del hombre, en tanto que tratan con estructuras de conjunto y no con procesos aislados y particulares, es la ausencia de unidades de medida, bien porque no ha sido posible todavía constituirlas, bien porque las estructuras en cuestión, pudiendo ser de naturaleza lógico-matemática, no poseen caracteres propiamente numéricos.

Este carácter numérico de las estructuras conceptuales de las ciencias del hombre ha sido motivo de reflexión de numerosos pensadores.

Para B. Russell (1937), medida de magnitud es, en su sentido más general, «cualquier método por medio del cual se establece una única y recíproca correspondencia entre todas o algunas de las magnitudes de una clase y todos o algunos de los números, racionales o reales, según los casos».

Para Campbell (1940), medida es «la asignación de números a la representación de propiedades de los sistemas materiales no numéricos, en virtud de las reglas que rigen esas propiedades».

Para Stevens (1978), medida es «la asignación de números a los objetos o hechos, en función de unas determinadas reglas».

Estas tres definiciones, de alguna manera, vienen a resumir casi todas las dadas. Pese a su aparente similaridad son radicalmente diferentes: para Russell los números se corresponden con magnitudes; para Campbell los números se corresponden con las propiedades de los sistemas materiales; para Stevens, los números se corresponden con los objetos. Para los dos primeros la magnitud es parte de las propiedades de un sistema. Pero Stevens habla de objetos o hechos, no de propiedades.

Campbell entiende que toda ciencia comporta una pluralidad de sistemas teóricos, ligados o no entre sí. Pero una ciencia de la realidad plantea la exigencia de que alguno de sus sistemas tengan ligazón con los componentes de la realidad, observables empíricamente y medibles y que van a posibilitar la verificación de los sistemas que constituyen el acervo teórico de esa ciencia.

Es decir, cada sistema teórico podrá estar o no ligado con los demás, pero alguno de ellos deberá estar ligado con la experiencia.

Torgeson (1958) denomina «modelo» a un conjunto de sistemas teóricos ligados. A la relación posible entre los modelos y la conexión de alguno de ellos con experiencia es a lo que denominamos «teoría».

Estos sistemas relacionados con la realidad lo que hacen es asignar números a los conceptos que contienen. Conceptos que por pertenecer al ámbito empírico son denominados por Campbell «propiedades».

Sistemas y propiedades constituye entonces el entramado de cualquier ciencia. Y el punto de partida será que sólo las propiedades son susceptibles de medida; y por tanto, únicamente ser extensible la medida respecto a aquellos sistemas relacionados con la realidad.

Los números reales, que son usados para medir, presentan la propiedades de orden, distancia y origen. Tomando como base el orden y combinados debidamente dará lugar a lo nivel de medición ordinal, de intervalos y de razón.

Stevens, que incorpora el nivel de medición nominal, introduce la teoría del escalamiento entendiendo que hay isomofirmo entre las relaciones empíricas de los objetos y las propiedades sistema formal, por una parte, y por otra, entre las series numerales y las operaciones empíricas a realizar. La estructura del método de asignación de números en las observaciones debe ser isomórfica con algún tipo de estructura numérica, de tal forma que con los números se pueden realizar operaciones que nos proporcionen un nuevo tipo información acerca de los fenómenos observados.

El criterio seguido por Stevens (1976) para establecer los cuatro tipos de escalas es el denominado «principio de invarianza», es decir, el tipo de transformaciones que permite una escala sin que se altere su estructura. Es precisamente este principio de invarianza lo que determina el tipo de cálculo estadístico que pueda hacerse con los datos, definiendo para cada escala:

-Operaciones empíricas básicas.
-Estructura matemática de grupo.
-Estadísticos aplicables.

En esa referencia de Stevens a las relaciones empíricas se ha basado la denominada «teoría representacional» propuesta como fundamento de la medida en el Congreso para el avance de la ciencia y la tecnología (Moscú, 1979). En la teoría representacional los símbolos asignados a los objetos deben representar las relaciones percibidas entre los atributos de los objetos.

Se construye dicha teoría sobre los conceptos básicos: el del sistema relacional y el de homomorfismo entre sistema relacionales. Abordará tres tipos de problemas: representación, unicidad y significación.

A nivel práctico, implica una reconsideración de los errores observados en la medición y una flexibilización de los modelos, haciéndolos probabilísticos, y entendiendo que las estructuras métricas propiamente dichas no agotan las estructuras lógico-matemáticas, pues hay muchas variedades de isomorfirmos además de las correspondencias numéricas. Proponen la utilización de instrumentos y estructuras lógico matemáticas más flexibles, que se escalonen desde los modelos probabilísticos a los modelos de la lógica algebraica, pasando por los modelos cibernéticos. Donde no se pueda contar con la medida en sentido estricto, deberá recurrirse a las escalas de ordenación jerárquica de Guttman (1950) o a la gama de escalas híper ordinales, a caballo entre la clasificación nominal y las escalas métricas y aplicables cuando los intervalos entre los valores no son equivalentes pero puede estimarse su magnitud relativa.

La Estadística, al proporcionarnos la medida de los fenómenos aparece como instrumento principal del estudio pedagógico concreto.

Y habrá de ser entendida como la ciencia que, analizando los datos reales, posibilita el contacto con las estructuras de los sistemas formales, poniendo en juego el doble proceso de inducción-deducción.

El científico empírico que emplea modelos estadísticos intenta hallar una correspondencia entre el sistema formal y su campo de interés empírico; establece unos supuestos (axiomas de ciertos modelos matemáticos) de tal forma que las deducciones efectuadas a partir del modelo estadístico son válidas para interpretar el mundo real en la medida en que se cumplan dichos supuestos.

Los procesos empíricos que determinan la variabilidad de los resultados de la observación reciben el nombre de fenómenos aleatorios y, desde una perspectiva formal, es la probabilidad la disciplina matemática que se ocupa del estudio de los fenómenos aleatorios.

Puesto que es una disciplina matemática, la probabilidad integra los fenómenos aleatorios en una estructura lógica con sus términos definidos e indefinidos, sus axiomas y los diversos teoremas deducidos de otras partes de la estructura.

Un sistema de axiomas matemáticos constituye el modelo de una clase de fenómenos científicos cuando es posible traducir de algún modo los conceptos y axiomas de sistema matemático a los términos y relaciones del campo empírico.

Será a partir del cálculo de probabilidades cuando la estadística se convierta en un instrumento de análisis extremadamente útil para el estudio de los fenómenos económicos, sociales, psicológicos, pedagógicos,..., y, en general, para el estudio de los fenómenos cuyos casos son demasiado complejos para conocerlos totalmente y hacer posible su análisis.

Las etapas que han permitido la «revolución estadística» podían esquematizarse de la siguiente forma:

-La publicación en 1713 del «Arsd Conjectandi» de Bernouilli, que comprende la ley de los grandes números.
-La publicación de la memoria de Bayes, en 1763.
-La publicación de la obra «Teoría analítica de probabilidades» de Laplace en 1812 y los trabajos de Gauss por la misma época.
-La obra de Quetelet, abre el camino a la investigación de leyes en el campo de las ciencias humanas.
-La obra de Pearson, fundador de la estadística moderna, dotando a la estadística de los elementos aplicables a las diferentes ramas de la ciencia.

Gran parte de la obra posterior está basada en los trabajos de Pearson: Student, Sheppard, Yule, Kendall, Fisher,...

El nexo de unión entre la estadística enumerativa y el análisis estadístico es la teoría de la probabilidad.

Respecto a ella no hay duda en aceptar desde el punto de vista formal, los fundamentos del cálculo de probabilidades dentro del marco armonioso y bello de la axiomática de Kolmogorov.

Al pasar al plano interpretativo se oponen los conceptos de:

Cálculo de probabilidades: teoría puramente matemática que tiene por objeto deducir una serie de consecuencias de un cierto sistema axiomático.

Teoría de probabilidades: ciencia mitad matemática mitad filosófica destinada a proporcionar un contenido secreto al concepto de probabilidad.

En la búsqueda del equilibrio «deducción-inducción» surgen dos escuelas a menudo denominadas:

Objetivistas o frecuentistas, que deducen la probabilidad de la noción de frecuencia tras la observación de series de datos para definirla como «la frecuencia relativa de un suceso en un espacio muestral».

Subjetivistas o intuicionistas, que extienden la noción de probabilidad a todo lo que es incierto. Entienden que el cálculo de probabilidades es una esquematización de los mecanismos de un hombre con sentido común que razona sobre los elementos de los que sólo tiene una idea imperfecta. Hablan del grado de credulidad racional, es decir, de la verosimilitud.

Los bayesianos suelen ser intuicionistas, aunque no necesariamente. Desde luego el paso de la probabilidad a priori a la probabilidad a posteriori se lleva a cabo mediante el proceso de Bayes.

Para los subjetivistas, la probabilidad representa una relación entre una aserción y un cuerpo de evidencia. Pero esta relación no es puramente lógica, si acaso, casi-lógica. El número que se le asigna representa el grado de creencia, que difiere según el grado de evidencia de la persona que hace la asignación.

A partir de estos presupuestos parece claro que la estadística es, en efecto, un método de descripción cuantitativa que utiliza el número como soporte objetivo. Se opone a los métodos de descripción facultativa, más ricos y más matizados en el detalle pero limitados por su carácter impreciso y subjetivo.

Claro debe quedar igualmente la no procedencia de «rebajar» las exigencias del análisis estadístico para hacerlo compatible con estrategias cualitativas: el tratamiento estadístico de las variables nominales y ordinales tiene los mismos fundamentos matemáticos y probabilístico que el requerido por las variables que responden a los niveles superiores de medición. La estadística no-paramétrica, de utilización sugerida por algunos detractores de las pautas cuantitativas, responde a supuestos y planteamientos de naturaleza en modo alguno diferente a la de las técnicas para métricas, e incluso, en no pocos casos, con fundamentación probabilística mucho más rígida que la requerida por otros modelos estadísticos.

No es la vía de «descafeinar» la utilización de las técnicas estadísticas por donde debe producirse la convergencia metodológica que propugnamos en el apartado siguiente.

4. POSIBILIDAD DE CONVERGENCIA METODOLÓGICA EN LA INVESTIGACIÓN EDUCATIVA

Quizá sea en la necesaria proyección de los resultados de la investigación a la práctica educativa donde más claramente se ponga de manifiesto la necesaria convergencia entre las diferentes actitudes metodológicas presentadas.

Es preciso un tipo de investigación unida a proyectos de innovación que incluya la participación de profesores e investigadores en el marco de una política curricular. Esto no significa a mi entender más que una síntesis perfecta entre los paradigmas racionalista y naturalista, entre los métodos cuantitativos y cualitativos.

La investigación más relevante será aquella que, contribuyendo a mejorar la práctica, ofrezca hipótesis cuya aplicación pueda verificarse con la propia acción docente al desarrollar el currículum. Esta investigación no puede ser otra que aquella que consiga la adecuada síntesis entre las diversas estrategias metodológicas.

Parece razonable perseguir equilibradamente el rigor y la relevancia. Los conocimientos tácticos y proposicionales son útiles y, quizá, el distintivo de los investigadores competentes resida en intentar reducir el conocimiento tácito en proposicional. La psicología preconizó en los años 60 la constitución de la síntesis metodológica en términos muy similares: aunar en un mismo esfuerzo el rigor del psicómetra-experimentalista y la intuición del clínico.

El retraso que se está produciendo en conseguir la confluencia metodológica en el ámbito educativo es el más claro indicador del permanente estado de cuestionamiento científico de nuestro quehacer.

¿A qué se debe esta falta de confluencia? No sólo a las dificultades para experimentar, y también en otras ciencias, sino al conformismo y a la complacencia que hemos sentido y la utilización predominante, cuando no exclusiva, del método deductivo.

¿Puede una disciplina que utiliza el método deductivo exclusivamente calificarse de científica?

Formalmente creo que no. Pero también creo que la utilización del método deductivo es un paso necesario para que una disciplina pueda acceder al estatus científico. No hay que olvidar que se han desarrollado antes las disciplinas deductivas que las experimentales. Y ello porque:

a. El hombre tiende por naturaleza a recibir dignamente lo real y a deducir, pero no a experimentar, ya que la experimentación, a diferencia de la deducción, no es una construcción libre o espontánea.

b. En el terreno deductivo, las operaciones más elementales o más primitivas son las más simples: reunir, ordenar, corresponder,.... En cambio en el dominio experimental el dato inmediato es de gran complejidad.

c. Es imposible llegar al hecho experimental, que implica una acción sobre lo real, sin una estructuración lógica o matemática y por tanto hace falta disponer de un cierto número de modelos deductivos antes de poder experimentar y para poder hacerlo.

La falta de convergencia metodológica y la dificultad del avance de la Pedagogía en su conformación científica y está produciendo un rechazo, un alto grado de dependencia respecto a otras ciencias (Psicología, Sociología,...).

Las posturas que preconizan la «ruptura», provenientes casi exclusivamente del sector naturalista, se fundamentan en la negación del determinismo, en la no aceptación de aproximaciones explicativas simples a fenómenos complejos y cuestionamiento permanente de la objetividad. Creo que estas posturas son, por intransigentes, desafortunadas.

BIBLIOGRAFÍA.

BALTESP, .B. (1968): «Longitudinal and cross sectional sequences in the study of age and generation effects». Human Development 11, 145-171.
BARTON, A .H. y LAZARSFELP, P. F., . (1969): «Some functions of qualitative analysis in social researchn, en G.J. McCALL y J.L. SIMMONS (eds) Issues in participant observations: A test and reader. Reading, Mass Addison-Wesley.
BAXES,  R . (1978): Una introducción al método científico en psicología. Barcelona, Fontanella.
BECKER, H.S. (1958): «Problems of inference and proof in participant observation», American Sociological Review, 169, 652-660.
CAMPBELL, D. T . (1960): «Blind variation and selective retention in creative thought as in other knowledge processes», Psychological Reviews, 67, 380-400.
CAMPBELL, D.T . (1970): «Considering the case against experimental evaluations of social innovations». Administrative Science Quarterly, 15, 110-1 13.
CAMPBELL, D.T . (1975): «Degrees of freedom and the case study», Comparative Political Studies, 8, 2, 178-193.
CAMPBELL, D. y STANLEY, J., (1978): Diseños experimentales y cuasiexperimentales en la investigación social. Buenos Aires, Amorrortu.
CAMPBELL,N,. R. (1940): «Final Report», Advance Science, 2, 331-349.
COOK,T .D. y REICHARDT., C.H.S. (1979): Qualitative and Quantitative methods in Evaluation research. Beverly Hills, California Sage Publ.
CRONBACH, L.,J . (1975): «Beyond the two disciplines of scientific psychology» American Psychologist, 30, 116-127.
CRONBACH, L,. J. y SNOW,R .E. (1977): Aptitude and instructional methods. New York, Irving Publ.
GLASSER, B,. y STRAUSS, A. L. (1965): «Discovery of substantive theory: a basic strategy underlying qualitative research», American Behavioral Scientist, 8, 5-12.
GUBA, E .G. (1983): «Criterios de credibilidad en la investigacion naturalista», en GIMENO, J. y PEREZ GOMEZ, A.: La enseñanza: su teoria y supractica, Madrid,
Akal, pp. 148-165.
GUTTMAN, L., (1950): «The problem of attitude and opinion measurement: the basis for scalogram analysis», en Stonffer, S.A. Measurement andprediction, New York, Princeton University Press.
KHUN, T.S. (1975, e.0. 1962): La estructura de las revoluciones cientVicas, Madrid. Fondo de Cultura Economica.
LUNDBERG, G,.A . (1968, e.0. 1942): Social research, New York, Greenwood Press. 101
PATTON, M, Q. (1978): Utilization-Focusede valuation, Beverly Hills, California, Sage Publ.
PATTON, M.Q. (1980): Qualitative evaluation methods, Beverly Hills, California, Sage Publ.
RIST, R.C. (1977): «On the relations among educational research paradigms: from disdain to detente», Antropology and Education Quarterly, 8, 42-49.
RUSSELL, B, . (1937): The principle of Mathematics, New York, Norton.
SNOW, R.E. (1980): Aptitude, learning and instruction: cognitiveprocesses analysis of aptitude. Vol I Hillsdale, New York, Lawrence and Erlbaum.
STEVENS, S. S. (1976, e.0. 1951): «Matemáticas y medición», en WAINERMAN C.H.: Escalas de medición en ciencias sociales, Buenos Aires, Nueva Visión, 17-74.
TEJEDORF,. J. (1981): «Validez interna y externa en los diseños experimentales», Revista Española de Pedagogía, 151, Enero-Marzo, PP. 15-39.
TORGENSON, W, . (1958): Theory and methods of scaling, New York, Wiley.
VAN DALEN, D .B. y MEYER, W, .J. (1978): Manual de Técnica de la investigación educacional, Buenos Aires, Paidos.
WOHLWILL, J.,F . (1973): The study of behavioral development, New York. Academic Press.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería