Educar, 10 (1986).
79-101.
F. Javier Tejedor
Profesor Catedrático
del Área de Métodos de Investigación y Diagnóstico en Educación.
Universidad de
Santiago de Compostela.
RESUMEN.
En este trabajo el autor asocia el término
paradigma a la perspectiva científica que predomina en un campo determinado y
aboga por mantener la denominación «paradigmas racionalista y naturalista» y
evitar el planteamiento del problema en términos de «cuantitativo y
cualitativo». Analiza las diferencias entre ambos paradigmas y asocia la
dicotomía entre los métodos cuantitativos y cualitativos al pensamiento de que
existe una vinculación única e inequívoca entre método y paradigma justificando
que no existe una relación exclusiva entre método y paradigma.
Se define el método como el conjunto de
procedimientos a seguir por toda actividad que aspire a ser científica cuya
misión es aportar pruebas empíricas verificables aunque, una vez observado el
hecho, el investigador puede afrontar el problema dentro de un marco
Hipotético-Deductivo o dentro de un marco Analítico-Inductivo.
Se aportan las características de los métodos
cuantitativos y de los métodos cualitativos asociándolos a unas metodologías,
diseños y unas técnicas de análisis de datos determinadas y se analizan las
diferencias principales entre ambos aportando soluciones para responder a
posibles desajustes entre modelos teóricos y esquemas experimentales.
Se fundamenta la Estadística como instrumento
principal del estudio pedagógico concreto y se la define como la ciencia que,
analizando los datos reales, posibilita el contacto con las estructuras de los
sistemas formales. El autor deja claro la no procedencia de «rebajar» las
exigencias del análisis estadístico para hacerlo compatible con estrategias
cualitativas y apunta la posibilidad y la necesidad de convergencia
metodológica de la investigación educativa. Una afirmación rotunda: la
investigación más relevante será aquella que contribuyendo a mejorar la
práctica, ofrezca hipótesis cuya aplicación pueda verificarse con la propia
acción docente al desarrollar el currículum. Esta investigación no puede ser
otra que aquella que consiga la adecuada síntesis entre las diversas
estrategias metodológicas.
1. PARADIGMAS
RACIONALISTA Y NATURALISTA EN LA INVESTIGACIÓN EDUCATIVA: SUS CARACTERÍSTICAS
DIFERENCIALES.
Un Paradigma es definido por Khun (1976) como
«un conjunto de asunciones interrelacionadas acerca del mundo social que
proporciona un marco filosófico y conceptual para el estudio organizado del
mundo social».
De acuerdo con Khun, el trabajo día a día de
la ciencia se organiza en torno a un paradigma. En este sentido, un paradigma
representa una «matriz disciplinar» que comprende los presupuestos, valores,
necesidades y ejemplos que constituyen el interés de una disciplina.
Un paradigma sirve como guía para detectar
los problemas importantes de una disciplina; para desarrollar esquemas
explicativos (modelos y teorías); para establecer criterios apropiados de
trabajo (metodología, instrumentos, tipo y forma de recolección de datos,...)
para proporcionar las bases epistemológicas a partir de las cuales puede
construirse el conocimiento.
Será empleado el término «paradigma», en
definitiva, como equivalente a «perspectiva científica» que predomina en un
campo determinado.
Aunque la terminología sobre los diferentes
paradigmas de investigación educativa es muy variada, entiendo que es el marco
referencial en que ahora nos movemos procede mantener la denominación
«paradigmas racionalista y naturalista», evitando plantear el problema en
términos de «cuantitativo y cualitativo», por considerar que aquella
conceptualización responde más propiamente a la clarificación del tema, en
tanto que la antinomia cuantitativo vs cualitativo tiene connotaciones más
referidas al método y al paradigma (lo que ha supuesto no poca confusión).
La distinción entre los paradigmas racionalista
y naturalista conecta con los clásicos enfrentamientos filosóficos entre las
escuelas de realismo e idealismo y sus subsiguientes reformulaciones, todas
ellas siempre intentando dar respuestas coherentes a una misma cuestión: los
caminos a seguir en la construcción del conocimiento.
Por su parte, el realismo y el positivismo
lógico asumen que los científicos pueden obtener un conocimiento objetivo del
estudio del mundo natural y social; la ciencia natural y social utiliza una
metodología básica similar, no en virtud de un mismo objetivo de referencia,
sino por emplear la misma lógica y similares procedimientos de investigación.
Se considera desde esta perspectiva que el método científico es único y el
mismo en todos los campos del saber, residiendo en el método y la unidad de
todas las ciencias. No serían los hechos por sí mismos los que hacen la
ciencia, sino el método con el que se les trata.
Las diferencias entre los datos de las
ciencias sociales y los de las ciencias físicas son más aparentes que reales:
«no conocemos los datos físicos más directa objetivamente que los datos
sociales, excepto en la medida en que hemos desarrollado instrumentos y
símbolos más adecuados para registrar los primeros» (Lumberg, 1968.20).
Por otra parte, la posición idealista,
generadora del paradigma naturalista, percibe lo social como la creatividad
compartida de los individuos. El mundo se entiende como cambiante, dinámico. No
se concibe el mundo como una fuerza externa objetivamente identificable o
independiente del hombre. Los individuos son conceptualizados como agentes
activos en la construcción de la realidad que ellos van encontrando. Emergen
patrones de interacción que permiten interpretar los procesos. Incluye este
paradigma la asunción importante de comprender situaciones desde la perspectiva
de los participantes en la situación.
El punto de partida básico del paradigma
naturalista en la conceptualización del mundo social es el desarrollo de
conceptos y teorías que conecten con los datos, pretendiendo descubrir incidentes
claros en términos funcionalmente relevantes para colocarlos en relación con un
contexto social más extenso, usando el incidente clave como un caso concreto
del funcionamiento de los principios abstractos de organización social.
Serán los significados sociales y la
insistencia en que estos significados pueden ser sólo examinados en el contexto
de las interacciones individuales lo que distingue este paradigma del modelo de
investigación de las ciencias naturales. Se entiende que existe una relación
dinámica entre la parte sustantiva y la parte metodológica de una disciplina:
-Los problemas concretos determinan el
método.
-La utilización de unos determinados métodos
influye la solución que se da a los problemas.
Los paradigmas racionalista y naturalista
difieren, según opina Guba (1983.149) en los siguientes supuestos básicos:
a). La naturaleza de la realidad. Los
racionalista suponen que hay una realidad única, separable o fragmentable en
partes manipulables independientemente. Los naturalistas opinan que hay
múltiples realidades y que la investigación se diversificara a medida que
avanza el conocimiento. Esas múltiples realidades se interrelacionan y el
estudio de una parte influye necesariamente en el estudio de las demás.
b). La naturaleza de la relación
investigador-objeto: en el paradigma racionalista se refuerza la distancia
entre ambos mientras que los naturalistas potencian la relación entre ambos.
c). La naturaleza de los enunciados legales:
los racionalistas suponen posibles las generalizaciones, relegando a un segundo
plano la acción de influencia del contexto. Centran su atención en la búsqueda
de un conocimiento monotético, en la búsqueda de similitudes.
En el paradigma naturalista no se admiten las
generalizaciones; se desarrolla un conocimiento ideográfico, centrándose en el
estudio de las diferencias, las peculiaridades determinadas por el contexto.
Ambos paradigmas difieren no sólo en los
supuestos básicos que acabamos de exponer sino también en determinadas posturas
que caracterizan a sus respectivos seguidores. Posturas que relaciona, en
opinión de Guba (1983.150), con:
-. Métodos: En el paradigma
racionalista predomina la utilización de métodos cuantitativos y en el
naturalista de cualitativos. Esta predisposición es tan intensa que a menudo el
conflicto que analizamos se ha confundido con el conflicto entre los métodos:
no hay razón intrínseca por la que ambos paradigmas no puedan acomodarse y ser
desarrollados por ambas metodologías; no hay razones intrínsecas para
considerar superior el método del estudio de casos al análisis de encuestas.
-. Criterios de calidad: en el
paradigma racionalista el criterio de calidad básico es el rigor, expresado en
términos metodológicos de validez externa. Personalmente, propongo la búsqueda
de un deseado equilibrio entre ambos tipos de validez (Tejedor, 1981).
-. Fuentes de la teoría: en el
paradigma racionalista, existe una teoría previa, hipotética-deductiva; ella
genera hipótesis a contrastar. En el naturalista, sólo se valora la teoría que
sale de los hechos, la teoría que «toca tierra».
-. Tipo de conocimiento utilizado:
unos, los racionalistas, utilizan un conocimiento proposicional, expresable en
forma lógica. Otros, un conocimiento táctico, basado en intuiciones,
sentimientos; mucho más difícil de expresar, pero la existencia real.
-. Instrumento de investigación: en el
paradigma racionalista se «intercalan» los instrumentos entre el investigador y
los fenómenos, con el fin de mejorar la fiabilidad y la objetividad del
estudio. Los naturalistas se utilizan a sí mismos como instrumentos, perdiendo
fiabilidad y objetividad pero ganando flexibilidad.
-. Diseño: en un caso se utilizan
diseños preestructurados, esquematizados. En el otro, diseños abiertos
emergentes, nunca completos.
-. Escenario: en un caso, el
laboratorio. En el otro, la naturaleza. Quizá en este aspecto es donde más
esfuerzos se han hecho por eliminar las barreras diferenciadoras. Parece claro
que gran parte de la investigación educativa debe realizarse en el aula.
Igualmente parece claro la improcedencia de considerar el aula como
«laboratorio de investigación». Los esfuerzos de Cronbach (1975), y Cronbach y
Snow (1977) y Snow (1980) con su propuesta de estudios ATI pretendían armonizar
el escenario con el diseño de investigación.
El análisis de los criterios diferenciales
entre ambos paradigmas ha sido objeto de preocupación para no pocos metodólogos
(Rist, 1977; Patton, 1978, 1980). Ofrecemos un extracto del esquema presentado
por Cook y Reichardt (1979.10):
Paradigma
naturalista
|
Paradigma
racionalista
|
Utilización de
métodos cualitativos
|
Utilización de
métodos cuantitativos
|
Fenomenologismo:
comprensión de la conducta humana en un marco de referencia
|
Positivismo lógico:
buscando los hechos o causas de los fenómenos sociales con ligera referencia
a los estados subjetivos de los individuos.
|
Observación
naturalista y no controlada
|
Medidas provocadas
y controladas.
|
Subjetivo
|
Objetivo.
|
Orientado al
descubrimiento, exploratorio, expansionista, descriptivo e inductivo
|
Orientado a la
verificación, confirmatorio, reduccionista, inferencial e hipotético
deductivo.
|
Orientado al
proceso (análisis de procesos)
|
Orientado al
resultado (análisis de resultados).
|
Válido: real, rico
y profundo
|
Friable: datos
replicables.
|
No generalizable:
estudio de casos
|
Generalizable:
estudio con muestras grandes.
|
Holístico
|
Particularista.
|
Asume una realidad
dinámica
|
Asume una realidad
estática.
|
2. EL MÉTODO DE
INVESTIGACIÓN COMO ESPECIFICACIÓN DE UN DETERMINADO PARADIGMA.
Ya hemos señalado que en alguna ocasión del
debate entre los paradigmas se ha entendido -erróneamente desde mi punto de
vista- como un enfrentamiento entre métodos de investigación. Se establece la
dicotomía entre los métodos cuantitativos y cualitativos al pensar que existe
una vinculación única e inequívoca entre método y paradigma.
El método, entendido en sentido filosófico y
en el contexto de la investigación, hace referencia al conjunto de
procedimientos a seguir por toda actividad que aspira ser científica.
La misión del método científico es aportar
pruebas empíricas verificables (Bayés, 1978). El fenómeno que se estudia debe
permitir la reproducibilidad. Para que así suceda hay que destacar dos momentos
del proceso:
-. La observación o recogida de datos.
-. La experimentación o establecimiento de
evidencia empírica.
Maximizar la fiabilidad de la observación
equivale a definir operacionalmente, es decir, indicar lo que hacer para
observar un fenómeno enumerando las operaciones necesarias -mediciones y unidad
de medida- para reproducirlo.
El procedimiento para conseguir evidencia
empírica en el método científico consiste en provocar u observar cambios de una
variable (variable independiente) y registrar las posibles alteraciones o falta
de ellas en otra variable (variable dependiente) mientras se mantienen
controladas otras variables intervinientes.
Cuando los cambios en la variable
independiente producen variaciones sistemáticas en la variable dependiente, se
dice que existe una relación funcional entre ellas, que si se halla bien
establecida recibe el nombre de ley científica.
El momento crucial de la investigación
científica lo constituye el momento de la observación, el momento de la
recogida de datos. Una vez observado el hecho el investigador pueda afrontar el
problema dentro de un marco Hipotético-Deductivo o dentro de un marco
Analítico-Inductivo. Veamos cada uno de ellos
a.- Procedimiento Hipotético-Deductivo: el
investigador formula una hipótesis como tentativa de solución al problema en el
que todos sus términos se encuentran operacionalmente decididos y diseña un
experimento u observación controlada para recoger evidencia empírica, que le
permita confirmar o rechazar la hipótesis.
Si los datos confirman la hipótesis,
considera que ha establecido una relación funcional de un valor predictivo
generalmente restringido. Si es rechazada, buscará nuevas hipótesis.
Los investigadores que siguen este
procedimiento tras la confirmación de alguna hipótesis de rango inferior,
suelen proceder a la elaboración de modelos hipotéticos de ámbito considerable,
para posteriormente, traducir cada una de sus partes a hipótesis verificables y
someterlas a la prueba de los hechos, rectificando o sustituyendo el modelo si
los datos se encuentran en contradicción.
Los partidarios del procedimiento
Hipotético-Deductivo destacan la importancia de los modelos como guía de una
investigación futura. Todos los modelos poseen unas proposiciones generales
(axiomas) de las que por deducción lógica pueden extraerse proposiciones de
ámbito más reducido, las cuales permiten formular hipótesis y buscar evidencias
de apoyo.
b.-Quienes siguen el procedimiento
Analítico-Inductivo, comienzan averiguando si dos variables se encuentran
relacionadas funcionalmente en condiciones de riguroso control. Establecida
esta relación el investigador postula una generalización inductiva o ley científica
y ámbito predictivo limitado. Relacionará posteriormente leyes bien
establecidas tratando a alcanzar un grado mayor de generalización.
Los investigadores que siguen esta
orientación construyen sus modelos con mucha lentitud, ya que no quieren perder
contacto con los hechos. Centran su interés en hallar variables críticas que
les permitan efectuar exploraciones sistemáticas.
Por métodos cuantitativos entendemos aquéllos
que se encuentran en el ámbito de lo experimental (en un sentido amplio)
caracterizado por:
-. Control de las variables intervinientes.
-. Manipulación de las variables
independientes.
-. Extracción aleatoria de las muestras.
En su conjunto, y con una aplicación
adecuada, los métodos o técnicas experimentales proporcionan resultados de
investigación con gran validez interna (seguridad en el resultado obtenido) y
escasa validez externa (dificultades de generalización cuando no se produce el
control o cuando se crea un ambiente artificial para el estudio).
Campbell y Stanley (1978) escribían:
El método experimental es el único medio de
zanjar las disputas relativas a la práctica educacional, única forma de
verificar adelantos en el campo pedagógico y único método de acumular un saber
al cual puedan introducírsele mejoras sin correr el peligro de que se descarten
caprichosamente los conocimientos ya adquiridos a cambio de novedades de
inferior calidad... (p. 11).
La dificultad de ejercer un control efectivo
sobre la variables intervinientes en el proceso de investigación hizo surgir la
alternativa denominada cuasi experimentación caracterizada por:
-. Menor control de la variables
intervinientes.
-. Manipulación de las variables
independientes.
-. Extracción aleatoria de las puertas.
Se reduce validez interna con el fin de
mejorar la validez externa.
Si en la metodología experimental además de
reducir el control efectivo sobre las variables, eliminamos la manipulación
intencional sobre la variables independientes, estudiando los cambios producidos
por ellas una vez que el resultado ya se ha producido, nos encontramos con la
modalidad de diseños experimentales denominados «ex-post-facto», caracterizado
por:
-. Reducción del control sobre las variables.
-. Cambios naturales (no intencionales) en las
variables independientes.
-. Selección parcialmente aleatoria de las
muestras a utilizar.
Se tiende a conseguir un mayor equilibrio
entre la validez interna y externa. Igualmente se incluyen entre los métodos
cuantitativos todas las modalidades de «análisis correlacional», tanto las
bivariantes como las multi variantes: regresión y correlación simple, regresión
y correlación múltiple, correlación parcial y semi parcial, análisis causal,
análisis factoriales (en toda su amplia gama de alternativas metodológicas),
análisis discrimínante, análisis canónico, análisis cluster, análisis de
correspondencias, análisis de estructuras latentes,...
Como la gama es muy amplia y cada técnica
tiene sus propios presupuestos y peculiaridades de aplicación, nos limitamos a
características conjuntamente en los siguientes términos:
-No se produce control de variables; se
incorporan al estudio todas aquellas que parecen ser importantes, sin más
limitaciones que las sugeridas por la teoría, por otros estudios, por el objetivo
de evitar lo que en Teoría de la Información se conoce con el nombre de
«ruido». Será muy importante, en algunos casos, el orden de entrada de las
variables del modelo.
-No se produce manipulación de la variables:
se las estudia en forma natural, tal y como se encuentran en el mundo real.
-La selección aleatoria de las muestras es
mucho menos restrictiva que en la metodología experimental propiamente dicha.
No se hablará ya tanto de validez interna-externa
de los resultados sino que pasará a hablarse de «poder explicativo» del modelo,
que vendrá determinado por las posibilidades predictoras del mismo,
intentándose lógicamente lograr el mayor poder explicativo con el menor número
de variables.
Ya hemos advertido que estas características
son excesivamente globales al estar referidas al macro grupo de técnicas
correlaciónales. La elección de una u otra dependerá de diversos factores,
destacando desde mi punto de vista el objetivo de la investigación.
Tienen cabida igualmente en los métodos
cuantitativos los métodos longitudinales y transversales, con todas sus
variantes y modalidades. Se utilizan básicamente en los estudios evolutivos y
diferenciales.
Bajo el punto de vista del instrumento que
proporciona la información básica podemos considerar cuantitativos todos
aquellos métodos que trabajan con datos resultantes de la aplicación de
instrumentos objetivos: test, escala de medida, cuestionarios,...
La investigación cualitativa, naturalista o
etnográfica requiere una metodología sensible a las diferencias, a los procesos
singulares y anómalos, a los acontecimientos imprevisibles, al cambio, a las
observaciones manifestables y a los significados latentes.
Las diferencias principales respecto a los
métodos cuantitativos implican el paso:
-De la generalización estadística a la
consideración ideosincrática del comportamiento.
-De la reducción y operacionalización de
variables a la consideración holística de la vida peculiar de un sistema
abierto, complejo y cambiante.
-Del control de las variables a la
observación abierta y flexible de la vida natural.
-Del distanciamiento aséptico del
investigador a la participación activa y observación directa de los
acontecimientos implicándose en su dinámica.
-De las técnicas objetivas a la observación
interactiva y la entrevista.
-Del diseño preestablecido al diseño flexible
y emergente de enfoque progresivo.
-Del informe anónimo al reportaje vivo.
Algunas de las características más
sobresalientes de este planteamiento metodológico serían:
-Observación participativa, que implica la
presencia del investigador en el escenario natural (deberá intentar evitar el
subjetivismo valorativo);
-respecto a la complejidad natural se
entiende que es ella quien dicta el método,
-utilización de diseños de enfoque
progresivo, flexible, elástico y cambiante, adaptándose a los acontecimientos y
a la interpretación de su significación;
-investigación en la acción, dimensiones
indisociables de un mismo proyecto; sólo así se puede comprender la práctica;
la finalidad de la investigación es a la vez explicativa y normativa: se
investiga para perfeccionar nuestro conocimiento y fundamentar racionalmente la
práctica;
-proceso de triangulación, entendido aquí en
sentido restringido como el procedimiento donde tienen cabida las opiniones e
impresiones de los diferentes miembros del escenario investigado; su objetivo
fundamental es contrarrestar las percepciones subjetivas de los significados e
intencionalidades que se generan e intercambian en el aula;
-técnicas flexibles de recogida de
información (entrevistas en profundidad, estudio de casos,...);
-se reinterpretan los conceptos de validez,
fiabilidad y neutralidad: la validez interna se consigue con la presencia
prolongada; la validez, la generalización, se entiende como una osadía
científica al ser considerados los fenómenos sociales como situacionales,
momentáneos y contextualizados y, sin embargo, no se rechaza la posibilidad de
transferencia; la fiabilidad (mejor, la falta de fiabilidad), se convierte el
objetivo de estudio, y algo que hay que explicar...
Aunque personalmente juzgo las dos
alternativas como válidas para la construcción del saber pedagógico, me interesa
ahora manifestar que admito una posibilidad de aproximación gradual a
experimentos formales, sobre todo cuando se conocen las variables
intervinientes en el proceso en estudio por estudios correlaciónales previos y
cuando puede situarse el trabajo experimental en el marco de una teoría, que
pueda especificarse mediante modelos formalizados.
Sólo así será posible lograr cotas razonables
de validez en las aportaciones experimentales. Me manifiesto en este punto
partidario de la corriente de opinión epistemológica que potencia el valor de
la teoría, bajo la afirmación de que tanto la experimentación (en todas sus
variantes) como los estudios correlaciónales mejorarán si obtienen sus premisas
(variables a estudiar) de los estudios teóricos.
Parece claro que es la experiencia, la
práctica, quien genera ideas a la investigación; pero que desde un principio
hay que situarse en un contexto teórico (la formulación de hipótesis debe
suponerlo de hecho), y debe quedar claro que la interpretación de la investigación
debe retomar, vía respuesta a la hipótesis, la conceptualización teórica.
Para Van Dalen y Meyer (1978) el hecho de que
la investigación pedagógica no se apoye en una teoría es su deficiencia más
grave:
«Los fracasos de muchas investigaciones experimentales en
educación fueron erróneamente atribuidas al propio método experimental, siendo
así que la verdadera fuente de frustración era la inadecuación de la teoría que
lo sustentaba o la carencia de la misma».
La experimentación concebida entonces como
«cualquier acción llevada a cabo sobre una realidad dada con el fin de suscitar
o recoger las consecuencias observables» consistiría, ante todo en una
observación guiada por un sistema de abstracciones, inspirado a su vez en
modelos teóricos escogidos en calidad de hipótesis. Es pues en la unión del
modelo teórico y del diseño experimental, es decir, el esquema que orientan la
observación, las medidas y el análisis de datos, lo que debe constituir el
procedimiento metodológico fundamental de la Pedagogía, siendo en esta
interacción de la deducción y de la experiencia donde radica el carácter
general de toda ciencia, tanto natural como humana.
El problema ahora residirá en ajustar el
modelo teórico a los esquemas experimentales. No olvidemos que:
-Un modelo teórico que no lleva a
interpretaciones concretas verificables no es más que un esquema lógico;
-Un conjunto observaciones, sin
estructuración suficiente, se reduce a una simple descripción.
Soluciones posibles para responder a esta
situación podrían ser:
a) mejorar el análisis matemático de las
variaciones y de las dependencias funcionales, lo que es posible gracias al
análisis multivariado, que permite ir más allá de las correlaciones en busca de
causas.
b) buscar por debajo de los datos observables
el papel de las estructuras en tanto que sistemas de transformación. Éste es el
método estructuralista de Levi Strauss que tiene que ir más allá de las causas
y busca explicaciones en término de causa y de implicación.
c) coordinar el análisis estructuralista con
el análisis evolutivo, entendiendo que la explicación consiste en coordinar la
estructura y la génesis.
d) estudiar en una escala inferior fenómenos
de la escala superior: estudio de los subsistemas dentro de los sistemas.
e) utilizar la simulación de procesos como
recurso alternativo de experimentación, entendiendo que la simulación no es una
teoría matemática sino sólo una técnica que permite sustituir por un modelo una
teoría que no se sabe traducir matemáticamente o que no se sabe explotar de
forma deductiva.
Hemos visto que un paradigma supone un cierto
punto de vista filosófico y un cierto tipo de método. En este sentido, el
paradigma determina el método. Pero podemos cuestionarnos si esa unión es
consustancial o simplemente una unión definitoria y práctica. En otras
palabras, ¿hay inconsistencia en suscribir la filosofía de un paradigma
empleando los métodos de otro? La respuesta nos vendrá dada por la
consideración de los criterios paradigmáticos diferenciales: si estos criterios
están vinculados diferencialmente a un tipo de métodos, la unión
método-paradigma será consustancial; si por el contrario, no es específica la
relación del criterio con un tipo determinado de método, no será procedente establecer
una relación exclusiva entre método y paradigma.
Veamos lo que ocurre con algunos de los
criterios señalados (Cook y Reichardt, 1979.12-15):
¿Podemos considerar positivistas-lógicos a
todos los que utilizan métodos cuantitativos y fenomenologistas a todos los que
utilizan métodos cualitativos? Ciertamente, no. Por ejemplo, la teoría
psicológica-social de la atribución es fenomenológica porque pretende entender
la conducta y necesidades desde la perspectiva del propio sujeto, pero se puede
investigar en un laboratorio con métodos cuantitativos.
¿Son las medidas cualitativas necesariamente
naturalistas y los procedimientos cuantitativos necesariamente provocados? No.
Algunos datos de la observación participante pueden ser «provocados», por
ejemplo.
¿Son los procedimientos cualitativos
necesariamente subjetivos y los cuantitativos necesariamente objetivos? En
términos subjetivos tiene, en este contexto, dos significados diferentes:
-La influencia del juicio humano (bajo este
punto de vista todos los métodos son en alguna manera subjetivos)
-la medición de variables latentes, no
directamente observables.
No hay razón, creo para asumir que los
métodos cualitativos tienen el monopolio de la subjetividad.
¿Son los procedimientos cualitativos
necesariamente exploratorios e inductivos y los procedimientos cuantitativos
son siempre confirmatorios e hipotético-deductivos? Parece claro que no es
correcta esa asociación; parece más correcto pensar que cada forma de analizar
los datos permite verificar y generar teorías, aunque cada conjunto de técnicas
ponga el énfasis en algunas de estas preocupaciones.
Así pues, los métodos cualitativos no deben
utilizarse sólo para descubrir qué pregunta debemos hacernos ni los métodos cuantitativos
deben utilizarse exclusivamente para contestarlas. Parece poco realista negar a
muchas de las técnicas correlaciónales sus posibilidades exploratorias. Hay
infinidad de casos en los que las técnicas cuantitativas han contribuido a
generar teorías (Glasser y Straus, 1965). Igualmente casos en los que las
técnicas cualitativas definen reglas de evidencia de confirmación de teorías
(Barton y Lazarsfeld, 1969; Becker, 1958,...). Campbell (1975) muestra cómo los
métodos tecnológicos estudio de casos, de la más pura raigambre cualitativa,
pueden contribuir verificar proposiciones teóricas.
¿Se vincula el estudio de los procesos
exclusivamente a las técnicas cualitativas y se asocian las técnicas
cuantitativas al estudio de los resultados? Son muchos los ejemplos que
muestran el estudio de los procesos con técnicas cuantitativas: Campbell (1960,
1970), estudia los procesos con diseños experimentales, la psicología evolutiva
estudia los procesos con técnicas cuantitativas (Wohlwill, 1973; Baltes, 1968,...);
la psicología cognitiva, centrada básicamente del estudio de los procesos,
utiliza técnicas cuantitativas en modelo de simulación...
¿Sólo métodos cualitativos necesariamente
válidos y no fiables y los cuantitativos fiables pero no válidos? Parece claro
que no; ni la fiabilidad ni la validez son atributos inherentes a un
determinado instrumento de medida.
La generalización de resultados, ¿va unida
inexcusablemente a la selección aleatoria de la muestra? La generalización
estadística, en términos probabilísticos, si. La generalización lógica nunca
está suficientemente justificada tanto si está basada en datos cuantitativos
como sí lo está en datos cualitativos. Tanto puede ayudar a la generalización
una muestra amplia y representativa como estudio comprensivo y en profundidad
de un caso. No hay razón para pensar que los resultados de datos cuantitativos
son más generalizables que los resultados procedentes de métodos cualitativos.
¿Asumen necesariamente los procedimientos
cuantitativos que la realidad es estable? Desde luego es cierto que algunos
diseños más elegidos que otros. Pero también es cierto que los diseños
cuasi-experimentales de series temporales, por ejemplo, asumen los cambios que
se van produciendo a lo largo del tiempo.
Así pues, si no de una manera exclusiva ni de
una forma predominante, el investigador que sigue el paradigma racionalista
está decidido a descubrir, verificar e identificar relaciones causales entre
conceptos que deriva de un esquema teórico. Utiliza técnicas de aleatorización
u otras técnicas de muestreo para minimizar el impacto que las variables
instrumentales pueden tener en los resultados de la investigación. A menudo un
«grupo de control» para analizar si hubo o no influencia del tratamiento con la
intervención realizada. Recoge lo datos aplicando pruebas estandarizadas,
cuestionarios y entrevistas estructuradas, escalas baremadas,... utiliza
procedimientos estadísticos de variada complejidad para analizar esta
información.
Por el contrario, un investigador que siga el
paradigma naturalista, en lugar de basarse en esquemas teóricos de explicación
del fenómeno estudia, prefiere la «teoría» que emerge de los datos mismos, lo
cual exige una habilidad especial en el investigador para entender y cuestionar
una explicación del fenómeno que sea consistente con lo que ha encontrado en el
mundo social. Para elaborar la teoría el investigador intenta encontrar los
esquemas explicativos usados por los sujetos bajo estudio; intenta descubrir
los conceptos y categorías que son sugeridas por los propios datos. La
insistencia sobre esta referencia el mundo diario de los participantes y la
comprensión de sus acciones en un contexto determinado, determina las
explicaciones que el investigador eventualmente propone. En el desarrollo de estas
explicaciones, el investigador naturalista prefiere trabajar «conceptos
sensibilizadores» más que ofrecer definiciones operacionales.
El paradigma racionalista emplearía un modelo
de «pasos cerrados» de razonamiento lógico-deductivo, definiciones
operacionales, colecciones de datos, pruebas de hipótesis y análisis
estadísticos. El paradigma naturalista, supone un intercambio dinámico entre
teorías, conceptos y datos, con un feedback permanente, y una constante modificación
de la teoría y de los conceptos a partir de los nuevos datos que se van
integrando en el sistema. Se vincula más con el descubrimiento de una teoría
que con la verificación de la misma.
Esta postura ya la criticaba Lundberg en
1942, considerando que las diferencias entre símbolos y técnicas cuantitativas,
por un lado, y procedimientos cualitativos, por otro, son de grado. Aquéllos
son formas lingüísticas que se han desarrollado para comunicar ciertos tipos de
relaciones. Recomendaba a los naturalistas la sustitución paulatina de
«procedimientos intuitivos» basados en el sentido común por definiciones
operacionales.
3. LA ESTADÍSTICA
COMO SOPORTE DE LA INVESTIGACIÓN EDUCATIVA.
Aunque es evidente que en los paradigmas
racionalista y naturalista se conciben «realidades diferentes» a la hora de
fundamentar sus acciones investigadoras, en ambos casos se puede constatar el
interés manifiesto por conseguir que sus respectivos análisis de esa realidad
no pierdan credibilidad, aceptando en mayor o menor medida la necesidad de
diseñar el fenómeno para proceder a su estudio.
Esta tendencia es mucho más notoria en el
paradigma racionalista donde se asume que progresar en el saber en un
determinado contexto científico requiere delimitar los problemas, dejando para
el final aquéllos respecto de los cuales no se puede llegar a un acuerdo y
avanzando en el sentido de que son posibles la objetividad, la comprobación y
la verificación.
Las preocupaciones por la objetividad, la
comprobación y la verificación de los supuestos que han de ir conformando el
cuerpo científico pedagógico pasa por la discusión de un problema previo
importante, el problema de la medida.
La medida consiste, en principio, en una
valoración de los datos. Y si se recurre al número no es en virtud del prestigio
de la matemáticas o de algún prejuicio en favor de la cantidad, que no es más
que una relación entre cualidades.
El valor instrumental del número proviene del
hecho de que constituye una estructura mucho más rica que la de los principios
lógicos de que se compone:
-La inclusión de clases, que preside los
sistemas de clasificación.
-El orden, que caracteriza las seriaciones.
El número, en tanto que síntesis de la
inclusión y del orden, presenta una riqueza y una movilidad que hacen que sus
estructuras sean particularmente útiles en todas las cuestiones de comparación,
es decir, de correspondencia e isomofirmo.
Pero el empleo de la medida y la aplicación
del número suponen la constitución de «unidades de medida», es decir, la
consideración de elementos comunes dejando a un lado sus cualidades
diferenciales.
La dificultad mayor de las ciencias del
hombre, en tanto que tratan con estructuras de conjunto y no con procesos
aislados y particulares, es la ausencia de unidades de medida, bien porque no ha
sido posible todavía constituirlas, bien porque las estructuras en cuestión,
pudiendo ser de naturaleza lógico-matemática, no poseen caracteres propiamente
numéricos.
Este carácter numérico de las estructuras
conceptuales de las ciencias del hombre ha sido motivo de reflexión de
numerosos pensadores.
Para B. Russell (1937), medida de magnitud
es, en su sentido más general, «cualquier método por medio del cual se
establece una única y recíproca correspondencia entre todas o algunas de las
magnitudes de una clase y todos o algunos de los números, racionales o reales,
según los casos».
Para Campbell (1940), medida es «la
asignación de números a la representación de propiedades de los sistemas
materiales no numéricos, en virtud de las reglas que rigen esas propiedades».
Para Stevens (1978), medida es «la asignación
de números a los objetos o hechos, en función de unas determinadas reglas».
Estas tres definiciones, de alguna manera,
vienen a resumir casi todas las dadas. Pese a su aparente similaridad son
radicalmente diferentes: para Russell los números se corresponden con
magnitudes; para Campbell los números se corresponden con las propiedades de
los sistemas materiales; para Stevens, los números se corresponden con los
objetos. Para los dos primeros la magnitud es parte de las propiedades de un
sistema. Pero Stevens habla de objetos o hechos, no de propiedades.
Campbell entiende que toda ciencia comporta
una pluralidad de sistemas teóricos, ligados o no entre sí. Pero una ciencia de
la realidad plantea la exigencia de que alguno de sus sistemas tengan ligazón
con los componentes de la realidad, observables empíricamente y medibles y que
van a posibilitar la verificación de los sistemas que constituyen el acervo
teórico de esa ciencia.
Es decir, cada sistema teórico podrá estar o
no ligado con los demás, pero alguno de ellos deberá estar ligado con la
experiencia.
Torgeson (1958) denomina «modelo» a un
conjunto de sistemas teóricos ligados. A la relación posible entre los modelos
y la conexión de alguno de ellos con experiencia es a lo que denominamos
«teoría».
Estos sistemas relacionados con la realidad
lo que hacen es asignar números a los conceptos que contienen. Conceptos que
por pertenecer al ámbito empírico son denominados por Campbell «propiedades».
Sistemas y propiedades constituye entonces el
entramado de cualquier ciencia. Y el punto de partida será que sólo las
propiedades son susceptibles de medida; y por tanto, únicamente ser extensible
la medida respecto a aquellos sistemas relacionados con la realidad.
Los números reales, que son usados para
medir, presentan la propiedades de orden, distancia y origen. Tomando como base
el orden y combinados debidamente dará lugar a lo nivel de medición ordinal, de
intervalos y de razón.
Stevens, que incorpora el nivel de medición
nominal, introduce la teoría del escalamiento entendiendo que hay isomofirmo
entre las relaciones empíricas de los objetos y las propiedades sistema formal,
por una parte, y por otra, entre las series numerales y las operaciones
empíricas a realizar. La estructura del método de asignación de números en las
observaciones debe ser isomórfica con algún tipo de estructura numérica, de tal
forma que con los números se pueden realizar operaciones que nos proporcionen
un nuevo tipo información acerca de los fenómenos observados.
El criterio seguido por Stevens (1976) para
establecer los cuatro tipos de escalas es el denominado «principio de
invarianza», es decir, el tipo de transformaciones que permite una escala sin
que se altere su estructura. Es precisamente este principio de invarianza lo
que determina el tipo de cálculo estadístico que pueda hacerse con los datos,
definiendo para cada escala:
-Operaciones empíricas básicas.
-Estructura matemática de grupo.
-Estadísticos aplicables.
En esa referencia de Stevens a las relaciones
empíricas se ha basado la denominada «teoría representacional» propuesta como fundamento
de la medida en el Congreso para el avance de la ciencia y la tecnología
(Moscú, 1979). En la teoría representacional los símbolos asignados a los
objetos deben representar las relaciones percibidas entre los atributos de los
objetos.
Se construye dicha teoría sobre los conceptos
básicos: el del sistema relacional y el de homomorfismo entre sistema
relacionales. Abordará tres tipos de problemas: representación, unicidad y
significación.
A nivel práctico, implica una reconsideración
de los errores observados en la medición y una flexibilización de los modelos,
haciéndolos probabilísticos, y entendiendo que las estructuras métricas
propiamente dichas no agotan las estructuras lógico-matemáticas, pues hay
muchas variedades de isomorfirmos además de las correspondencias numéricas.
Proponen la utilización de instrumentos y estructuras lógico matemáticas más
flexibles, que se escalonen desde los modelos probabilísticos a los modelos de
la lógica algebraica, pasando por los modelos cibernéticos. Donde no se pueda
contar con la medida en sentido estricto, deberá recurrirse a las escalas de
ordenación jerárquica de Guttman (1950) o a la gama de escalas híper ordinales,
a caballo entre la clasificación nominal y las escalas métricas y aplicables
cuando los intervalos entre los valores no son equivalentes pero puede
estimarse su magnitud relativa.
La Estadística, al proporcionarnos la medida
de los fenómenos aparece como instrumento principal del estudio pedagógico
concreto.
Y habrá de ser entendida como la ciencia que,
analizando los datos reales, posibilita el contacto con las estructuras de los
sistemas formales, poniendo en juego el doble proceso de inducción-deducción.
El científico empírico que emplea modelos
estadísticos intenta hallar una correspondencia entre el sistema formal y su
campo de interés empírico; establece unos supuestos (axiomas de ciertos modelos
matemáticos) de tal forma que las deducciones efectuadas a partir del modelo
estadístico son válidas para interpretar el mundo real en la medida en que se
cumplan dichos supuestos.
Los procesos empíricos que determinan la
variabilidad de los resultados de la observación reciben el nombre de fenómenos
aleatorios y, desde una perspectiva formal, es la probabilidad la disciplina
matemática que se ocupa del estudio de los fenómenos aleatorios.
Puesto que es una disciplina matemática, la
probabilidad integra los fenómenos aleatorios en una estructura lógica con sus
términos definidos e indefinidos, sus axiomas y los diversos teoremas deducidos
de otras partes de la estructura.
Un sistema de axiomas matemáticos constituye
el modelo de una clase de fenómenos científicos cuando es posible traducir de
algún modo los conceptos y axiomas de sistema matemático a los términos y
relaciones del campo empírico.
Será a partir del cálculo de probabilidades
cuando la estadística se convierta en un instrumento de análisis extremadamente
útil para el estudio de los fenómenos económicos, sociales, psicológicos,
pedagógicos,..., y, en general, para el estudio de los fenómenos cuyos casos
son demasiado complejos para conocerlos totalmente y hacer posible su análisis.
Las etapas que han permitido la «revolución
estadística» podían esquematizarse de la siguiente forma:
-La publicación en 1713 del «Arsd
Conjectandi» de Bernouilli, que comprende la ley de los grandes números.
-La publicación de la memoria de Bayes, en
1763.
-La publicación de la obra «Teoría analítica
de probabilidades» de Laplace en 1812 y los trabajos de Gauss por la misma
época.
-La obra de Quetelet, abre el camino a la
investigación de leyes en el campo de las ciencias humanas.
-La obra de Pearson, fundador de la
estadística moderna, dotando a la estadística de los elementos aplicables a las
diferentes ramas de la ciencia.
Gran parte de la obra posterior está basada
en los trabajos de Pearson: Student, Sheppard, Yule, Kendall, Fisher,...
El nexo de unión entre la estadística
enumerativa y el análisis estadístico es la teoría de la probabilidad.
Respecto a ella no hay duda en aceptar desde
el punto de vista formal, los fundamentos del cálculo de probabilidades dentro
del marco armonioso y bello de la axiomática de Kolmogorov.
Al pasar al plano interpretativo se oponen
los conceptos de:
Cálculo de probabilidades: teoría puramente matemática
que tiene por objeto deducir una serie de consecuencias de un cierto sistema
axiomático.
Teoría de probabilidades: ciencia mitad
matemática mitad filosófica destinada a proporcionar un contenido secreto al
concepto de probabilidad.
En la búsqueda del equilibrio
«deducción-inducción» surgen dos escuelas a menudo denominadas:
Objetivistas o frecuentistas, que deducen la
probabilidad de la noción de frecuencia tras la observación de series de datos
para definirla como «la frecuencia relativa de un suceso en un espacio
muestral».
Subjetivistas o intuicionistas, que extienden la
noción de probabilidad a todo lo que es incierto. Entienden que el cálculo de
probabilidades es una esquematización de los mecanismos de un hombre con
sentido común que razona sobre los elementos de los que sólo tiene una idea
imperfecta. Hablan del grado de credulidad racional, es decir, de la
verosimilitud.
Los bayesianos suelen ser intuicionistas,
aunque no necesariamente. Desde luego el paso de la probabilidad a priori a la
probabilidad a posteriori se lleva a cabo mediante el proceso de Bayes.
Para los subjetivistas, la probabilidad
representa una relación entre una aserción y un cuerpo de evidencia. Pero esta
relación no es puramente lógica, si acaso, casi-lógica. El número que se le
asigna representa el grado de creencia, que difiere según el grado de evidencia
de la persona que hace la asignación.
A partir de estos presupuestos parece claro
que la estadística es, en efecto, un método de descripción cuantitativa que
utiliza el número como soporte objetivo. Se opone a los métodos de descripción
facultativa, más ricos y más matizados en el detalle pero limitados por su
carácter impreciso y subjetivo.
Claro debe quedar igualmente la no
procedencia de «rebajar» las exigencias del análisis estadístico para hacerlo
compatible con estrategias cualitativas: el tratamiento estadístico de las
variables nominales y ordinales tiene los mismos fundamentos matemáticos y
probabilístico que el requerido por las variables que responden a los niveles
superiores de medición. La estadística no-paramétrica, de utilización sugerida
por algunos detractores de las pautas cuantitativas, responde a supuestos y
planteamientos de naturaleza en modo alguno diferente a la de las técnicas para
métricas, e incluso, en no pocos casos, con fundamentación probabilística mucho
más rígida que la requerida por otros modelos estadísticos.
No es la vía de «descafeinar» la utilización
de las técnicas estadísticas por donde debe producirse la convergencia
metodológica que propugnamos en el apartado siguiente.
4. POSIBILIDAD DE CONVERGENCIA METODOLÓGICA
EN LA INVESTIGACIÓN EDUCATIVA
Quizá sea en la necesaria proyección de los
resultados de la investigación a la práctica educativa donde más claramente se
ponga de manifiesto la necesaria convergencia entre las diferentes actitudes
metodológicas presentadas.
Es preciso un tipo de investigación unida a
proyectos de innovación que incluya la participación de profesores e
investigadores en el marco de una política curricular. Esto no significa a mi
entender más que una síntesis perfecta entre los paradigmas racionalista y
naturalista, entre los métodos cuantitativos y cualitativos.
La investigación más relevante será aquella
que, contribuyendo a mejorar la práctica, ofrezca hipótesis cuya aplicación
pueda verificarse con la propia acción docente al desarrollar el currículum.
Esta investigación no puede ser otra que aquella que consiga la adecuada
síntesis entre las diversas estrategias metodológicas.
Parece razonable perseguir equilibradamente
el rigor y la relevancia. Los conocimientos tácticos y proposicionales son
útiles y, quizá, el distintivo de los investigadores competentes resida en
intentar reducir el conocimiento tácito en proposicional. La psicología preconizó
en los años 60 la constitución de la síntesis metodológica en términos muy
similares: aunar en un mismo esfuerzo el rigor del psicómetra-experimentalista
y la intuición del clínico.
El retraso que se está produciendo en
conseguir la confluencia metodológica en el ámbito educativo es el más claro
indicador del permanente estado de cuestionamiento científico de nuestro
quehacer.
¿A qué se debe esta falta de confluencia? No
sólo a las dificultades para experimentar, y también en otras ciencias, sino al
conformismo y a la complacencia que hemos sentido y la utilización
predominante, cuando no exclusiva, del método deductivo.
¿Puede una disciplina que utiliza el método
deductivo exclusivamente calificarse de científica?
Formalmente creo que no. Pero también creo
que la utilización del método deductivo es un paso necesario para que una
disciplina pueda acceder al estatus científico. No hay que olvidar que se han
desarrollado antes las disciplinas deductivas que las experimentales. Y ello
porque:
a. El hombre tiende por naturaleza a recibir
dignamente lo real y a deducir, pero no a experimentar, ya que la
experimentación, a diferencia de la deducción, no es una construcción libre o espontánea.
b. En el terreno deductivo, las operaciones
más elementales o más primitivas son las más simples: reunir, ordenar,
corresponder,.... En cambio en el dominio experimental el dato inmediato es de
gran complejidad.
c. Es imposible llegar al hecho experimental,
que implica una acción sobre lo real, sin una estructuración lógica o
matemática y por tanto hace falta disponer de un cierto número de modelos
deductivos antes de poder experimentar y para poder hacerlo.
La falta de convergencia metodológica y la
dificultad del avance de la Pedagogía en su conformación científica y está
produciendo un rechazo, un alto grado de dependencia respecto a otras ciencias
(Psicología, Sociología,...).
Las posturas que preconizan la «ruptura»,
provenientes casi exclusivamente del sector naturalista, se fundamentan en la
negación del determinismo, en la no aceptación de aproximaciones explicativas
simples a fenómenos complejos y cuestionamiento permanente de la objetividad.
Creo que estas posturas son, por intransigentes, desafortunadas.
BIBLIOGRAFÍA.
BALTESP, .B. (1968): «Longitudinal and cross sectional sequences in the
study of age and generation effects». Human Development 11, 145-171.
BARTON, A .H. y LAZARSFELP, P. F., . (1969): «Some functions of
qualitative analysis in social researchn, en G.J. McCALL y J.L. SIMMONS (eds) Issues
in participant observations: A test and reader. Reading, Mass
Addison-Wesley.
BAXES, R . (1978): Una introducción al método
científico en psicología. Barcelona,
Fontanella.
BECKER, H.S. (1958): «Problems of inference and proof in participant
observation», American Sociological Review, 169, 652-660.
CAMPBELL, D. T . (1960): «Blind variation and selective retention in
creative thought as in other knowledge processes», Psychological Reviews, 67,
380-400.
CAMPBELL, D.T . (1970): «Considering the case against experimental
evaluations of social innovations». Administrative Science Quarterly, 15,
110-1 13.
CAMPBELL, D.T . (1975): «Degrees of freedom and the case study», Comparative
Political Studies, 8, 2, 178-193.
CAMPBELL, D. y
STANLEY, J., (1978): Diseños experimentales y cuasiexperimentales en la
investigación social. Buenos Aires,
Amorrortu.
CAMPBELL,N,. R. (1940): «Final Report», Advance Science, 2,
331-349.
COOK,T .D. y REICHARDT., C.H.S. (1979): Qualitative and Quantitative
methods in Evaluation research. Beverly Hills, California Sage Publ.
CRONBACH, L.,J . (1975): «Beyond the two disciplines of scientific
psychology» American Psychologist, 30, 116-127.
CRONBACH, L,. J. y SNOW,R .E. (1977): Aptitude and instructional
methods. New York, Irving Publ.
GLASSER, B,. y STRAUSS, A. L. (1965): «Discovery of substantive theory:
a basic strategy underlying qualitative research», American Behavioral
Scientist, 8, 5-12.
GUBA, E .G. (1983):
«Criterios de credibilidad en la investigacion naturalista», en GIMENO, J. y
PEREZ GOMEZ, A.: La enseñanza: su teoria y supractica, Madrid,
Akal, pp. 148-165.
GUTTMAN, L., (1950): «The problem of attitude and opinion measurement:
the basis for scalogram analysis», en Stonffer, S.A. Measurement
andprediction, New York, Princeton University Press.
KHUN, T.S. (1975, e.0.
1962): La estructura de las revoluciones cientVicas, Madrid. Fondo de Cultura Economica.
LUNDBERG, G,.A . (1968, e.0. 1942): Social research, New York,
Greenwood Press. 101
PATTON, M, Q. (1978): Utilization-Focusede valuation, Beverly
Hills, California, Sage Publ.
PATTON, M.Q. (1980): Qualitative evaluation methods, Beverly
Hills, California, Sage Publ.
RIST, R.C. (1977): «On the relations among educational research
paradigms: from disdain to detente», Antropology and Education Quarterly, 8,
42-49.
RUSSELL, B, . (1937): The principle of Mathematics, New York,
Norton.
SNOW, R.E. (1980): Aptitude, learning and instruction:
cognitiveprocesses analysis of aptitude. Vol I Hillsdale, New York, Lawrence and
Erlbaum.
STEVENS, S. S. (1976,
e.0. 1951): «Matemáticas y medición», en WAINERMAN C.H.: Escalas de medición
en ciencias sociales, Buenos Aires, Nueva Visión, 17-74.
TEJEDORF,. J. (1981):
«Validez interna y externa en los diseños experimentales», Revista Española
de Pedagogía, 151, Enero-Marzo, PP. 15-39.
TORGENSON, W, . (1958): Theory and methods of scaling, New York,
Wiley.
VAN DALEN, D .B. y
MEYER, W, .J. (1978): Manual de Técnica de la investigación educacional, Buenos
Aires, Paidos.
WOHLWILL, J.,F . (1973): The study of behavioral development, New
York. Academic
Press.
Comentarios