EMPIRIA. Revista de
Metodología de Ciencias Sociales. Nro. 1, 1991, pp. 85-95.
El
modelo estadístico desde la perspectiva cualitativa ¹
José
Ma. Arribas Macho
Departamento
de Sociología I.
Teoría,
Metodología y Cambio Social
UNED
RESUMEN
El
presente artículo es una reflexión sobre el modelo estadístico y su utilización
en el ámbito de las ciencias sociales. En él se plantea estudiar los
fundamentos teórico-metodológicos de la disciplina así como el estudio de su
Historia. Conocer el contexto histórico del pensamiento estadístico y sus
principales desarrollos matemáticos, junto a los problemas prácticos concretos
a los que fueron dirigidos, constituye en la actualidad la principal vía de
desarrollo de la investigación social cuantitativa.
Canek habló a Guy:
- Mira el cielo;
cuenta las estrellas.
-No se pueden contar.
Canek volvió a decir:
-Mira la tierra;
cuenta los granos de arena.
-No se pueden contar.
Canek dijo entonces:
-Aunque no se
conozca, existe el número de las estrellas y el número de los granos de arena.
Pero lo que existe y no se puede contar y se siente aquí dentro, exige una
palabra para decirlo. Esta palabra, en este caso, sería inmensidad. Es como una
palabra húmeda de misterio. Con ella no se necesita contar ni las estrellas ni
los granos de arena. Hemos cambiado el conocimiento por la emoción;
es también una manera de penetrar en la verdad de las cosas.
Emilio
Abreu Gómez
CANEK.
Historia y leyenda de un héroe maya.
(1995,
7a ed.), Colofón, México,D.F.
Alejo Carpentier observa un negrito ocupado
en hacer la siguiente suma: 2 + 9 + 4 + 8 + 3 + 5 = 31. En vez de enunciar los
números el negrito dice: «Mariposa más elefante, más gato, más muerto, más
marinero, más monja, igual venado». Del mismo modo que 12:2 da 6, dice: «puta
dividido por mariposa da tortuga».
Roger
Caillois, teoría de los juegos, Seix Barral, 1958.
¿Qué puede aportar la perspectiva cualitativa
a la estadística? Una perspectiva que se ocupa del lenguaje, del sujeto, de la
ideología..., ¿puede ocuparse seriamente de un modelo matemático que es
utilizado de forma casi absoluta en la actual investigación social? Podríamos
dar una respuesta al estilo de Levi Strauss o Jesús Ibáñez, quienes intentan
una matematización blanda de la vida social, la utilización de unas
matemáticas del hombre, como dirá Levi Strauss², unas matemáticas, alejadas
de la perspectiva clásica y que podríamos llamar cualitativas: la matemática de
conjuntos, la topología, o el mismo cálculo de probabilidades.
¿Cómo enfrentan Levi Strauss e Ibáñez el
problema? Alrededor de 1944 el famoso antropólogo francés intenta abordar las
reglas del parentesco porque se da cuenta que estas reglas, en cuanto «reglas
de comunicación» no son «fundamentalmente diferentes a las que predominan en el
lenguaje» y plantea el problema de su tratamiento a los «almidonados»
matemáticos de entonces, obteniendo una respuesta poco satisfactoria: el
matrimonio, le dicen, «no es asimilable ni a una adición, ni a una
multiplicación (y aún menos a una sustracción o a una división) y, por tanto,
es imposible reducirlo a una formulación matemática» ³. Algún tiempo después,
«uno de los jóvenes maestros» de la nueva escuela matemática de conjuntos le
asegura «que para elaborar la teoría de las reglas del matrimonio, el
matemático no debía reducirlo a un proceso cuantitativo; en verdad, ni si
quiera necesitaba saber qué es el matrimonio. Todo lo que necesitaba era, ante
todo, que los matrimonios observados en una sociedad dada pudieran ser
reducidos a un número finito de clases, luego que esas clases estuvieran unidas
entre sí por relaciones determinadas (...). Desde ese momento, todas las reglas
del matrimonio de una sociedad dada pueden ser reducidas a ecuaciones, y éstas,
tratadas según métodos de razonamientos rigurosos y probados, en tanto
la naturaleza íntima del fenómeno estudiado - el matrimonio-se deja a un lado e
incluso puede ignorarse por completo»4. Ibáñez, por su parte,
interesado también en una sociología científica, afirma en 19885 que
«la matematización es necesaria al enfoque científico». Después advertirnos que
las relaciones de orden también son matemáticas, y que «cuantificar no es
necesariamente alcanzar una métrica», defiende abiertamente el uso de
matemáticas «no cuantitativas»: «el primer paso del proceso de matematización
de un campo de objetos (cualidades) es su integración en conjuntos (de cada
elemento retenemos no lo que es-su cualidad-, sino lo que no es-las diferencias
entre ellos-)»6.
De acuerdo con estos enfoques, podemos
preguntarnos qué tipo de conjuntos construye la estadística. El modelo
estadístico funciona con frecuencias, esto es, el número de veces que se
repite un acontecimiento; parece como si la estadística trabajase tan sólo
fenómenos que se manifiestan mediante la sucesión continua de eventos, los
acontecimientos singulares, las catástrofes no tienen cabida en el modelo
estadístico. Las catástrofes quedan para las matemáticas de René Tom, y los
sujetos (también catástrofes, o como le gustaba afirmar a Jesús Ibáñez,
supervivientes de una sucesión de catástrofes) para el psicoanálisis. No hay
sujetos dentro del modelo estadístico, hay datos, y los datos, además de
construidos, son esencialmente frecuencias. Las frecuencias no son sólo
números (el número es tan sólo un signo, algo que está en lugar de otra cosa) y
las frecuencias para su existencia necesitan del establecimiento previo de
«clases» o categorías, sólo después procede la operación de contar. Sin esa
operación esencialmente cualitativa, sencillamente, no hay frecuencias.
Las frecuencias se hacen operativas con las
llamadas medidas de tendencia central y de dispersión. Éstas medidas, nos
anticipan que los conjuntos de la estadística están caracterizados por su lugar
central y las distancias de cada uno de sus elementos respecto al centro. La
más popular, y también la más útil es la «media aritmética», también
llamada media estadística. Suele indicarse que es útil porque resume grandes
cantidades de información, pero en realidad constituye uno de los puntos
nucleares de todo el modelo estadístico7. Es el referente a partir
del cual construimos los conjuntos de frecuencias y desde donde medimos su
dispersión. La media mimética es una abstracción, es el resultado de una
operación aritmética, la acción de sumar todos los valores de los elementos del
conjunto y dividir por el número total, pero, los estudiantes saben
(especialmente los de la UNED, donde la dispersión de la edad es muy alta) que
cuando se suman las edades de todos los miembros de un aula y se divide por el
total de alumnos, a menudo, no hay nadie en la clase que tenga esa edad. La
media es un mero punto de referencia que servirá para construir el resto del
andamiaje estadístico.
La medida de dispersión más conocida
es la desviación típica, es una medida aritmética que nos da información
de las instancias de cada uno de los elementos del conjunto respecto del lugar
construido como centro: la media estadística. Su forma de elaboración procede
del método de los mínimos cuadrados desarrollados a finales del siglo XVIII por
Legendre y Gauss y utilizada con éxito en 1901 para resolver los errores de
medición de los astrónomos en el cálculo de la órbita del asteroide Ceres8.
La idea básica del método consiste en calcular primero la media de todas las
mediciones efectuadas, y considerar como distancias tanto los valores
positivos, resultado de restar al valor de las mediciones que sobrepasan la
media, la propia media; como los negativos, esto es, todos aquellos que se
quedan por debajo de la media9. La forma de hacer equivalentes esas
distancias para poderla sumar es elevarlas al cuadrado con lo que transformamos
los números negativos en positivos. Después se calcula un valor medio de las
distancias al dividirlo por el número de mediciones. Si después realizamos la
operación inversa, el cálculo de la raíz cuadrada, tendremos una unidad de
desviación típica.
¿Y las muestras?, el prestigio actual
de la estadística inferencial reside en su capacidad de sustituir el todo por
la parte. La primitiva estadística construía censos, la moderna hace encuestas
representativas, pero, ¿en qué se basa la teoría de la representatividad
estadística? Podríamos decir que en esencia, la estadística afirma lo
siguiente: si medimos determinados atributos en un pequeño colectivo que a su
vez forma parte de otro mayor, su estructura será idéntica a la del colectivo
grande siempre y cuando hayamos seleccionado los objetos a medir de forma
aleatoria, es decir, azarosa. El azar se encargará por sí solo de que nuestro
pequeño colectivo resulte equivalente al grande, o mejor, el valor de lo que
queremos medir, será esencialmente el mismo que si midiésemos el colectivo
grande.
En realidad, la teoría muestral es más
modesta y tan sólo afirma que si extraemos muchas muestras de una población (el
término población en estadística hace referencia a un conjunto de eventos y por
tanto no es equivalente al término empleado por la demografía), la mayor parte
de las medidas de nuestras muestras estarán próximas a las de la población,
pero no nos dice nada de lo que ocurrirá extrayendo una sola (la práctica
habitual en la investigación sociológica); en realidad nos dice la probabilidad
que tenemos de que nuestra muestra se desvíe de los valores de la población,
pero nada más. Ello nos lleva a considerar otro problema complejo e
insuficientemente aclarado cómo es el problema de la probabilidad (Popper lo
llamará el problema fundamental del azar), pero antes debemos tener en
cuenta que la teoría muestral no funcionaría si no llevase aparejada una
teoría de la medida, o mejor, una teoría del error, entre otras
cosas sostiene que en toda medición se producen errores, y que los errores,
cuando uno realiza un número suficientemente grande de mediciones, se cometen
por defecto y por exceso en igual medida. La idea es también del matemático
alemán Karl Friedrich Gauss quien alrededor de 1790 formalizará la teoría de
los mínimos cuadrados en un elegante modelo matemático como es la curva de
errores que lleva su nombre y que nos muestra la probabilidad con la que se
comete cualquier tipo de error en una medición.
La teoría de la probabilidad es el puente que une
los grandes conjuntos de datos y las muestras, y algunos estadísticos gustan de
señalar que es la que aporta las bases «que permiten apreciar seguridad y
precisión en la toma de muestras»10. En el modelo estadístico, la
probabilidad de un acontecimiento es algo así como el grado de certidumbre que
tenemos de su realización. Desde el punto de vista operacional, es una relación
(un cociente) entre su frecuencia de realización y el número total de
observaciones cuando este número es suficientemente grande.
Durante los años treinta, «el método
estadístico» alcanzó notoriedad por cuanto se presenta como el único método
capaz de resolver el problema de la posición y la velocidad de los cuantos
elementales de materia. No se podía determinar el movimiento de un fotón o de
un electrón a la manera de la mecánica clásica, y aunque aplicando el «método
estadístico» tampoco es posible predecir el comportamiento de uno de los
componentes de un chorro de electrones, si puede calcularse la probabilidad
de que se comporte de una manera determinada. Al menos en 1938, a Einstein daba
ya por inevitable el empleo del método estadístico en la física de partículas11,
y desde 1934, un conocido epistemólogo como K. Popper centra su interés en la
teoría de la probabilidad. En su «Logik der Forschung», Popper afirmaba que las
«relaciones entre probabilidad y experiencia necesitan aún ser aclaradas»,
además de que la idea de probabilidad resulta especialmente «refractaria» a su
gran aportación epistemológica, la idea de falsabilidad, marchamo de
toda proposición que pretende ser considerada científica y que los aspirantes a
profesor universitario repiten sin piedad en las memorias de oposición. Y
resulta refractaria porque este método estadístico parece funcionar en
cualquier circunstancia y condición, con lo que difícilmente puede ser
considerado falsable.
La teoría clásica de Laplace (el cociente
entre el número de casos favorable y el número de casos igualmente posibles) ha
sido rechazada por tautológica puesto que decir casos igualmente posibles es lo
mismo que decir igualmente probables. Keynes y De Finetti12 ensayan
una interpretación subjetiva de la teoría de la probabilidad, una
interpretación psicologista; para el teórico de la economía, la probabilidad
sería algo así como la «medida de los sentimientos de certidumbre o
incertidumbre, de creencia o de duda, que pueden surgir en nosotros ante
ciertas aserciones o conjeturas»13, pero finalmente, Popper, después
de iniciar lo que él llama el problema fundamental de la teoría del azar (los
acontecimientos azarosos se caracterizan por un tipo de incalculabilidad que
hace precisamente posible la aplicación del cálculo de probabilidades),se
inclina por la teoría frecuencial de Von Mises quien considera la probabilidad
como el límite de la frecuencia relativa en un colectivo («y de aquí que
la idea de probabilidad sea únicamente aplicable a sucesiones de
eventos»)14.
Para Von Mises, la «tarea del cálculo de
probabilidades» consiste pura y exclusivamente en inferir ciertos
«colectivos deducidos» con ciertas «distribuciones deducidas» a partir de
determinados «colectivos iniciales» dados con ciertas «distribuciones
iniciales» dadas; dicho brevemente: en calcular probabilidades que no están
dadas a partir de las que lo están. Cuatro son los rasgos básicos de su teoría:
1) el concepto de colectivo precede al de probabilidad; 2) la probabilidad se
define como el límite de las frecuencias relativas; 3) formula un axioma de
aleatoriedad, y 4) define la tarea del cálculo de probabilidades15.
Pero ¿cómo se determinan las probabilidades iniciales de un evento? Como ya ha
sido observado en anteriores ocasiones «no hay un método directo y simple por
el cual pueda hacerse la transición de una frecuencia numérica observada a una
medida numérica de probabilidad»16. En general la estadística
inferencial nos enfrenta ante el problema de la inducción. Para los primeros
inductivistas, el proceso científico partía de la observación de los hechos a
través de los sentidos, esto es, del trabajo experimental, y a partir de ahí
establecían teorías y leyes por inducción de las que deducían predicciones y
explicaciones. Pero así como razonamiento deductivo ha construido un potente
aparato lógico que permite aceptar o rechazar las explicaciones derivadas de
las leyes universales, no existe un aparato lógico equivalente que permita
afirmar la validez del procedimiento inductivo. La lógica nos indica que si las
premisas de un determinado momento son verdaderas, la conclusión también puede
ser verdadera, pero nada nos dice acerca de la verosimilitud de las premisas.
Los requisitos necesarios para el buen funcionamiento del procedimiento
inductivo: que el número de observaciones sea elevado, que se repitan en
condiciones distintas y que ningún enunciado observacional entre en
contradicción con la ley universal, no son suficientemente sólidos. Ya el
primero los requisitos adolece de una profunda indefinición al no poder
precisar el número de observaciones suficientes; y si no es posible realizar un
número ilimitado de observaciones ¿cómo es posible asegurar la validez
universal de la ley obtenida por procedimientos inductivos?. Se ha intentado
resolver el problema introduciendo la probabilidad, de modo que parecería más
probable una ley obtenida con un elevado número de observaciones que otra
obtenida con unas pocas, pero el cálculo de probabilidades se encarga de echar
por tierra la validez de tal aserto: el cociente de un número finito de casos
por un número infinito de aplicaciones a las que supuestamente se refiere una
ley universal es siempre cero, con lo que la probabilidad de cualquier ley
universal es también cero.
Los esfuerzos de Lazarsfel y la sociología
americana en la generalización del modelo estadístico han contribuido a su
consolidación como saber académico y práctica profesional en el ámbito de la
investigación de mercados. Las primeras encuestas fueron dirigidas a «la
cuestión social», eran estudios monográficos como los realizados por Frederic
Le Play destinados a conocer las condiciones de vida de las familias obreras17
o los estudios de Buylla dirigidos a conocer las causas de los conflictos
obreros y las características de las organizaciones sindicales18, o
los estudios de Halbwachs sobre «la clase obrera y los niveles de vida»19.
Hasta 1903, los estadísticos del Instituto Internacional de Estadística están
más interesados en la realización de censos y estudios monográficos que en los
estudios basados en muestras. Es a partir de 1925 cuando parece haber consenso
respecto a la utilización de los métodos de muestreo aleatorio.
Desde principios de siglo, en Estados Unidos
se realizan encuestas para conocer el paro basadas en el método representativos20
y a partir de los años 20 comienzan los estudios de mercado. En 1936 el
Instituto de investigación de mercados de George Gallup acierta en su
predicción de triunfo para Rooselvet con lo que la encuesta basada en el
muestreo probabilístico comienza a extender su campo de acción a los dominios
de la actividad política. La encuesta estadística, que utiliza muestras
aleatorias y encuentra justificación matemática en la teoría de errores de
Gauss y en el cálculo de probabilidades -hasta 1933 no hay axiomatización de la
teoría de probabilidades, obra de Kolmogorov-21 se desarrolla al
mismo tiempo que la «norma de consumo de masas» (Aglietta), pero sólo después
de la II Guerra Mundial alcanza un cierto grado de madurez. Lazarsfel, el
matemático vienés institucionaliza el modelo matemático en el ámbito de las
ciencias sociales, traslada las preocupaciones positivistas del Círculo de
Viena al país que construye la norma de consumo de masas al tiempo que la
sociología empírica. Mucho más que el intento de construir un sólido modelo
matemático-sin fisuras de orden lógico-, la encuesta estadística responde a la
necesidad de extender el consumo de masas a través de los estudios de mercado y
la publicidad; que es antes el resultado de una práctica social que el tránsito
de la matemática teórica (pura) a una matemática aplicada, lo cual no es óbice
para que también se generalice en el ámbito académico como consecuencia del
proceso general de reconversión científica de las disciplinas sociales22.
En 1954 Lazarsfel presenta el resultado de un
meticuloso trabajo de adiestramiento en el cálculo matemático aplicado a las
cuestiones sociales: «We need people who are both in mathematics and in some
sector of the social sciences»23. Con la colaboración de la
Fundación Ford, el Social Science Research Council organiza en Estados Unidos
una serie de seminarios con el doble propósito de dar instrucción matemática a
los científicos sociales e incorporar material sociológico en los cursos de
matemáticas -«the double purpose of giving mathematical instruction to social
scientist and of injecting social science materials into college courses in
mathematics»-, en un momento histórico que Lazarsfel describe con las
siguientes palabras: «Hace cien años, la tarea de los hombres preocupados por
las cuestiones sociales parecía consistir en divulgar conjeturas sobre el
desarrollo futuro de la sociedad. Hace cincuenta, el interés estaba centrado en
los conceptos básicos con los que clasificar los fenómenos sociales
fundamentales. Hoy, la tendencia es escoger las «variables» básicas, de
las cuales todos los conceptos e interrelaciones pueden ser derivados». ¿Pero
en qué consiste esa categoría denominada variable, que aparece desde el
principio en todas las formulaciones de Lazarsfel? En un texto realizado en
colaboración con Boudon, se dice textualmente: «por variables se entiende,
simple y vulgarmente, cualquier cantidad que varía»24, pobre
definición, ciertamente, que las sucesivas no lograrán mejorar: «más
exactamente es cualquier característica mensurable que pueda asumir variaciones
o diferentes valores en sucesivos casos individuales» (Duncan Mitchell) 25.
Por último aparece una definición más completa: «Por variables entendemos
cualquier característica, cualidad o atributo de una persona grupo o
acontecimiento, que puede cambiar de valor»26. Estamos ante
características o atributos, sean individuales o sociales, mensurables; estamos
ante las verdaderas categorías de análisis de la encuesta estadística, las
categorías con valor explicativo de los fenómenos sociales que en su
formulación han sido tomadas de forma mecánica de las matemáticas, y que en
realidad representan la «x» o la «y» de la ecuación lineal Y=f(x). El resultado
de esta simple transposición mecánica será la utilización constante y acrítica
de las mismas variables-categorías de análisis-: sexo, edad, estado civil,
profesión, etc., en todas las encuestas estadísticas, junto con la utilización
de cada vez más sofisticados modelos de transformación de variables. Con
frecuencia veremos que el investigador cuantitativo se detendrá en la
explicación minuciosa y detallada de los más complejos procesos de
transformación de variables (cluster, factorial, etc.), sin haber dado la más
mínima explicación sobre la cualidad o la pertinencia de las categorías que va
utilizar en el análisis y olvidando la relevancia/irrelevancia de los
resultados.
Esta seducción por los cálculos complejos
contrasta con la superficialidad de la propia enseñanza estadística. Los
manuales, en realidad, tan sólo enseñan cálculo, reglas de cálculo creadas en
una época en la que no existían ordenadores ni las eficientes calculadoras
electrónicas. De la misma manera que un tratado el siglo XVIII explicaba la
división aritmética del siguiente modo:
REGLA DEL PARTIR
Los actuales manuales tienen por objeto
adiestrar a los alumnos en la colocación de «datos» en el lugar adecuado de la
«fórmula», algo así como aprender a cocinar mediante las recetas de un libro de
cocina. ¿Qué sentido puede tener esto? ¿Adiestrar en el cálculo matemático? Si
así fuese, sería más práctico aprender a integrar, derivar, resolver problemas
de trigonometría, hacer cálculo matricial, etcétera. En una primera fase, en la
época de Lazarsfel pudo tener el sentido de introducir una nueva forma de
trabajar en el ámbito de las ciencias sociales, contribuir a la construcción de
teorías de alcance medio y proporcionar un marchamo científico a la
sociología, del mismo modo que las matemáticas se lo proporcionaron al resto de
las disciplinas académicas, pero en la actualidad, una vez que el prestigio de
la encuesta estadística está suficientemente reconocido, más bien parece que
cumple el papel de perpetuar la posición académica de aquellos investigadores
que proceden del ámbito de las ciencias duras, o se han especializado en el
manejo de la encuesta estadística, y no precisamente en el ámbito de la
academia, sino los institutos de mercado para los que realizan importantes
colaboraciones.
En definitiva podríamos concluir que la
perspectiva cualitativa puede aportar a la investigación sociológica cuantitativa
una sensibilidad diferente. En el punto de vista estrictamente matemático, la
cualidad no está reñida con la cantidad -nunca lo estuvo-, sino que la precede.
La cantidad nunca debió separarse de la cualidad, pues cuando lo hace cae en
los mayores absurdos. Las matemáticas como señala D´Alembert «proceden del
mundo y al mundo deben retornar», pues las actuaciones matemáticas «son útiles
en la medida en que no nos limitemos exclusivamente a ellas»28. Las
cualidades sensibles preceden la cuantificación29 y tal vez sea lo
único que puede darle sentido.
CITAS BIBLIOGRAFICAS
1. Una versión de
este texto fue presentada en el quinto Congreso Español de Sociología celebrado
en Granada en septiembre de 1995
2. Levi Strauss,C. (1955).
3. Levi Strauss (1955:16).
4. (1955:16).
5. Ibáñez (1988:
224).
6. Ibáñez (1988:224).
7. Puede verse al
respecto Feldman, J., Lagneau, G., Matalon, B. (1991).
8. Los sistemas de
ecuaciones propuestos por Legendre y Gauss pueden verse en Jean Louc Chabert et
alt.: «Historie d´algoritmes, Belin, París.
9. La importancia del
método propuesto por Gauss adquiere mayor relevancia si se tiene en cuenta las
resistencias de la matemática, y en general del pensamiento occidental a la
aceptación del «cero», así como de los números negativos. Puede verse al
respecto el interesante trabajo de Lizcano (1993).
10. Swoboda (1975).
11. Einstein,A.,
Infeld, L. (1993).
12. Bruno De Finetti
nace en Innsbruck (Austria) en 1906, estudia economía en el Politécnico de
Milán donde también sigue estudios de biología y matemáticas. En 1925 obtiene
la titulación de matemática aplicada. De 1927 a 1931 trabaja en el Instituto
central de estadística fundado por C. Gini. De 1931 a 1946 trabaja en la
compañía de seguros «Assicurazioni Generali de Trieste» donde introduce el
sistema IBM de tarjetas perforadas y a partir de 1935 le encarga del curso del
cálculo de probabilidades de la Universidad de Trieste, obteniendo al año
siguiente la cátedra de matemáticas financieras y actuariales. A partir de 1930
comienza a madurar sus ideas sobre la probabilidad subjetiva. Su primer
artículo: «probabilismo:Saggio crítico sulla teoria delle probabilitá e sul
valore della scienza» (Nápoles, 1931) al que siguen otros como «Sul significato
soggettivo della probabilitá» (1931) o «La previsión: ses lois logiques, ses
sources subjetives» (1935) en Annales de I´Institut Henri Poincaré. Sus teorías
aparecen años más tarde en un amplio tratado «Teoría delle probabilitá. Sintesi
introductiva con aoppendice critica». Torino, 1976,2 vol.
13. Popper
(1934:139).
14. Op. cit., págs.
143-144.
15. Von Mises, R.,:
«Probabilidad estadística y verdad», traducción de Juan Carlos Grinberg, 1946,
Espasa Calpe, Argentina, citado por Popper (1934:144).
16. Keynes
(1988:400).
17. Le Play, F.: «Les
ouvriers européens: études sur les travaux, la vie domestique et la condition
morale des populations ouvriéres de l´Éurope, et les rapports qui les unissent
aux autres classes, précedes d´un apercu de la méthode d´observation», París,
Impr. Imperiale, 1855. Sobre los trabajos que realiza en el norte de España:
«Campesinos y pescadores del norte de España», Madrid, Ministerio de
Agricultura, Pesca y Alimentación, 1990.
18. Buylla, A. y
Alegre,G.: «Memoria acerca de la Información Agraria en ambas Castillas. Instituto
de Reformas Sociales, 1904, en Arostegui, J.: «Miseria y conciencia del
campesino castellano» Narcea, S.A. Ediciones, Madrid, 1977.
19." Halbwachs,
H.: «La clase ouvriére et les niveaux de vie», Alean, París, 1912.
—: «Budgets de
familles ouvriéres et paysannes en France, en 1907», Bulletin de la Statistique
genérale de la France, 4, fascx. 1, 1914, págs. 47-83.
20. Kiaer, el
estadístico noruego que comienza en 1895 la defensa de la utilización de
muestras representativas en las reuniones internacionales del Instituto
Internacional de Estadística, en la reunión
de Budapest de 1901
lee una carta de CarroU D. Wright en la que da cuenta de la experiencia del
Departamento de Trabajo americano y de la validez de las estadísticas obtenidas
con muestras representativas.
21. Lorrain J. Daston: «Fittin Numbei^ to the World: The Case of
Probability TTieory», en William Aspray y Philip Kitcher (eds.), History and
Hiilosophy of Modem Mathemátics. University
of Minesota Press,
1988, págs. 221-37. Traducción de Javier Izquierdo, "ftunbién: Ribnikov
(1987).
22. En enero de 1958,
los profesores de la Sorbona invitan a Lazarsfeld a pronunciar una conferencia
en el marco del Centro de Estudios de Radio-Televisión en la que describe el
proceso que
se ha producido en
USA. En dicha conferencia, titulada: «Tendencias actuales de la sociología de
la comunicación y comportamiento del público de la radio-televisión americana»,
Lazarsfeld describe la escena americana marcada por el dominio de la radio
televisión comercial -«Vous savez tous, j'sauis sur, que ce n'est pas una
activité gubernamental, que les emissions par les stations américaines
son payée par les
agents de la publicité, de la grande industrie et du commerces»- y la
importancia decisiva que ello representa para la investigación de mercados: «el
industrial busca saber que porcentaje de oyentes ha escuchado su programa. En
lugar de «rating», se podría decir la cota de un programa. El industrial sería
como un especulador que quiere saber si sus acciones suben o no. En efecto hay
en América un número de organizaciones comerciales que os facilitan en
veinticuatro horas, algunas veces en tres o cuatro días, indicaciones fiables
sobre todas las emisiones y que os permiten conocer la proporción de oyentes o
teleespectadores que escuchan un determinado programa. Las cotas son de gran
importancia para el industrial porque el piensa que si su programa obtiene una
buena cota, un buen porcentaje del 25 o el 30%, venderá muchas mercancías». Lazarsfeld (1959).
23. Lazarsfeld (1954).
24. Boudon (1985).
25. Duncan Mitchell: «A Diccionary of Sociology», London, Rouledge &
Kegan, Paul, 1968.
26. Ibidem, pág. 51.
27. García
Berruguilla, JUMI: «Verdadera práctica de las resoluciones de la geometría,
sobre las tres dimensiones. Para un arquitecto perfecto, con una total
resolución para medir y dividir la planimetría
para los
agrimensores». Imprenta de Francisco Mojados, Madrid, 1747. Edición facsímil a
cargo del Colegio Oficial de Aparejadores y Arquitectos técnicos de Murcia,
1979.
28. D'Alembert, J. (1751-80): «Discours preliminaire», Encyclopédie, ou
Diccionnaire raisonné des sciences, des ans et métiers, vol. I, págs. V y ss.,
París, citado por Lorrain J. Daston: «Fitting
Numbers to the World: The case of Probability Theory», op cit. Traducción de Javier
Izquierdo.
29. En este sentido
es muy útil el texto de Émmánuel Lizcano: Imaginario colectivo y creación
matemática» donde puede comprobarse el papel que las cosas sensibles juegan en
la construcción
de modelos
matemáticos, y en concreto el sistema de los números negativos que tantos
siglos tardaron en incorporase a las matemáticas de occidente.
BIBLIOGRAFIA.
IBÁÑEZ, J. (1988):
«Cuantitativo/cualitativo», en Román Reyes, (dir.): Terminología
científico-social. Aproximación crítica, Barcelona, Antrophos.
IRVINE, J., MILES,
I., EVANS, J. (1989): Demystifying Social Statistics, Pluto Press.
KEYNES, J. M. (1988): A treatise on Probability, Macmillan
Cambridge University Press, New York.
KRUSKAL, W., MOSTELLER, F.(1980): «Representative Sampling, IV: the
History of the concept in Statistics, 1895-1939». International Statistical
Review, 48, págs. 169-195, Longman Group Limited. U.K.
LAZARSFELD, P. F. (1954): Mathematical Thinking in the Social
Sciences, The Free Press, Glencoe, Illinois.
LAZARSFELD, P. F.
(1959): «Tendances actuelles de la Sociologie des Communications et
comportement du public de la radio-télévision américaine», Cahiers d'Études
de radio-télévision, n.° 23, Centre d'Études de Radio-télévision.
LEFEVRE, H. (1976): Más
allá del estructuralismo, La pléyade, Buenos Aires.
LEVI-STRAUSS, C.
(1955): «Les mathematiques de l'homme». Bulletin International des Sciences
Sociales, vol. VI, n.° 4, UNESCO, París, traducción de José A. Castorina.
LIZCANO, E. (1993): Imaginario
colectivo y creación matemática, Gedisa, Barcelona.
POPPER, K. (1934): La
lógica de la investigación científica, Ed. Tecnos, Madrid.
PORTER, T. (1986): The raise of statistical thinking, ¡820-1900, Princeton
University Press. U.K.
— (1995): Trust in numhers. The pursuit of ohjectivity in science and
public Ufe, Princeton University Press. USA.
RIBNIKOV, K. (1987): Historia
de las matemáticas. Editorial Mir, Moscú.
STIGLER, S. (1986): The history of statistics. Measurement of
uncertainty hefore 1900, The Belknap press of Harvard University Press.
SWOBODA, H. (1975): El
libro de la estadística moderna. Editorial Omega, Barcelona.
VON MISES, R. (1946):
Probabilidad, estadística y verdad. Espasa Calpe, Argentina. Traducción
de Juan Carlos Grinberg.
Comentarios