Ir al contenido principal

El modelo estadístico desde la perspectiva cualitativa



EMPIRIA. Revista de Metodología de Ciencias Sociales. Nro. 1, 1991, pp. 85-95.

El modelo estadístico desde la perspectiva cualitativa ¹

José Ma. Arribas Macho
Departamento de Sociología I.
Teoría, Metodología y Cambio Social
UNED

RESUMEN

El presente artículo es una reflexión sobre el modelo estadístico y su utilización en el ámbito de las ciencias sociales. En él se plantea estudiar los fundamentos teórico-metodológicos de la disciplina así como el estudio de su Historia. Conocer el contexto histórico del pensamiento estadístico y sus principales desarrollos matemáticos, junto a los problemas prácticos concretos a los que fueron dirigidos, constituye en la actualidad la principal vía de desarrollo de la investigación social cuantitativa.

Canek habló a Guy:
- Mira el cielo; cuenta las estrellas.
-No se pueden contar.
Canek volvió a decir:
-Mira la tierra; cuenta los granos de arena.
-No se pueden contar.
Canek dijo entonces:
-Aunque no se conozca, existe el número de las estrellas y el número de los granos de arena. Pero lo que existe y no se puede contar y se siente aquí dentro, exige una palabra para decirlo. Esta palabra, en este caso, sería inmensidad. Es como una palabra húmeda de misterio. Con ella no se necesita contar ni las estrellas ni los granos de arena. Hemos cambiado el conocimiento por la emoción; es también una manera de penetrar en la verdad de las cosas.

Emilio Abreu Gómez
CANEK. Historia y leyenda de un héroe maya.
(1995, 7a ed.), Colofón, México,D.F.

Alejo Carpentier observa un negrito ocupado en hacer la siguiente suma: 2 + 9 + 4 + 8 + 3 + 5 = 31. En vez de enunciar los números el negrito dice: «Mariposa más elefante, más gato, más muerto, más marinero, más monja, igual venado». Del mismo modo que 12:2 da 6, dice: «puta dividido por mariposa da tortuga».
Roger Caillois, teoría de los juegos, Seix Barral, 1958.

¿Qué puede aportar la perspectiva cualitativa a la estadística? Una perspectiva que se ocupa del lenguaje, del sujeto, de la ideología..., ¿puede ocuparse seriamente de un modelo matemático que es utilizado de forma casi absoluta en la actual investigación social? Podríamos dar una respuesta al estilo de Levi Strauss o Jesús Ibáñez, quienes intentan una matematización blanda de la vida social, la utilización de unas matemáticas del hombre, como dirá Levi Strauss², unas matemáticas, alejadas de la perspectiva clásica y que podríamos llamar cualitativas: la matemática de conjuntos, la topología, o el mismo cálculo de probabilidades.

¿Cómo enfrentan Levi Strauss e Ibáñez el problema? Alrededor de 1944 el famoso antropólogo francés intenta abordar las reglas del parentesco porque se da cuenta que estas reglas, en cuanto «reglas de comunicación» no son «fundamentalmente diferentes a las que predominan en el lenguaje» y plantea el problema de su tratamiento a los «almidonados» matemáticos de entonces, obteniendo una respuesta poco satisfactoria: el matrimonio, le dicen, «no es asimilable ni a una adición, ni a una multiplicación (y aún menos a una sustracción o a una división) y, por tanto, es imposible reducirlo a una formulación matemática» ³. Algún tiempo después, «uno de los jóvenes maestros» de la nueva escuela matemática de conjuntos le asegura «que para elaborar la teoría de las reglas del matrimonio, el matemático no debía reducirlo a un proceso cuantitativo; en verdad, ni si quiera necesitaba saber qué es el matrimonio. Todo lo que necesitaba era, ante todo, que los matrimonios observados en una sociedad dada pudieran ser reducidos a un número finito de clases, luego que esas clases estuvieran unidas entre sí por relaciones determinadas (...). Desde ese momento, todas las reglas del matrimonio de una sociedad dada pueden ser reducidas a ecuaciones, y éstas, tratadas según métodos de razonamientos rigurosos y probados, en tanto la naturaleza íntima del fenómeno estudiado - el matrimonio-se deja a un lado e incluso puede ignorarse por completo»4. Ibáñez, por su parte, interesado también en una sociología científica, afirma en 19885 que «la matematización es necesaria al enfoque científico». Después advertirnos que las relaciones de orden también son matemáticas, y que «cuantificar no es necesariamente alcanzar una métrica», defiende abiertamente el uso de matemáticas «no cuantitativas»: «el primer paso del proceso de matematización de un campo de objetos (cualidades) es su integración en conjuntos (de cada elemento retenemos no lo que es-su cualidad-, sino lo que no es-las diferencias entre ellos-)»6.

De acuerdo con estos enfoques, podemos preguntarnos qué tipo de conjuntos construye la estadística. El modelo estadístico funciona con frecuencias, esto es, el número de veces que se repite un acontecimiento; parece como si la estadística trabajase tan sólo fenómenos que se manifiestan mediante la sucesión continua de eventos, los acontecimientos singulares, las catástrofes no tienen cabida en el modelo estadístico. Las catástrofes quedan para las matemáticas de René Tom, y los sujetos (también catástrofes, o como le gustaba afirmar a Jesús Ibáñez, supervivientes de una sucesión de catástrofes) para el psicoanálisis. No hay sujetos dentro del modelo estadístico, hay datos, y los datos, además de construidos, son esencialmente frecuencias. Las frecuencias no son sólo números (el número es tan sólo un signo, algo que está en lugar de otra cosa) y las frecuencias para su existencia necesitan del establecimiento previo de «clases» o categorías, sólo después procede la operación de contar. Sin esa operación esencialmente cualitativa, sencillamente, no hay frecuencias.

Las frecuencias se hacen operativas con las llamadas medidas de tendencia central y de dispersión. Éstas medidas, nos anticipan que los conjuntos de la estadística están caracterizados por su lugar central y las distancias de cada uno de sus elementos respecto al centro. La más popular, y también la más útil es la «media aritmética», también llamada media estadística. Suele indicarse que es útil porque resume grandes cantidades de información, pero en realidad constituye uno de los puntos nucleares de todo el modelo estadístico7. Es el referente a partir del cual construimos los conjuntos de frecuencias y desde donde medimos su dispersión. La media mimética es una abstracción, es el resultado de una operación aritmética, la acción de sumar todos los valores de los elementos del conjunto y dividir por el número total, pero, los estudiantes saben (especialmente los de la UNED, donde la dispersión de la edad es muy alta) que cuando se suman las edades de todos los miembros de un aula y se divide por el total de alumnos, a menudo, no hay nadie en la clase que tenga esa edad. La media es un mero punto de referencia que servirá para construir el resto del andamiaje estadístico.

La medida de dispersión más conocida es la desviación típica, es una medida aritmética que nos da información de las instancias de cada uno de los elementos del conjunto respecto del lugar construido como centro: la media estadística. Su forma de elaboración procede del método de los mínimos cuadrados desarrollados a finales del siglo XVIII por Legendre y Gauss y utilizada con éxito en 1901 para resolver los errores de medición de los astrónomos en el cálculo de la órbita del asteroide Ceres8. La idea básica del método consiste en calcular primero la media de todas las mediciones efectuadas, y considerar como distancias tanto los valores positivos, resultado de restar al valor de las mediciones que sobrepasan la media, la propia media; como los negativos, esto es, todos aquellos que se quedan por debajo de la media9. La forma de hacer equivalentes esas distancias para poderla sumar es elevarlas al cuadrado con lo que transformamos los números negativos en positivos. Después se calcula un valor medio de las distancias al dividirlo por el número de mediciones. Si después realizamos la operación inversa, el cálculo de la raíz cuadrada, tendremos una unidad de desviación típica.

¿Y las muestras?, el prestigio actual de la estadística inferencial reside en su capacidad de sustituir el todo por la parte. La primitiva estadística construía censos, la moderna hace encuestas representativas, pero, ¿en qué se basa la teoría de la representatividad estadística? Podríamos decir que en esencia, la estadística afirma lo siguiente: si medimos determinados atributos en un pequeño colectivo que a su vez forma parte de otro mayor, su estructura será idéntica a la del colectivo grande siempre y cuando hayamos seleccionado los objetos a medir de forma aleatoria, es decir, azarosa. El azar se encargará por sí solo de que nuestro pequeño colectivo resulte equivalente al grande, o mejor, el valor de lo que queremos medir, será esencialmente el mismo que si midiésemos el colectivo grande.

En realidad, la teoría muestral es más modesta y tan sólo afirma que si extraemos muchas muestras de una población (el término población en estadística hace referencia a un conjunto de eventos y por tanto no es equivalente al término empleado por la demografía), la mayor parte de las medidas de nuestras muestras estarán próximas a las de la población, pero no nos dice nada de lo que ocurrirá extrayendo una sola (la práctica habitual en la investigación sociológica); en realidad nos dice la probabilidad que tenemos de que nuestra muestra se desvíe de los valores de la población, pero nada más. Ello nos lleva a considerar otro problema complejo e insuficientemente aclarado cómo es el problema de la probabilidad (Popper lo llamará el problema fundamental del azar), pero antes debemos tener en cuenta que la teoría muestral no funcionaría si no llevase aparejada una teoría de la medida, o mejor, una teoría del error, entre otras cosas sostiene que en toda medición se producen errores, y que los errores, cuando uno realiza un número suficientemente grande de mediciones, se cometen por defecto y por exceso en igual medida. La idea es también del matemático alemán Karl Friedrich Gauss quien alrededor de 1790 formalizará la teoría de los mínimos cuadrados en un elegante modelo matemático como es la curva de errores que lleva su nombre y que nos muestra la probabilidad con la que se comete cualquier tipo de error en una medición.

La teoría de la probabilidad es el puente que une los grandes conjuntos de datos y las muestras, y algunos estadísticos gustan de señalar que es la que aporta las bases «que permiten apreciar seguridad y precisión en la toma de muestras»10. En el modelo estadístico, la probabilidad de un acontecimiento es algo así como el grado de certidumbre que tenemos de su realización. Desde el punto de vista operacional, es una relación (un cociente) entre su frecuencia de realización y el número total de observaciones cuando este número es suficientemente grande.

Durante los años treinta, «el método estadístico» alcanzó notoriedad por cuanto se presenta como el único método capaz de resolver el problema de la posición y la velocidad de los cuantos elementales de materia. No se podía determinar el movimiento de un fotón o de un electrón a la manera de la mecánica clásica, y aunque aplicando el «método estadístico» tampoco es posible predecir el comportamiento de uno de los componentes de un chorro de electrones, si puede calcularse la probabilidad de que se comporte de una manera determinada. Al menos en 1938, a Einstein daba ya por inevitable el empleo del método estadístico en la física de partículas11, y desde 1934, un conocido epistemólogo como K. Popper centra su interés en la teoría de la probabilidad. En su «Logik der Forschung», Popper afirmaba que las «relaciones entre probabilidad y experiencia necesitan aún ser aclaradas», además de que la idea de probabilidad resulta especialmente «refractaria» a su gran aportación epistemológica, la idea de falsabilidad, marchamo de toda proposición que pretende ser considerada científica y que los aspirantes a profesor universitario repiten sin piedad en las memorias de oposición. Y resulta refractaria porque este método estadístico parece funcionar en cualquier circunstancia y condición, con lo que difícilmente puede ser considerado falsable.

La teoría clásica de Laplace (el cociente entre el número de casos favorable y el número de casos igualmente posibles) ha sido rechazada por tautológica puesto que decir casos igualmente posibles es lo mismo que decir igualmente probables. Keynes y De Finetti12 ensayan una interpretación subjetiva de la teoría de la probabilidad, una interpretación psicologista; para el teórico de la economía, la probabilidad sería algo así como la «medida de los sentimientos de certidumbre o incertidumbre, de creencia o de duda, que pueden surgir en nosotros ante ciertas aserciones o conjeturas»13, pero finalmente, Popper, después de iniciar lo que él llama el problema fundamental de la teoría del azar (los acontecimientos azarosos se caracterizan por un tipo de incalculabilidad que hace precisamente posible la aplicación del cálculo de probabilidades),se inclina por la teoría frecuencial de Von Mises quien considera la probabilidad como el límite de la frecuencia relativa en un colectivo («y de aquí que la idea de probabilidad sea únicamente aplicable a sucesiones de eventos»)14.

Para Von Mises, la «tarea del cálculo de probabilidades» consiste pura y exclusivamente en inferir ciertos «colectivos deducidos» con ciertas «distribuciones deducidas» a partir de determinados «colectivos iniciales» dados con ciertas «distribuciones iniciales» dadas; dicho brevemente: en calcular probabilidades que no están dadas a partir de las que lo están. Cuatro son los rasgos básicos de su teoría: 1) el concepto de colectivo precede al de probabilidad; 2) la probabilidad se define como el límite de las frecuencias relativas; 3) formula un axioma de aleatoriedad, y 4) define la tarea del cálculo de probabilidades15. Pero ¿cómo se determinan las probabilidades iniciales de un evento? Como ya ha sido observado en anteriores ocasiones «no hay un método directo y simple por el cual pueda hacerse la transición de una frecuencia numérica observada a una medida numérica de probabilidad»16. En general la estadística inferencial nos enfrenta ante el problema de la inducción. Para los primeros inductivistas, el proceso científico partía de la observación de los hechos a través de los sentidos, esto es, del trabajo experimental, y a partir de ahí establecían teorías y leyes por inducción de las que deducían predicciones y explicaciones. Pero así como razonamiento deductivo ha construido un potente aparato lógico que permite aceptar o rechazar las explicaciones derivadas de las leyes universales, no existe un aparato lógico equivalente que permita afirmar la validez del procedimiento inductivo. La lógica nos indica que si las premisas de un determinado momento son verdaderas, la conclusión también puede ser verdadera, pero nada nos dice acerca de la verosimilitud de las premisas. Los requisitos necesarios para el buen funcionamiento del procedimiento inductivo: que el número de observaciones sea elevado, que se repitan en condiciones distintas y que ningún enunciado observacional entre en contradicción con la ley universal, no son suficientemente sólidos. Ya el primero los requisitos adolece de una profunda indefinición al no poder precisar el número de observaciones suficientes; y si no es posible realizar un número ilimitado de observaciones ¿cómo es posible asegurar la validez universal de la ley obtenida por procedimientos inductivos?. Se ha intentado resolver el problema introduciendo la probabilidad, de modo que parecería más probable una ley obtenida con un elevado número de observaciones que otra obtenida con unas pocas, pero el cálculo de probabilidades se encarga de echar por tierra la validez de tal aserto: el cociente de un número finito de casos por un número infinito de aplicaciones a las que supuestamente se refiere una ley universal es siempre cero, con lo que la probabilidad de cualquier ley universal es también cero.

Los esfuerzos de Lazarsfel y la sociología americana en la generalización del modelo estadístico han contribuido a su consolidación como saber académico y práctica profesional en el ámbito de la investigación de mercados. Las primeras encuestas fueron dirigidas a «la cuestión social», eran estudios monográficos como los realizados por Frederic Le Play destinados a conocer las condiciones de vida de las familias obreras17 o los estudios de Buylla dirigidos a conocer las causas de los conflictos obreros y las características de las organizaciones sindicales18, o los estudios de Halbwachs sobre «la clase obrera y los niveles de vida»19. Hasta 1903, los estadísticos del Instituto Internacional de Estadística están más interesados en la realización de censos y estudios monográficos que en los estudios basados en muestras. Es a partir de 1925 cuando parece haber consenso respecto a la utilización de los métodos de muestreo aleatorio.

Desde principios de siglo, en Estados Unidos se realizan encuestas para conocer el paro basadas en el método representativos20 y a partir de los años 20 comienzan los estudios de mercado. En 1936 el Instituto de investigación de mercados de George Gallup acierta en su predicción de triunfo para Rooselvet con lo que la encuesta basada en el muestreo probabilístico comienza a extender su campo de acción a los dominios de la actividad política. La encuesta estadística, que utiliza muestras aleatorias y encuentra justificación matemática en la teoría de errores de Gauss y en el cálculo de probabilidades -hasta 1933 no hay axiomatización de la teoría de probabilidades, obra de Kolmogorov-21 se desarrolla al mismo tiempo que la «norma de consumo de masas» (Aglietta), pero sólo después de la II Guerra Mundial alcanza un cierto grado de madurez. Lazarsfel, el matemático vienés institucionaliza el modelo matemático en el ámbito de las ciencias sociales, traslada las preocupaciones positivistas del Círculo de Viena al país que construye la norma de consumo de masas al tiempo que la sociología empírica. Mucho más que el intento de construir un sólido modelo matemático-sin fisuras de orden lógico-, la encuesta estadística responde a la necesidad de extender el consumo de masas a través de los estudios de mercado y la publicidad; que es antes el resultado de una práctica social que el tránsito de la matemática teórica (pura) a una matemática aplicada, lo cual no es óbice para que también se generalice en el ámbito académico como consecuencia del proceso general de reconversión científica de las disciplinas sociales22.

En 1954 Lazarsfel presenta el resultado de un meticuloso trabajo de adiestramiento en el cálculo matemático aplicado a las cuestiones sociales: «We need people who are both in mathematics and in some sector of the social sciences»23. Con la colaboración de la Fundación Ford, el Social Science Research Council organiza en Estados Unidos una serie de seminarios con el doble propósito de dar instrucción matemática a los científicos sociales e incorporar material sociológico en los cursos de matemáticas -«the double purpose of giving mathematical instruction to social scientist and of injecting social science materials into college courses in mathematics»-, en un momento histórico que Lazarsfel describe con las siguientes palabras: «Hace cien años, la tarea de los hombres preocupados por las cuestiones sociales parecía consistir en divulgar conjeturas sobre el desarrollo futuro de la sociedad. Hace cincuenta, el interés estaba centrado en los conceptos básicos con los que clasificar los fenómenos sociales fundamentales. Hoy, la tendencia es escoger las «variables» básicas, de las cuales todos los conceptos e interrelaciones pueden ser derivados». ¿Pero en qué consiste esa categoría denominada variable, que aparece desde el principio en todas las formulaciones de Lazarsfel? En un texto realizado en colaboración con Boudon, se dice textualmente: «por variables se entiende, simple y vulgarmente, cualquier cantidad que varía»24, pobre definición, ciertamente, que las sucesivas no lograrán mejorar: «más exactamente es cualquier característica mensurable que pueda asumir variaciones o diferentes valores en sucesivos casos individuales» (Duncan Mitchell) 25. Por último aparece una definición más completa: «Por variables entendemos cualquier característica, cualidad o atributo de una persona grupo o acontecimiento, que puede cambiar de valor»26. Estamos ante características o atributos, sean individuales o sociales, mensurables; estamos ante las verdaderas categorías de análisis de la encuesta estadística, las categorías con valor explicativo de los fenómenos sociales que en su formulación han sido tomadas de forma mecánica de las matemáticas, y que en realidad representan la «x» o la «y» de la ecuación lineal Y=f(x). El resultado de esta simple transposición mecánica será la utilización constante y acrítica de las mismas variables-categorías de análisis-: sexo, edad, estado civil, profesión, etc., en todas las encuestas estadísticas, junto con la utilización de cada vez más sofisticados modelos de transformación de variables. Con frecuencia veremos que el investigador cuantitativo se detendrá en la explicación minuciosa y detallada de los más complejos procesos de transformación de variables (cluster, factorial, etc.), sin haber dado la más mínima explicación sobre la cualidad o la pertinencia de las categorías que va utilizar en el análisis y olvidando la relevancia/irrelevancia de los resultados.

Esta seducción por los cálculos complejos contrasta con la superficialidad de la propia enseñanza estadística. Los manuales, en realidad, tan sólo enseñan cálculo, reglas de cálculo creadas en una época en la que no existían ordenadores ni las eficientes calculadoras electrónicas. De la misma manera que un tratado el siglo XVIII explicaba la división aritmética del siguiente modo:



REGLA DEL PARTIR

Los actuales manuales tienen por objeto adiestrar a los alumnos en la colocación de «datos» en el lugar adecuado de la «fórmula», algo así como aprender a cocinar mediante las recetas de un libro de cocina. ¿Qué sentido puede tener esto? ¿Adiestrar en el cálculo matemático? Si así fuese, sería más práctico aprender a integrar, derivar, resolver problemas de trigonometría, hacer cálculo matricial, etcétera. En una primera fase, en la época de Lazarsfel pudo tener el sentido de introducir una nueva forma de trabajar en el ámbito de las ciencias sociales, contribuir a la construcción de teorías de alcance medio y proporcionar un marchamo científico a la sociología, del mismo modo que las matemáticas se lo proporcionaron al resto de las disciplinas académicas, pero en la actualidad, una vez que el prestigio de la encuesta estadística está suficientemente reconocido, más bien parece que cumple el papel de perpetuar la posición académica de aquellos investigadores que proceden del ámbito de las ciencias duras, o se han especializado en el manejo de la encuesta estadística, y no precisamente en el ámbito de la academia, sino los institutos de mercado para los que realizan importantes colaboraciones.

En definitiva podríamos concluir que la perspectiva cualitativa puede aportar a la investigación sociológica cuantitativa una sensibilidad diferente. En el punto de vista estrictamente matemático, la cualidad no está reñida con la cantidad -nunca lo estuvo-, sino que la precede. La cantidad nunca debió separarse de la cualidad, pues cuando lo hace cae en los mayores absurdos. Las matemáticas como señala D´Alembert «proceden del mundo y al mundo deben retornar», pues las actuaciones matemáticas «son útiles en la medida en que no nos limitemos exclusivamente a ellas»28. Las cualidades sensibles preceden la cuantificación29 y tal vez sea lo único que puede darle sentido.

CITAS BIBLIOGRAFICAS

1. Una versión de este texto fue presentada en el quinto Congreso Español de Sociología celebrado en Granada en septiembre de 1995
2. Levi Strauss,C. (1955).
3. Levi Strauss (1955:16).
4. (1955:16).
5. Ibáñez (1988: 224).
6. Ibáñez (1988:224).
7. Puede verse al respecto Feldman, J., Lagneau, G., Matalon, B. (1991).
8. Los sistemas de ecuaciones propuestos por Legendre y Gauss pueden verse en Jean Louc Chabert et alt.: «Historie d´algoritmes, Belin, París.
9. La importancia del método propuesto por Gauss adquiere mayor relevancia si se tiene en cuenta las resistencias de la matemática, y en general del pensamiento occidental a la aceptación del «cero», así como de los números negativos. Puede verse al respecto el interesante trabajo de Lizcano (1993).
10. Swoboda (1975).
11. Einstein,A., Infeld, L. (1993).
12. Bruno De Finetti nace en Innsbruck (Austria) en 1906, estudia economía en el Politécnico de Milán donde también sigue estudios de biología y matemáticas. En 1925 obtiene la titulación de matemática aplicada. De 1927 a 1931 trabaja en el Instituto central de estadística fundado por C. Gini. De 1931 a 1946 trabaja en la compañía de seguros «Assicurazioni Generali de Trieste» donde introduce el sistema IBM de tarjetas perforadas y a partir de 1935 le encarga del curso del cálculo de probabilidades de la Universidad de Trieste, obteniendo al año siguiente la cátedra de matemáticas financieras y actuariales. A partir de 1930 comienza a madurar sus ideas sobre la probabilidad subjetiva. Su primer artículo: «probabilismo:Saggio crítico sulla teoria delle probabilitá e sul valore della scienza» (Nápoles, 1931) al que siguen otros como «Sul significato soggettivo della probabilitá» (1931) o «La previsión: ses lois logiques, ses sources subjetives» (1935) en Annales de I´Institut Henri Poincaré. Sus teorías aparecen años más tarde en un amplio tratado «Teoría delle probabilitá. Sintesi introductiva con aoppendice critica». Torino, 1976,2 vol.
13. Popper (1934:139).
14. Op. cit., págs. 143-144.
15. Von Mises, R.,: «Probabilidad estadística y verdad», traducción de Juan Carlos Grinberg, 1946, Espasa Calpe, Argentina, citado por Popper (1934:144).
16. Keynes (1988:400).
17. Le Play, F.: «Les ouvriers européens: études sur les travaux, la vie domestique et la condition morale des populations ouvriéres de l´Éurope, et les rapports qui les unissent aux autres classes, précedes d´un apercu de la méthode d´observation», París, Impr. Imperiale, 1855. Sobre los trabajos que realiza en el norte de España: «Campesinos y pescadores del norte de España», Madrid, Ministerio de Agricultura, Pesca y Alimentación, 1990.
18. Buylla, A. y Alegre,G.: «Memoria acerca de la Información Agraria en ambas Castillas. Instituto de Reformas Sociales, 1904, en Arostegui, J.: «Miseria y conciencia del campesino castellano» Narcea, S.A. Ediciones, Madrid, 1977.
19." Halbwachs, H.: «La clase ouvriére et les niveaux de vie», Alean, París, 1912.
—: «Budgets de familles ouvriéres et paysannes en France, en 1907», Bulletin de la Statistique genérale de la France, 4, fascx. 1, 1914, págs. 47-83.
20. Kiaer, el estadístico noruego que comienza en 1895 la defensa de la utilización de muestras representativas en las reuniones internacionales del Instituto Internacional de Estadística, en la reunión
de Budapest de 1901 lee una carta de CarroU D. Wright en la que da cuenta de la experiencia del Departamento de Trabajo americano y de la validez de las estadísticas obtenidas con muestras representativas.
21. Lorrain J. Daston: «Fittin Numbei^ to the World: The Case of Probability TTieory», en William Aspray y Philip Kitcher (eds.), History and Hiilosophy of Modem Mathemátics. University
of Minesota Press, 1988, págs. 221-37. Traducción de Javier Izquierdo, "ftunbién: Ribnikov (1987).
22. En enero de 1958, los profesores de la Sorbona invitan a Lazarsfeld a pronunciar una conferencia en el marco del Centro de Estudios de Radio-Televisión en la que describe el proceso que
se ha producido en USA. En dicha conferencia, titulada: «Tendencias actuales de la sociología de la comunicación y comportamiento del público de la radio-televisión americana», Lazarsfeld describe la escena americana marcada por el dominio de la radio televisión comercial -«Vous savez tous, j'sauis sur, que ce n'est pas una activité gubernamental, que les emissions par les stations américaines
son payée par les agents de la publicité, de la grande industrie et du commerces»- y la importancia decisiva que ello representa para la investigación de mercados: «el industrial busca saber que porcentaje de oyentes ha escuchado su programa. En lugar de «rating», se podría decir la cota de un programa. El industrial sería como un especulador que quiere saber si sus acciones suben o no. En efecto hay en América un número de organizaciones comerciales que os facilitan en veinticuatro horas, algunas veces en tres o cuatro días, indicaciones fiables sobre todas las emisiones y que os permiten conocer la proporción de oyentes o teleespectadores que escuchan un determinado programa. Las cotas son de gran importancia para el industrial porque el piensa que si su programa obtiene una buena cota, un buen porcentaje del 25 o el 30%, venderá muchas mercancías». Lazarsfeld (1959).
23. Lazarsfeld (1954).
24. Boudon (1985).
25. Duncan Mitchell: «A Diccionary of Sociology», London, Rouledge & Kegan, Paul, 1968.
26. Ibidem, pág. 51.
27. García Berruguilla, JUMI: «Verdadera práctica de las resoluciones de la geometría, sobre las tres dimensiones. Para un arquitecto perfecto, con una total resolución para medir y dividir la planimetría
para los agrimensores». Imprenta de Francisco Mojados, Madrid, 1747. Edición facsímil a cargo del Colegio Oficial de Aparejadores y Arquitectos técnicos de Murcia, 1979.
28. D'Alembert, J. (1751-80): «Discours preliminaire», Encyclopédie, ou Diccionnaire raisonné des sciences, des ans et métiers, vol. I, págs. V y ss., París, citado por Lorrain J. Daston: «Fitting
Numbers to the World: The case of Probability Theory», op cit. Traducción de Javier Izquierdo.
29. En este sentido es muy útil el texto de Émmánuel Lizcano: Imaginario colectivo y creación matemática» donde puede comprobarse el papel que las cosas sensibles juegan en la construcción
de modelos matemáticos, y en concreto el sistema de los números negativos que tantos siglos tardaron en incorporase a las matemáticas de occidente.

BIBLIOGRAFIA.

IBÁÑEZ, J. (1988): «Cuantitativo/cualitativo», en Román Reyes, (dir.): Terminología científico-social. Aproximación crítica, Barcelona, Antrophos.
IRVINE, J., MILES, I., EVANS, J. (1989): Demystifying Social Statistics, Pluto Press.
KEYNES, J. M. (1988): A treatise on Probability, Macmillan Cambridge University Press, New York.
KRUSKAL, W., MOSTELLER, F.(1980): «Representative Sampling, IV: the History of the concept in Statistics, 1895-1939». International Statistical Review, 48, págs. 169-195, Longman Group Limited. U.K.
LAZARSFELD, P. F. (1954): Mathematical Thinking in the Social Sciences, The Free Press, Glencoe, Illinois.
LAZARSFELD, P. F. (1959): «Tendances actuelles de la Sociologie des Communications et comportement du public de la radio-télévision américaine», Cahiers d'Études de radio-télévision, n.° 23, Centre d'Études de Radio-télévision.
LEFEVRE, H. (1976): Más allá del estructuralismo, La pléyade, Buenos Aires.
LEVI-STRAUSS, C. (1955): «Les mathematiques de l'homme». Bulletin International des Sciences Sociales, vol. VI, n.° 4, UNESCO, París, traducción de José A. Castorina.
LIZCANO, E. (1993): Imaginario colectivo y creación matemática, Gedisa, Barcelona.
POPPER, K. (1934): La lógica de la investigación científica, Ed. Tecnos, Madrid.
PORTER, T. (1986): The raise of statistical thinking, ¡820-1900, Princeton University Press. U.K.
— (1995): Trust in numhers. The pursuit of ohjectivity in science and public Ufe, Princeton University Press. USA.
RIBNIKOV, K. (1987): Historia de las matemáticas. Editorial Mir, Moscú.
STIGLER, S. (1986): The history of statistics. Measurement of uncertainty hefore 1900, The Belknap press of Harvard University Press.
SWOBODA, H. (1975): El libro de la estadística moderna. Editorial Omega, Barcelona.
VON MISES, R. (1946): Probabilidad, estadística y verdad. Espasa Calpe, Argentina. Traducción de Juan Carlos Grinberg.

Comentarios

Entradas populares de este blog

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti...

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

LA ESTADÍSTICA Y LOS DIFERENTES PARADIGMAS DE INVESTIGACIÓN EDUCATIVA.

Educar, 10 (1986). 79-101.   F. Javier Tejedor Profesor Catedrático del Área de Métodos de Investigación y Diagnóstico en Educación. Universidad de Santiago de Compostela. RESUMEN. En este trabajo el autor asocia el término paradigma a la perspectiva científica que predomina en un campo determinado y aboga por mantener la denominación «paradigmas racionalista y naturalista» y evitar el planteamiento del problema en términos de «cuantitativo y cualitativo». Analiza las diferencias entre ambos paradigmas y asocia la dicotomía entre los métodos cuantitativos y cualitativos al pensamiento de que existe una vinculación única e inequívoca entre método y paradigma justificando que no existe una relación exclusiva entre método y paradigma. Se define el método como el conjunto de procedimientos a seguir por toda actividad que aspire a ser científica cuya misión es aportar pruebas empíricas verificables aunque, una vez observado el hecho, el investigador puede afron