Ir al contenido principal

El modelo estadístico desde la perspectiva cualitativa (1)

EMPIRIA. Revista de Metodología de Ciencias Sociales. Nº 1, 1998, PP. 85-95

José Mª Arribas Macho

Departamento de Sociología I

Teoría, Metodología y Cambio Social

UNED

(1) una versión de este texto fue presentada en el V Congreso Español de Sociología celebrado en Granada septiembre de 1995

RESUMEN

El presente artículo es una reflexión sobre el modelo estadístico y su utilización en el ámbito de las ciencias sociales. En él se plantea estudiar los fundamentos teórico-metodológicos de la disciplina así como el estudio de su Historia. Conocer el contexto histórico del pensamiento estadístico y sus principales desarrollos matemáticos, junto a los problemas prácticos concretos a los que fueron dirigidos, constituye en la actualidad la principal vía de desarrollo de la investigación social cuantitativa.

ABSTRACT

This article is a reflection ahout the statistical model and the utilisation inside social sciences. On remarles about the necessity of studing theoric and methodologic principies and the History of Statistics. To know the historical context of statistical thinkings, its mathematical development and the prohlems about there were applied, are the principal way to developpe today quantitative social research.

Canek habló a Guy:

- mira el cielo; cuenta las estrellas.

- No se pueden contar.

Canek volvió a decir:

-Mira la tierra; cuenta los granos de arena.

-No se pueden contar.

Canek dijo entonces:

- Aunque no se conozca, existe el número de las estrellas y el número de los granos de arena. Pero lo que existe y no se puede contar si se siente aquí dentro, exige una palabra para decirlo. Esta palabra, en este caso, sería inmensidad. Es como una palabra húmeda de misterio. Con ella no se necesita contar ni las estrellas ni los granos de arena. Hemos cambiado el conocimiento por la emoción: que es también una manera de penetrar en la verdad de las cosas.

Emilio Abreu Gómez.

CANEK. Historia y leyenda de un héroe maya

(1995, 7ª ed que al final), Colofón. México, DF.

Alejo Carpentier observa un negrito ocupado en hacer la siguiente suma: 2 + 9 + 4 + 8 + 3 + 5 = 31. En vez de enunciar los números en negrito dice: «Mariposa más elefante, más gato, más muerto, más marinero, más monja, igual venado». Del mismo modo que 12: 2 da 6, dice: «Puta dividido por mariposa da tortuga».

Roger Caillois, Teoría de los juegos, Seix Barral, 1958.

¿Que pueda aportar la perspectiva cualitativa a la estadística? Una perspectiva que se ocupa del lenguaje, del sujeto, de la ideología..., ¿puede ocuparse seriamente de un modelo matemático que es utilizado de forma casi absoluta en la actual investigación social? Podríamos dar una respuesta al estilo de Levi Strauss o Jesús Ibáñez, quienes intentan una matematización blanda de la vida social, la utilización de unas matemáticas del hombre, como dirá Levi Strauss (2), unas matemáticas, alejadas de la perspectiva clásica y que podríamos llamar cualitativas: la matemática de conjuntos, la topología, o el mismo cálculo de probabilidades.

¿Cómo enfrentan Levi Strauss e Ibáñez el problema? Alrededor de 1944 el famoso antropólogo francés intenta abordar las reglas del parentesco porque se da cuenta que estas reglas, en cuanto «reglas de comunicación» no son «fundamentalmente diferentes a las que predominan en el lenguaje», y plantea el problema de su tratamiento a los «almidonados» matemáticos de entonces, obteniendo una respuesta poco satisfactoria: el matrimonio, le dicen, «no es asimilable ni a una adición,ni a una multiplicación (y menos aún a una sustracción o a una división) y, por tanto, es imposible reducirlo a una formulación matemática» (3). Algún tiempo después, «uno de los jóvenes maestros» de la nueva escuela matemática de conjuntos le asegura «que para elaborar la teoría de las reglas del matrimonio, el matemático no debía reducirlo a un proceso cuantitativo; en verdad, ni siquiera necesitaba saber que es el matrimonio. Todo lo que necesitaba era, ante todo, que los matrimonios observados en una sociedad dada pudieran ser reducidos a un número finito de clases; luego que esas clases estuvieran unidas entre sí por relaciones determinadas (...). Desde ese momento, todas las reglas del matrimonio de una sociedad dada pueden ser reducidas a ecuaciones, y éstas, tratadas según métodos de razonamiento rigurosos y probados, en tanto la naturaleza íntima del fenómeno estudiado-- el matrimonio-- se deja de un lado e incluso puede ignorarse por completo» (4). Ibáñez, por su parte, interesado también en una sociología científica, afirma en 1988 (5) que «la matematización es necesaria al enfoque científico». Después de advertirnos que las relaciones de orden también son matemáticas, y que «cuantificar no es necesariamente alcanzar una métrica», defiende abiertamente el uso de matemáticas «no cuantitativas»: «el primer paso en el proceso de matematización de un campo de objetos (cualidades) es su integración en conjuntos (de cada elemento retenemos no lo que es-- su cualidad-- sino lo que no es-- las diferencias entre ellos--)» (6).

De acuerdo con estos enfoques, podemos preguntarnos qué tipo de conjuntos construye la estadística. El modelo estadístico funciona con frecuencias, esto es el número de veces que se repite un acontecimiento; parece como si la estadística trabajase tan sólo fenómenos que se manifiestan mediante la sucesión continuada de eventos, los acontecimientos singulares, las catástrofes no tienen cabida en el modelo estadístico. Las catástrofes quedan para las matemáticas de René Thom, y los sujetos (también catástrofes, o como le gustaba afirmar a Jesús Ibáñez, supervivientes de una sucesión de catástrofes) para el psicoanálisis. No han sujetos dentro del modelo estadístico, hay datos, y los datos, además de construidos, son esencialmente frecuencias. Las frecuencias no son sólo números (el número es tan sólo un signo, algo que está en lugar de otra cosa) y las frecuencias para su existencia necesitan del establecimiento previo de «clases» o categorías, sólo después procede la operación de contar. Sin esa operación esencialmente cualitativa, sencillamente, no hay frecuencias.

Las frecuencias se hacen operativas con las llamadas medidas de tendencia central y de dispersión. Éstas medidas, nos anticipan que los conjuntos de la estadística están caracterizados por su lugar central y las distancias de cada uno de sus elementos respecto al centro. La más popular, y también la más útil es la «media aritmética», también llamada media estadística. Suele indicarse que es útil porque resume grandes cantidades de información, pero en realidad constituye uno de los puntos nucleares de todo el modelo estadístico (7). Es el referente a partir del cual construimos los conjuntos de frecuencias y desde donde medimos su dispersión. La media aritmética es una abstracción, es el resultado de una operación aritmética, la acción de sumar todo los valores de los elementos del conjunto y dividir por el número total, pero, los estudiantes saben (especialmente los de la UNED, donde la dispersión de la edad es muy alta) que cuando se suman las edades de todo los miembros de un aula y se divide por el total de alumnos, a menudo, no hay nadie en la clase que tenga esa edad la media es un mero punto de referencia que servirá para construir el resto del andamiaje estadístico.

La medida de dispersión más conocida es la desviación típica, es una media aritmética que nos da información de las distancias de cada uno de los elementos del conjunto respecto del lugar construido como centro: la media estadística. Su forma de elaboración procede del método de los mínimos cuadrados desarrollada a finales del siglo XVIII por Legendre y Gauss y utilizada con éxito en 1901 para resolver los errores de medición de los astrónomos en el cálculo de la órbita del asteroide Ceres (8). La idea básica del método consiste en calcular primero la media de toda las mediciones efectuadas, y considerar como distancias tanto los valores positivos, resultado de restar el valor de las mediciones que sobrepasan la media, la propia media; como los negativos, esto es, todos aquellos que quedan por debajo de la media (9). La forma de hacer equivalentes estas distancias para poderlas sumar es elevarlas al cuadrado con lo que transformamos los números negativos en positivos. Después se calcula el valor medio de las distancias al dividirlo por el número de mediciones. Si después realizamos la operación inversa, el cálculo de la raíz cuadrada, tendremos una unidad de desviación típica.

¿Y las muestras?, el prestigio actual de la estadística inferencial reside en su capacidad de sustituir el todo por la parte. La primitiva estadística construía censos, la moderna hace encuestas representativas, pero, en ¿en qué se basa la teoría de la representatividad estadística? Podríamos decir que en esencia, la estadística afirma lo siguiente: si medimos determinados atributos en un pequeño colectivo que a su vez forma parte de otro mayor, su estructura será idéntica a la del colectivo grande siempre y cuando hayamos seleccionado los objetos a medir de forma aleatoria es decir, azarosa. El azar se encargará por sí solo de que nuestro pequeño colectivo resulte equivalente al grande, o mejor, el valor de lo que queremos vivir, será esencialmente el mismo que si viniésemos el colectivo grande.

En realidad, la teoría muestral es más modesta y tan sólo afirma que se extraemos muchas muestras de una población (el término población en estadística se referencia a un conjunto de eventos y por tanto no es equivalente al término empleado por la demografía), la mayor parte de las medias de nuestra muestra estarán próximas a las de la población, pero no nos dicen nada de lo que ocurriría extrayendo una sola (la práctica habitual en la investigación sociológica); en realidad nos dice la probabilidad que tenemos de que nuestra muestra se desvíe de los valores de la población, pero nada más. Ello nos lleva considerar otro problema complejo en suficientemente aclarado cómo es el problema de la probabilidad (Popper lo llamara el problema fundamental del azar), pero antes debemos tener en cuenta que la teoría muestral no funcionaría si no llevase aparejada una teoría de la medida, o mejor, una teoría del error, que entre otras cosas sostiene que en toda medición se producen errores, y que los errores, cuando uno realiza un número suficientemente grande de mediciones, se cometen por defecto y por exceso en igual medida. La idea es también del matemático alemán Karl Friedrich Gauss quien alrededor de 1790 formalizará la teoría de los mínimos cuadrados en un elegante modelo matemático como es la curva de errores que lleva su nombre y que nos muestra la probabilidad con la que se comete cualquier tipo de error en una medición.

La teoría de la probabilidad es el puente que une los grandes conjuntos de datos y las muestras, y algunos estadísticos gustan de señalar que es la que aporta las bases «que permiten apreciar seguridad y precisión en la toma de muestras»(10). En el modelo estadístico, la probabilidad de un acontecimiento es algo así como el grado de certidumbre que tenemos de su realización. Desde el punto de vista operacional, es una relación (un cociente) entre su frecuencia de realización y el número total de observaciones cuando este número es suficientemente grande.

Durante los años treinta, «el método estadístico» alcanzó notoriedad por cuanto se presenta como el único método capaz de resolver el problema de la posición y la velocidad de los cuantos elementales de materia. No se podía determinar el movimiento de un fotón o de un electrón a la manera de la mecánica clásica, y aunque aplicando el «método estadístico» tampoco es posible predecir el comportamiento de uno de los componentes de un chorro de electrones, si puede calcularse la probabilidad de que se comporte de una manera determinada. Al menos en 1938, Einstein daba ya por inevitable el empleo del método estadístico en la física de partículas (11), y desde 1934, un conocido epistemólogo como Karl Popper centra su interés en la teoría de la probabilidad. En su «Logik der Forschung», Popper afirmaba que las «relaciones entre probabilidad y experiencia necesitan aún ser aclaradas», además de que la idea de probabilidad resulte especialmente «refractaria» a su gran aportación epistemológica, la idea de falsabilidad, marchamo de toda proposición que pretende ser considerada científica y que los aspirantes a profesor universitario repiten sin piedad en las memorias de oposición. Y resulta refractaria por qué este método estadístico parece funcionar en cualquier circunstancia y condición, con lo que difícilmente puede ser considerado falsable.

La teoría clásica de Laplace (el cociente entre el número de casos favorable y el número de casos igualmente posibles) ha sido rechazada por tautológica puesto que decir casos igualmente posibles es lo mismo que decir casos igualmente probables. Keynes y De Finetti (12) ensayan una interpretación subjetiva de la teoría de la probabilidad, una interpretación Psicologista; para el teórico de la economía, la probabilidad sería algo así como la «medida de los sentimientos de certidumbre o incertidumbre, de creencia o de duda, que pueden surgir en nosotros ante ciertas aserciones o conjeturas» (13), pero finalmente, Popper, después de iniciar lo que llama el problema fundamental de la teoría del azar (los acontecimientos azaroso se caracterizan por un tipo de incalculabilidad que hace precisamente posible la aplicación del cálculo de probabilidades), se inclina por la teoría frecuencial de Von Mises quien considera la probabilidad como él limite de la frecuencia relativa en un colectivo («y de aquí que la idea de probabilidad sea únicamente aplicable a sucesiones de eventos») (14).

Para Von Mises, la «tarea del cálculo de probabilidades» consiste pura y exclusivamente en inferir ciertos «colectivos deducidos» con ciertas «distribuciones deducidas» a partir de determinados «colectivos iniciales» dados con ciertas «distribuciones iniciales» dadas; dicho brevemente: en calcular probabilidades que no están dadas a partir de las que lo están. Cuatro son los rasgos básicos de su teoría: 1) el concepto de colectivo precede al de probabilidad; 2) la probabilidad se define como el límite de las frecuencias relativas; 3) formula un axioma de aleatoriedad, y 4) define la tarea del cálculo de probabilidades (15). Pero ¿cómo se determinan las probabilidades iniciales de un evento? Como ya ha sido observado en anteriores ocasiones «no hay un método directo y simple por el cual pueda hacerse la transición de una frecuencia numérica observada a una medida numérica de probabilidad» (16). En general la estadística inferencial nos enfrenta ante el problema de la inducción. Para los primeros inductivistas, el proceso científico partía de la observación de los hechos a través de los sentidos, esto es, del trabajo experimental, y a partir de ahí establecían teorías y leyes por inducción de las que deducían predicciones y explicaciones. Pero así como el razonamiento deductivo ha construido un potente aparato lógico que permite aceptar o rechazar las explicaciones derivadas de las leyes universales, no existe un aparato lógico equivalente que permita afirmar la validez del procedimiento inductivo. La lógica nos indica que si las premisas de un determinado argumento son verdaderas, la conclusión también puede ser verdadera, pero nada nos dice acerca de la verosimilitud de las premisas. Los requisitos necesarios para el buen funcionamiento del procedimiento inductivo: que el número de observaciones se ha elevado, que se repitan en condiciones distintas y que ningún enunciado observacional entre en contradicción con la ley universal, no son suficientemente sólidos. Ya el primero de los requisitos adolece de una profunda indefinición al no poder precisar el número de observaciones suficientes; y si no es posible realizar un número ilimitado de observaciones ¿cómo es posible asegurar la validez universal de la ley obtenida por procedimientos inductivos? Se ha intentado resolver el problema introduciendo la probabilidad, de modo que parecería más probable una ley obtenida con un elevado número de observaciones que otra obtenida con unas pocas, pero el cálculo de probabilidades se encarga de echar por tierra la validez de tal aserto: el cociente de un número finito de casos por un número infinito de aplicaciones a las que supuestamente se refiere una de universal es siempre cero, con lo que la probabilidad de calcular ley universal es también cero.

Los esfuerzos de Lazarsfel y la sociología americana en la generalización del modelo estadístico han contribuido a su consolidación como saber académico y práctica profesional en el ámbito de la investigación de mercados. Las primeras encuestas fueron dirigidas a «la cuestión social», eran estudios monográficos como los realizados por Frederic Le Play destinados a conocer las condiciones de vida de las familias obreras (17) o los estudios Buylla dirigidos a conocer las causas que los conflictos obreros y las características de las organizaciones sindicales (18), o los estudios Halbwachs sobre «la clase obrera y los niveles de vida» (19). Hasta 1903, los estadísticos del Instituto Internacional de Estadística están más interesados en la realización de censos y estudios monográficos que en los estudios basados en muestras. Es a partir de 1925 cuando parece haber consenso respecto de la utilización de los métodos de muestreo aleatorio.

Desde principios de siglo, en Estados Unidos se realizan encuestas para conocer el paro basadas en el método representativo (20) y a partir de los años 20 comienzan los estudios de mercado. En 1936 el Instituto de investigación de mercados George Gallup acierta en su predicción de triunfo para Roosevelt con lo que la encuesta basada en el muestreo probabilístico comienza a extender su campo de acción a los dominios de la actividad política. La encuesta estadística, que utiliza muestras aleatorias y encuentra justificación matemática en la teoría de errores de Gauss y en el cálculo de probabilidades-- hasta 1933 no hay una axiomatización de la teoría de las probabilidades, obra de Kolmogorov-- (21) se desarrolla al mismo tiempo que la «norma de consumo de masas» (Aglietta), pero sólo después de la Segunda Guerra Mundial alcanza un cierto grado de madurez. Lazarsfel, el matemático bien es que institucionaliza el modelo matemático en el ámbito de las ciencias sociales, traslada las preocupaciones positivistas del Círculo de Viena al país que construye la norma de consumo de masas al tiempo que la sociología empírica. Mucho más que al intento de construir un sólido modelo matemático-- sin fisuras de orden lógico--, la encuesta estadística responde a la necesidad de extender el consumo de masas a través de los estudios de mercado y la publicidad; es antes el resultado de una práctica social que el tránsito de una matemática teórica (pura) a una matemática aplicada, lo cual no es óbice para que también se generalice en el ámbito académico como consecuencia del proceso general de reconversión científica de las disciplinas sociales (22).

En 1954 Lazarsfel presenta el resultado de un meticuloso trabajo de adiestramiento en el cálculo matemático aplicado a las cuestiones sociales: «We need people who are trained both in mathematics and in some sector of the social sciences» (23). Con la colaboración de la Fundación Ford, el Social Science Research Council organiza en Estados Unidos una serie de seminarios con el doble propósito de dar instrucción matemática a los científicos sociales e incorporar material sociológico a los cursos de matemáticas-- «...the double purpose of giving mathematical instruccion to social scientist and of injecting social science materials into college courses in mathematics»--, en un momento histórico que Lazarsfel describe con las siguientes palabras: «hace 100 años, la tarea de los hombres preocupados por las cuestiones sociales parecía consistir en divulgar conjeturas sobre el desarrollo futuro de la sociedad. Hace 50, el interés estaba sentado en los conceptos básicos con los que clasificarlo fenómenos sociales fundamentales. Hoy, la tendencia es escoger las «variables» básicas, de las cuales todos los conceptos e interrelaciones puedan ser derivados». ¿Pero en qué consiste esa categoría básica denominada variable, que aparece desde el principio en todas las formulaciones de Lazarsfel? En un texto realizado en colaboración de Boudon, se dice textualmente: «por variables se entiende, simple y vulgarmente, cualquier cantidad que varía» (24), pobre definición, ciertamente, que las sucesivas no lograrán mejorar: «más exactamente es cualquier característica mensurable que puede asumir variaciones o diferentes valores en sucesivos casos individuales» (Duncan Mitchell) (25). Por último aparece una definición más completa: «por variable entendemos cualquier característica, cualidad o atributo de una persona, grupo o acontecimiento, que puede cambiar de valor» (26). Estamos ante características hubo atributos, sean individuales o sociales, mensurables; estamos ante las verdaderas categorías de análisis de la encuesta estadística, las categorías con valor explicativo de los fenómenos sociales que en su formulación han sido tomadas de forma mecánica de las matemáticas, y que en realidad representan la «X.» o la «y» de la ecuación lineal y=f(x). El resultado de esta simple transposición mecánica será la utilización constante y acrítica de las mismas variables-- categorías de análisis--: sexo, edad, estado civil, profesión, etc., en todas las encuestas estadísticas, junto con la utilización de cada vez más sofisticados modelos de transformación de variables. Con frecuencia veremos que el investigador cuantitativo se detendrá en la explicación minuciosa y detallada de los más complejos procesos de transformación de variables (cluster, factorial, etc.), sin haber dado la más mínima explicación sobre la cualidad o la pertinencia de las categorías que va a utilizar en el análisis y olvidando la relevancia/y relevancia de los resultados.

Esta seducción por los cálculos complejos contrasta con la superficialidad de la propia enseñanza estadística. Los manuales, en realidad, tan sólo enseñan cálculo, reglas de cálculo creadas en una época en la que no existían ordenadores ni las eficientes calculadoras electrónicas. De la misma manera que un tratado del siglo XVIII explicaba la división aritmética del siguiente modo:

Los actuales manuales tienen por objeto adiestrar a los alumnos en la colocación de «datos» en el lugar adecuado de la «fórmula», algo así como aprender a cocinar mediante las recetas de un libro de cocina. ¿Qué sentido puede tener esto? ¿Adiestrar en el cálculo matemático? Si así fuese, sería más práctico aprender a integrar, derivar, resolver problemas de trigonometría, hacer cálculo matricial, etc.. En una primera fase, en la época de Lazarsfel pudo tener el sentido de introducir una nueva forma de trabajar en el ámbito de las ciencias sociales, contribuir a la construcción de teorías de alcance medio y proporcionar un marchamo científico a la sociología, del mismo modo que las matemáticas se lo proporcionaron al resto de las disciplinas académicas, pero en la actualidad, una vez que el prestigio de la encuesta estadística está suficientemente reconocido, más bien parece que cumple el papel de perpetuar la posición académica de aquellos investigadores que proceden del ámbito de las ciencias duras, o se han especializado en el manejo de encuesta estadística, y no precisamente en el ámbito de la academia, sino en los institutos de mercado para los que realizan importantes colaboraciones.

En definitiva podríamos concluir que la perspectiva cualitativa puede aportar a la investigación sociológica cuantitativa una sensibilidad diferente. Desde el punto de vista estrictamente matemático, la cualidad no está reñida con la cantidad-- nunca lo estuvo --, sino que la precede. La cantidad nunca debió separarse de la cualidad, pues cuando lo hace cae en los mayores absurdos. Las matemáticas como señalaba D'Alembert «proceden del mundo y al mundo deben retornar», pues las abstracciones matemáticas «son útiles en la medida en que no nos limitemos exclusivamente a ellas» (28). Las cualidades sensibles preceden la cuantificación (29) y tal vez sean lo único que puede darle sentido.

REFERENCIAS

1 Una versión de este texto fue presentada en el V Congreso Espaftol de Sociología celebrado en Granada en septiembre de 1995.

2 Levi-Strauss, C. (1955).

3 Levi-Strauss (1955:16).

4 (1955:16).

5 Ibáñez (1988:224).

6 Ibáñez (1988:224).

7 Puede verse al respecto Feldman, J., Lagneau, G., Matalón, B. (1991).

8 Los sistemas de ecuaciones propuestos por Legendre y Gauss pueden verse en Jean Louc Chabert et alt.: «Histoire d'algoritmes, Belin, París.

9 La importancia del método propuesto por Gauss adquiere mayor relevancia si se tiene en cuenta las resistencias de la matemática, y en general del pensamiento occidental a la aceptación del «cero», así como de los números negativos. Puede verse al respecto el interesante trabajo de Lizcano(1993).

10 Swoboda (1975).

11 Einstein, A., Infeld, L. (1993).

12 Bruno de Finetti nace en Innsbruck (Austria) en 1906, estudia economía en el Politécnico de Milán donde también sigue estudios de biología y matemáticas. En 1925 obtiene la titulación en matemática aplicada. De 1927 a 1931 trabaja en el Instituto central de estadística fundado por C. Gini. De 1931 a 1946 trabaja en la compañía de seguros «Assicurazioni Generali de Trieste» donde introduce el sistema IBM de tarjetas perforadas y a partir de 1935 le encargan el curso de cálculo de probabilidades de la Universidad de Trieste, obteniendo al año siguiente la cátedra de matemáticas financieras y actuaríales. A partir de 1930 comienza a madurar sus ideas sobre la probabilidad subjetiva. Su primer artículo: «Probabilismo: saggio critico sulla teoria delle probabüitá e sul valore della scienza» (Ñapóles, 1931) al que siguen otros como «Sul significato soggettivo della probabüitá» (1931) o «La previsión: ses lois logiques, ses sources subjectives» (1935) en Annales de l'Institut Henri Poincaré. Sus teorías aparecen años más tarde en un amplio tratado «Teoría delle probabilitá. Sintesi introductiva con appendice critica». Torino, 1976, 2 vol.

13 Popper (1934:139).

14 Op. cit., págs. 143-144.

15 Von Mises, R.: «Probabilidad estadística y verdad», traducción de Juan Carlos Grinberg, 1946, Espasa Calpe, Argentina, citado por Popper (1934:144).

16 Keynes (1988:400).

17 Le Play, R: «Les ouvriers européens: études sur les travaux, la vie domestique et la condition mórale des populations ouvriéres de l'Éurope, et sur les rapports qui les unissent aux autres classes, précedes d'un apercu de la méthode d'observation», París, Impr. Impériale, 1855. Sobre los trabajos que realiza en el norte de España: «Campesinos y pescadores del norte de España», Madrid, Ministerio de Agricultura, Pesca y Alimentación, 1990.

18 Buylla, A. y Alegre, G.: «Memoria acerca de la Información Agraria en ambas Castillas. Instituto de Reformas Sociales, 1904, en Arostegui, J.: «Miseria y conciencia del campesino castellano», Narcea, S. A. Ediciones, Madrid, 1977.

19 Halbwachs, H.: «La clase ouvriére et les niveaux de vie», Alcan, París, 1912. -: «Budgets de familles ouvriéres et paysannes en France, en 1907», Bulletin de la Statistique genérale de la France, 4, fascx. 1, 1914, págs. 47-83.

20 Kiaer, el estadístico noruego que comienza en 1895 la defensa de la utilización de muestras representativas en las reuniones internacionales del Instituto Internacional de Estadística, en la reunión de Budapest de 1901 lee una carta de Carroll D. Wright en la que da cuenta de la experiencia del Departamento de Trabajo americano y de la validez de las estadísticas obtenidas con muestras representativas.

21 Lorrain J. Daston: «Fittin Numbei^ to the World: The Case of Probability Theory», en William Aspray y Philip Kitcher (eds.), History and Philosophy of Modem Mathemátics. University of Minesota Press, 1988, págs. 221-37. Traducción de Javier Izquierdo, También: Ribnikov (1987).

22 En enero de 1958, los profesores de la Sorbona invitan a Lazarsfeld a pronunciar una conferencia en el marco del Centro de Estudios de Radio-Televisión en la que describe el proceso que se ha producido en USA. En dicha conferencia, titulada: «Tendencias actuales de la sociología de la comunicación y comportamiento del público de la radio-televisión americana», Lazarsfeld describe la escena americana marcada por el dominio de la radio televisión comercial -«Vous savez tous, j'sauis sur, que ce n'est pas una activité gubernamental, que les emissions par les stations américaines son payée par les agents de la publicité, de la grande industrie et du commerces»- y la importancia decisiva que ello representa para la investigación de mercados: «el industrial busca saber que porcentaje de oyentes ha escuchado su programa. En lugar de «rating», se podría decir la cota de un programa. El industrial sería como un especulador que quiere saber si sus acciones suben o no. En efecto hay en América un número de organizaciones comerciales que os facilitan en veinticuatro horas, algunas veces en tres o cuatro días, indicaciones fiables sobre todas las emisiones y que os permiten conocer la proporción de oyentes o teleespectadores que escuchan un determinado programa. Las cotas son de gran importancia para el industrial porque el piensa que si su programa obtiene una buena cota, un buen porcentaje del 25 o el 30%, venderá muchas mercancías" Lazarsfeld (1959).

23 Lazarsfeld (1954).

24 Boudon (1985).

25 Duncan Mitchell: «A Diccionary of Sociology», London, Rouledge & Kegan, Paul, 1968.

26 Ibidem, pág. 51.

27 García Berruguilla, JUMI: «Verdadera práctica de las resoluciones de la geometría, sobre las tres dimensiones. Para un arquitecto perfecto, con una total resolución para medir y dividir la planimetría para los agrimensores». Imprenta de Francisco Mojados, Madrid, 1747. Edición fM;símil a cargo del Colegio Oficial de Aparejadores y Arquitectos técnicos de Murcia, 1979.

28 D'Alembert, J. (1751-80): «Discours preliminaire», Encyclopédie, ou Diccionnaire raisonné des sciences, des ans et métiers, vol. I, págs. V y ss., París, citado por Lorrain J. Daston: «Fitting Numbers to the World: The case of Probability Theory», op cit. Traducción de Javier Izquierdo.

29 En este sentido es muy útil el texto de Émmánuel Lizcano: Imaginario colectivo y creación matemática» donde puede comprobarse el papel que las cosas sensibles juegan en la construcción de modelos matemáticos, y en concreto el sistema de los números negativos que tantos siglos tardaron en incorporase a las matemáticas de occidente

BIBLIOGRAFIA

ARMATTE, M. (1994): «Histoire du modele linéaire en statistique mathématique», en Gamia, S.; Flament, D. y Navarro, V. (eds.): Contra los titanes de la rutina, Madrid, Comunidad de Madrid-C.S.I.C, págs. 459-481.

BARBUT, M. (1998): «Les mathématiques et les sciences humaines», Mélanges en l'honneur de R.Boudon, P.U.F, París, Collection «Sociologies».

BOREL, E. (1974): El azar. Descubrimiento, aplicación y valor de las leyes del azar. La pléyade, Buenos Aires.

BOUDON, R., LAZARSFELD, P. (1985): Metodología de las ciencias sociales, Laia, Barcelona.

BRIAN, E. La mesure de l'Etat. Administrateurs et géométres au xvnf siécle, Albin Michel, París.

COUMET, E.(1970): «La théorie du hasard est-elle née par hasard», Annales ESC, n.° 3, mai-juin, págs. 574-598.

DESROSIERES, A. (1993): Lapolitique des grandes nombres. Histoire de la raison statistique. Editions la découverte, París.

EINSTEiN, A., INFH-D, L. (1993): La evolución de la física. Biblioteca Científica, Salvat, 1993.

FELDMAN, J., LAONEAU, G., MATALÓN, B. (1991): Moyenne, Milieu, Centre. Histoires et usages, Editíons de l'École des Hautes Études en Sciences Sociales, París.

HACKING, I. (1990): La domestica1ción del azar, Gedisa, Barcelona.

IBÁÑEZ, J. (1988): «Cuantitativo/cualitativo», en Román Reyes, (dir.): Terminología científico- social. Aproximación crítica, Barcelona, Antrophos.

IRVINE, J., MILES, I., EVANS, J. (1989): Demystifying Social Statistics, Pluto Press.

KEYNES, J. M. (1988): A treatise on Probability, Macmillan Cambridge University Press, New York.

KRUSKAL, W., MOSTELLER, F.(1980): «Representative Sampling, IV: the History of the concept in Statistics, 1895-1939». International Statistical Review, 48, págs. 169-195, Longman Group Limited. U.K.

LAZARSFELD, P. F. (1954): Mathematical Thinking in the Social Sciences, The Free Press, Glencoe, Illinois.

LAZARSFELD, P. F. (1959): «Tendances actuelles de la Sociologie des Communications et comportement du public de la radio-télévision américaine», Cahiers d'Études de radio-télévision, n.° 23, Centre d'Études de Radio-télévision.

LEFEVRE, H. (1976): Más allá del estructuralismo, La pléyade, Buenos Aires.

LEVI-STRAUSS, C. (1955): «Les mathematiques de l'homme». Bulletin International des Sciences Sociales, vol. VI, n.° 4, UNESCO, París, traducción de José A. Castorina.

LIZCANO, E. (1993): Imaginario colectivo y creación matemática, Gedisa, Barcelona.

POPPER, K. (1934): La lógica de la investigación científica, Ed. Tecnos, Madrid.

PORTER, T. (1986): The raise of statistical thinking, ¡820-1900, Princeton University Press. U.K.

- (1995): Trust in numhers. The pursuit of ohjectivity in science and public Ufe, Princeton University Press. USA.

RIBNIKOV, K. (1987): Historia de las matemáticas. Editorial Mir, Moscu.

STIGLER, S. (1986): The history of statistics. Measurement of uncertainty hefore 1900, The Belknap press of Harvard University Press.

SWOBODA, H. (1975): El libro de la estadística moderna. Editorial Omega, Barcelona.

VON MISES, R. (1946): Probabilidad, estadística y verdad. Espasa Calpe, Argentina. Traducción de Juan Carlos Grinberg.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería