Aparecido en
http://www.uned.es/dpto-sociologia-I/Arribas/Enquete/PORTER.HTML
Por: Ted Porter
El asunto
que trataré hoy es el de mi libro de 1986 (The Rise of Statistical Thinking
1820-1900). En él trataba los alcances de la estadística en una amplia gama de
la ciencia, incluyendo la biología y la física, así como las ciencias sociales.
Aquí hablaré principalmente sobre estadísticas sociales. Deberíamos prestar
atención, de todos modos, al hecho de que el mapa de las disciplinas sociales
era diferente en el siglo XIX. La novena edición de la Encyclopedia Britannica
de 1887, no tiene ni siquiera una voz de "sociología". La voz
"estadística" concede alguna extensión, hasta décadas recientes, a su
sujeto matriz: una ciencia política, asociada a los métodos cuantitativos. En
1850 la estadística iba a convertirse, probablemente, en la principal ciencia
social. Esta visión era de dominio general y cuando, por ejemplo, los físicos
(James Clerk Maxell) o biólogos (Francis Galton) hablaron de sus
investigaciones como estadísticas, estaban haciendo una analogía con el
contenido de los métodos de las ciencias sociales.
A lo que yo
llamo aquí "pensamiento estadístico" aparece antes que nada en las
ciencias sociales. ¿qué es el "pensamiento estadístico"? En el nivel
más elemental la estadística significa trabajar con agregados o colecciones,
con fenómenos de masas, dejando aparte las consideraciones sobre los
individuos. La estadística estaba unida al nuevo discurso colectivista sobre la
"sociedad" que se desarrolla en los comienzos del siglo XIX como una
primera versión de la "ciencia social". La estadística no presuponía,
como hiciera la probabilidad matemática en el siglo XVIII, que los individuos
fuesen racionales. Los estadísticos partieron de la información general de los
censos y las tabulaciones. Estaban especialmente preocupados por los fenómenos
desordenados y variables como el crimen y el suicidio, fenómenos que no podían
explicarse muy bien a nivel individual, Así era sorprendente, y de algún modo
gratificante, que el orden, ausente entre los individuos, parecía emerger al
nivel de lo colectivo. ¿Quién puede decir por qué un individuo elige casarse o
quitarse la vida? Sin embargo las cantidades anuales de matrimonios y suicidios
eran sorprendentemente estables.
Este punto
de vista era bastante innovador en las ciencias humanas. También era nuevo para
la ciencia en general. El ideal de ciencia fue explicado por Isaac Newton:
analizar descendiendo hasta el nivel de la simplicidad, donde se puedan hallar
leyes universales y de ellas derivar después el comportamiento de sistemas más
complejos. La estadística abandonó la búsqueda de la simplicidad al nivel de
los individuos y encontró el orden en los colectivos. Esta fue la aproximación
a la que llegó la física del gas cuando derivó las leyes de la presión y la
temperatura partiendo de un modelo clásico de cinemática molecular; y de un
modo diferente la biología cuando investigó la transmisión de la variación de
los padres a la progenie.
El orden que
emerge de los grandes números no nos sorprende actualmente. A comienzos del
siglo XIX era visto como algo asombroso. Antes en el siglo XVIII, la
regularidad de la proporción de nacimientos de hombres y mujeres era
comprendida como una prueba de la providencia divina. A finales de los años
1820, cuando las estadísticas criminales en Francia mostraron una constancia
aproximada en el número de crímenes, muchos observadores se sorprendieron. Era
como si los hombres y las mujeres fueran dirigidos por un destino maléfico,
como si hubiera un presupuesto para el crimen, como lo hay para los impuestos,
que tenía que ser exacto sin importar los ánimos o deseos de los hombres y
mujeres que cometieron los crímenes. Esta constancia del crimen fue descrita en
muchas publicaciones como algo digno de asombro.
Este penoso
hecho, de todos modos, pronto fue convertido en una ventaja ideológica de la
que ofrezco dos versiones:
La primera
es la de Adolphe Quetelet, un astrónomo belga convertido en estadístico, que
estaba profundamente preocupado por la violencia revolucionaria de su época, y
en particular por la acontecida en 1830. Quetelet encontró consuelo en las
estadísticas porque desvelaban una estabilidad inesperada en la sociedad.
También parecían mostrar que la sociedad respondía a determinadas leyes, que
podía haber una ciencia de la sociedad. Esa ciencia podía incluso ser
predictiva, capaz de descubrir las causas del crimen y proveer los instrumentos
para combatirlo. Este punto de vista de la estadística favoreció la actividad
del Estado orientada a la imposición de las condiciones sociales.
El segundo
tipo de argumento lo aportó el historiador inglés Henry Thomas Buckle. Buckle fue
un gran liberal al estilo inglés. Vio la regularidad estadística como la
consecuencia de la ineficacia de las políticas. Las leyes de la estadística,
dijo, son inexorables, y ni el individuo ni la intervención pública puede
evitarlas. Tampoco se puede evitar el curso de la historia, que tiende a la
propiedad privada y a la minimización del papel del Estado.
Las
estadísticas de Quetelet estaban vinculadas al censo. Esto significaba contar a
toda la gente y no mostrar consideración hacia nadie. Sus teorías por lo menos,
formaron conjuntos sociales a partir de material homogéneo. Es necesario
distinguir su perspectiva teórica de sus métodos de trabajo, para los cuales,
como muchos o la mayoría de los autores que escriben sobre estadística, estaba
preocupado principalmente por las condiciones de los trabajadores de la
industria, trabajadores indigentes, mujeres y niños, criminales y otras
personas cuyas vidas, parecía que necesitaban ser ordenadas por la acción
pública.
Las
estadísticas eran un buen ejemplo de una ciencia social del tipo descrito por
Michel Foucault. Pero en sus concepciones más teóricas, Quetelet imaginó una
mecánica social semejante a la mecánica celestial, una masa de material
homogéneo siguiendo un curso a través de la historia. Esta homogeneidad la
expresó en su doctrina de l´homme moyen. El modo de investigar la
sociedad era el estudio de las propiedades de ese hombre tipo. Quetelet fue tan
lejos como para aplicar la teoría de los errores matemáticos a la variación
humana, lo que implicaba que toda desviación respecto al hombre medio no era
más que un error.
Quetelet fue
un gran experto en la teoría de la probabilidad. Se quejaba a menudo del abuso
que de las estadísticas hacían sus contemporáneos, aunque nunca citó a los
autores de tales abusos. Discutió que la ignorancia de la probabilidad era la
fuente de los errores de esos autores. Es interesante, incluso, que hiciera muy
poco uso de la estadística en sus propios estudios estadísticos. Encontramos
muy pocas estimaciones de errores probables y absolutamente ninguna confianza
en las muestras. En nuestro siglo la muestra se ha convertido en una
herramienta integral para las estadísticas sociales y su casi ausencia en el
siglo XIX es incomprensible.
El puzle
llega a ser mayor cuando nos damos cuenta de que hay algunas instancias
notables de estimación de la población basadas en muestras en el siglo XVIII.
La más conocida de estas es la realizada por Pierre Simon Laplace, un famoso
matemático y físico cuyo trabajo sobre la probabilidad fue canónico durante la
mayor parte del siglo XIX. Laplace estimó la población francesa partiendo del
total de movimientos de la población (recogido sistemáticamente) y de una
estimación del promedio de nacimientos. Esta estimación se basaba en una
enumeración completa a nivel local. Suponiendo que la ciudad escogida era
representativa de toda la población, Laplace podía estimar los errores
producidos en semejante estimación. Esta era la base para establecer el tamaño
de la población francesa en los últimos años del Antiguo Régimen.
Quetelet
estaba desanimado respecto a ese tipo de pruebas por las objeciones de su
socio, el barón de Keberberg, quien mostró que las ciudades no eran iguales y
que una localidad no puede tomarse como representativa de todo el Estado o
nación. Esta objeción, señalada por Stephen Stigler en su libro sobre la
historia de la estadística ahora está generalmente enfatizada. Deberíamos
observar también que había razones favorables para evitar el muestreo. Además
de todo estaba el censo, que aproximadamente después de 1800 o 1820 era instituido
por todos los Estados que lo vieron como moderno. Un censo significaba una
enumeración completa. ¿Por qué fiarse de las estimaciones cuando puedes
disponer de una enumeración completa? La estadística llegó a ser una ciencia de
precisión. Era también una ciencia objetiva en el sentido en que pretendía
depender de los hechos en vez de las opiniones. La exclusión oficial de la
"opinión" por la Sociedad Estadística de Londres en los años 1830 es
el ejemplo más remarcable de su ideología. Era por supuesto poco factible. Pero
la evitación de las meras estimaciones llegó a ser el valor central de las
estadísticas. Todo el énfasis puesto en los números y medidas estaba unido a
una campaña contra la subjetividad.
El resurgir
de la muestra estadística estaba asociado con el Instituto Internacional de
Estadística, sucesor de los Congresos estadísticos que Eric Brian discutirá
mañana. El triunfo del modelo muestral fue alcanzado por el noruego A. N. Kiaer,
en escritos presentados en los últimos años del siglo XIX. Había una seria
resistencia. No deberíamos imaginar que la resistencia se debía a la mera
ignorancia. Kiaer no pretendía realizar muestras al azar, sino muestras
"representativas". Esto es, quería encontrar ciudades o países
representativos e investigarlos en detalle para adquirir conocimientos en
profundidad. Alain Desrosières asocia la emergencia de las muestras al método
de la monografía de Frederic Le Play. Esto suponía un estudio minucioso de una
familia, normalmente visto como opuesto a las estadísticas. Hubo algunos como
Emile Cheysson que intentó combinar las monografías con el estudio estadístico.
Kiarer estaba en cierto modo intentando lo mismo. Intentó evitar los defectos
de sus muestras comprobando cuidadosamente los resultados locales con los
censos estadísticos exhaustivos.
A principios
del siglo XX algunos autores empezaron a recomendar el uso de las muestras al
azar antes que las representativas. Para los estadísticos trabajar en la tradición
de la teoría de las probabilidades era muy convincente, los hechos fortuitos
son el prototipo de los cálculos de probabilidad. Sin ellos es complicado saber
cómo estimar los errores probables. Algunos estadísticos prefirieron, de todos
modos, un tipo de muestra que representara los principales sectores de la
sociedad, en términos de sexo, raza, clase, riqueza, profesión, situación
geográfica, etc. En muchos casos las distinciones no eran completamente
precisas. George Gallup, uno de los pioneros de la opinión sobre el voto,
defendió las muestras probabilísticas y tuvo un gran éxito con la predicción de
la elección de Franklin Roosevelt en las presidenciales de 1936 en contraste
con una encuesta mucho más grande realizada por la revista americana Literary
Digest.
Importante
fue el papel de Jerzy Neyman en 1934 con la definición en términos estadísticos
académicos de la solución para muestras estratificadas. No mucho después las
muestras probabilísticas se convertirían en el procedimiento estándar de los
estudios.
Comentarios