Ir al contenido principal

Sociología e Historia de la Modelización Estadística ¹


EMPIRIA. Revista de Metodología de Ciencias Sociales. N° 3, 2000, pp. 11-34.


MICHEL ARMATTE.²

INTRODUCCIÓN.

Este artículo gira en torno al concepto del modelo y su historia3 y, en particular, de la historia de la modelización en las ciencias sociales. Antes definir qué es un modelo y cuál ha sido su trayectoria histórica, me parece importante explicar brevemente porque sentí la necesidad de comprender de dónde vienen las herramientas matemáticas que utilizamos en las ciencias sociales. De hecho, creo que mi propio itinerario personal comienza con la crítica de la modelización en las ciencias sociales. Hacia 1970 en Francia -tal vez ocurriese también aquí en España- éramos muy críticos respecto al uso que se hacía de las matemáticas, particularmente en sociología y economía. Era un momento en el cual los modelos económicos desempeñaban un papel extremadamente importante en la política económica. Era también la época del estructuralismo, que otorgaba a las matemáticas un papel de igual importancia en las ciencias humanas.

Ahora bien, la crítica que hacíamos entonces era una crítica ideológica, política, y al cabo de un tiempo nos apercibimos de que era preciso replantear el problema para intentar comprenderlo. ¿Es que sólo se podía criticar un modelo según cómo se usase? Era lo que habíamos estado haciendo durante años, sin entrar nunca en su misma construcción. Y claro, esto nos había llevado a una especie de callejón sin salida, sobradamente conocido en Historia de las ciencias, que consiste en afirmar que hay buenas ciencias y malas aplicaciones. Este dualismo no me pareció y en absoluto correcto.

En aquella época muchos intelectuales provenientes de diferentes campos -matemáticos, sociólogos, historiadores, filósofos- nos dedicábamos a investigar la noción de matemáticas aplicadas o de modelización. Había muchas posibles vías: se podía, por ejemplo, hacer simplemente filosofía, es decir, interesarse por la noción de modelo como una noción cognitiva, i.e., relativa a una manera de conocer. Pero la vía que finalmente escogimos muchos de nosotros, tal vez en reacción a tan extendido formalismo de los años 1960, fue regresar a la historia y a la sociología. Es decir, comencé mi carrera haciendo matemáticas para sociólogos y ahora hago sociología para matemáticos, sociología o historia social de las matemáticas. Es una inversión que me parece interesante.

Voy a comenzar primeramente por una especie de definición de qué es un modelo. Intentaré demostrar que las respuestas más inmediatas a esta cuestión son demasiado simples, y que esta simplicidad conduce a equívocos. Después intentaré definir, si me lo permiten, lo que llamaría socio-lógica (socio-lógique) de la modelización -prefiero hablar de modelización antes que de modelo: el modelo es el producto mientras que la modelización es la acción, una acción social humana. Una vez efectuada la definición, que acaso sea la parte más filosófica, pasaremos a la historia. Quisiera recorrer rápidamente la historia de la noción de modelo, de un modo que, como comprenderán, tendrá que ser caricaturesco. Si barremos dos siglos en tan poco tiempo, no puede ser de otra manera. Insistiré particularmente en sus principales rupturas, es decir, aquellos momentos en que el concepto se modifica profundamente.

Puesto que éstos son temas muy abstractos, en la parte cuarta de mi exposición los ilustraré con mis propias investigaciones, muy empíricas y concretas, sobre la historia del concepto de modelo lineal, es decir, lo que hoy en día se denomina modelo lineal en econometría o en la estadística matemática. Quisiera mostrarles cómo se construyó este concepto a través de distintos dominios, desde la astronomía o la biología hasta la economía y la sociología. En cada disciplina, esta herramienta (outil) es sucesivamente recuperada y transformada. Adelantándoles ya mi primera tesis, creo que no hay formas matemáticas que circulen por sí solas. No creo que haya un maletín de herramientas matemáticas que podamos usar a voluntad, aplicándolas a este problema aquí y a otro allá.

Para concluir, quisiera referirme a algunos problemas contemporáneos de modelización, pues éste es el tema de un seminario que coordino en París con la historiadora de la matemática Amy Dahan (CNRS/CAK). En él analizamos modelos y modelización en distintas disciplinas, desde la meteorología a la economía financiera, para intentar comprender qué cambios se están produciendo hoy en ambos conceptos. Trataré, por tanto, de comentar algunos de nuestros debates.

1. EL CONCEPTO DE MODELO.

Comencemos entonces, si les parece, por el primer punto4: ¿qué es un modelo? Si ustedes tienen la curiosidad de ir a buscar definiciones en distintos diccionarios o en actores renombrados, se encontrarán con que hay una palabra que se usa constantemente para definir modelo (podría darles muchos casos): se trata de la palabra representación, una representación de la realidad por medio de sistemas formales cualesquiera. Esta noción de representación, que se encuentra tanto en Levi Strauss como en libros de matemáticas, es fundamental pues nos indica inmediatamente la necesidad de distinguir dos elementos: puesto que hay representación, estará, por un  lado, la cosa y, por otro, su representación.

Sin embargo, esta noción de representación está llena de trampas, y voy a señalar algunas. Cuando se dice representación de la realidad nos encontramos de inmediato con una primera interrogante: ¿qué es esta realidad? Aparece así un problema filosófico en las ciencias: ¿hay verdaderamente una realidad primera que nosotros representamos posteriormente? ¿Esta realidad nos es accesible? Es sabido que sobre estos problemas hay al menos dos concepciones absolutamente opuestas. Por una parte, el realismo, que supone que los objetos preexisten a nuestras investigaciones y, por otra, una concepción -en realidad, son muchas- que de manera moderna llamamos constructivismo: los objetos de nuestro estudio, los que investigamos en las ciencias sociales, no son los objetos reales, son objetos reconstruidos.

Ustedes saben sin duda que la epistemología actual insiste mucho sobre todo esto, tanto en las ciencias físicas como en las ciencias sociales. Los sociólogos franceses manejan un libro muy importante titulado El oficio de sociólogo, debido a P Bourdieu, J.C. Chamboredon y J.C. Passeron5, que dedica muchas páginas a esta cuestión de la construcción del objeto sociológico.

La primera dificultad con la que nos encontramos, por tanto, es la de que el modelo no representa la realidad. Por lo menos, no de manera verosímil, ya que muy a menudo la realidad se nos escapa. También hubiéramos podido -es curioso, al menos- buscar ayuda en el diccionario, mirando los diversos sentidos de la palabra modelo. Es sin duda interesante porque se encuentran toda una serie de acepciones diferentes del término. Podríamos enumerar cinco que tengo ahora a la vista, pero en ciertos diccionarios encuentran doce o quince. Las cinco acepciones que yo le voy a dar son categorías sumamente comprensivas.

La primera idea de modelo es la de referente o prototipo que reproducir. Es la idea de modelo del pintor o del escultor. Cuando tenemos un modelo delante de nosotros y lo reproducimos, lo que llamamos modelo es el referente de nuestra acción, que consiste en reproducirlo. La segunda acepción del término es la de un tipo ideal extraído de una población homogénea. Por ejemplo, en francés -no conozco la traducción española- se habla de «un niño modelo». Se habla de modelo de bondad de modelo de justicia, es decir, se toma el comportamiento humano y a partir de este se extrae una noción abstracta a la cual damos el nombre de modelo. La tercera acepción es la de maqueta. Los ingenieros la conocen muy bien, pues es la que más utilizan: el modelo de cualquier dispositivo es una maqueta, esto es, se incluye la noción de escala de representación y la elección de ésta. La cuarta, aunque también podríamos decir maqueta, es la de icono, es decir, una representación de una idea abstracta por objeto concreto, una imagen en dos o tres dimensiones. Esta última es la única que me interesa y la que discutiremos aquí: la noción de formalismo matemático o lógico que representa un sistema.

¿Acaso estas acepciones de la palabra modelo son independientes? Contra lo que algunos dicen, no. Les mostraré después, si tenemos tiempo, un texto de A. Quetelet, un sociólogo y estadístico belga de mediados del siglo XIX, que muestra exactamente la relación que existe entre el modelo del pintor y el modelo del matemático.

Volviendo a lo anterior, se apreciará bien que en todos estos casos el modelo no es una representación de la realidad. Tomemos un ejemplo de sobra conocido por ustedes como es el de los mapas geográficos, que a menudo se utilizan para explicar la noción de modelo. El mapa es una representación del territorio: por ejemplo, cuando como la Guía Michelín -unos mapas que se utilizan frecuentemente en Francia- encuentro representado el territorio francés. Esta guía la hizo la casa Michelín, que, como saben, venden neumáticos. Los neumáticos se usan para viajar en coche, así que el mapa era de carreteras. Uno se da cuenta de que la representación del territorio que hizo Michelín es una representación pensada para el uso de neumáticos, es decir, destinada al conductor. En consecuencia, no se encuentra en ella determinada información acerca del paisaje, ni sobre el subsuelo, ni sobre los lugares donde puedo ir de picnic o donde hay hermosos bosques.

Así pues, se advierte que los mapas de la Guía Michelín son una representación del territorio orientada hacia un proyecto, el del turismo en automóvil. Si quiero viajar de otro modo, necesito otro tipo de mapa. Por tanto, lo primero que debemos cambiar en nuestra idea de modelo es que hay realidades completamente diferentes de un mismo territorio dependiendo de los proyectos que tengamos: si hacemos turismo, si buscamos petróleo, si vamos a la guerra, no necesitamos un mismo mapa, sino mapas distintos.

En la noción moderna de modelo- moderna, porque si atendemos a su historia, veremos que hay otras- que se encuentra en las ciencias sociales, ocurre lo mismo: el modelo es una representación de nuestros sistemas sociales y económicos, pero es preciso reintroducir la idea de que estos sistemas han sido pensados en función de unos proyectos. Existe una mediación, estamos divididos entre dos entidades, la realidad y su representación formal, si bien creo que esta división debe ser sustituida por otra tripartita.

Lo que representa mi sistema formal no es directamente la realidad, pues no tengo acceso a ella, sino los objetos que reconstruimos. Estos objetos reconstruidos, intermediarios, se construyen mediante tres elementos: el primero es una teoría (thérorie), i.e., no hay modelo de algo real, sino una teoría de esta realidad.

El segundo elemento son las herramientas. Ustedes saben que hoy para hacer mapas contamos con nuevas herramientas que son infinitamente más precisas que aquellas de las que nos servíamos para diseñar los mapas del siglo XVIII o del XIX. Hoy, por ejemplo, contamos con satélites y medimos la altura de los mares con una precisión de dos centímetros. Así pues, el segundo elemento que sirve de mediación entre la representación y la realidad son las herramientas, y éstas han experimentado enormes cambios a lo largo del tiempo.

El tercer elemento, es también muy importante, es el proyecto. Un modelo raramente sirve para la pura contemplación de la realidad, sino que suele servir para actuar sobre ella. En la concepción moderna -y veremos en qué momento situar la transición hacia esa concepción moderna-, por ejemplo, en economía (a la que profesionalmente me dedico), el modelo no puede estar disociado de su fundamento teórico: hay modelos monetaristas, modelos keynesianos, modelos marxistas, etcétera. La teoría está presente, no puede mantenerse al margen de los instrumentos de observación y medida, a su vez, no puede disociarse del proyecto, puesto que el modelo me va a servir para llevar algo  a cabo: pronósticos, simulación, políticas económicas, etcétera. Le va a servir para orientar a quienes deciden.

Añadiría a estos tres elementos un cuarto, como consecuencia. En la noción de modelo como representación de la realidad hay que eliminar completamente la idea de que hay una proporción entre ambos. Un modelo no es un modelo reducido. La idea de modelo reducido es interesante en sí misma pero entraña cierta falsedad: que todo lo que hay en la realidad se encuentra el modelo. Hay forzosamente una reducción en el modelo: tomamos de la realidad los elementos que nos interesan, en un número muy reducido, para analizar esta realidad o transformarla.

Aunque no aceptemos estos elementos, por lo demás bastante consensuados en la actual filosofía de la ciencia, admitiremos al menos que hay al menos tres dimensiones en los modelos que nos resulta absolutamente preciso distinguir, y que denominaremos sintáctica, semántica y pragmática. Son términos que provienen de la lingüística, pero nos permiten describir la relación existente entre el objeto y su representación, puesto que estamos en el universo de los signos.

¿Por qué insisto en distinguir estas tres dimensiones? Cuando hablamos de un Modelo, hay que distinguir desde qué punto de vista lo hacemos. Si no referimos a la sintaxis, el adjetivo o la cualidad correspondiente es el rigor. El rigor sintáctico nos remite a un sistema formal, sean representaciones gráficas, matemáticas, geométricas o analíticas. Existen reglas estrictas (una sintaxis) para construir estos objetos formales: podemos decir, por tanto, que hay modelos mal construidos porque no respetan ni tan siquiera las reglas sintácticas.

Debemos advertir, en segundo lugar, que los modelos representan una realidad, más exactamente una realidad mediada por la teoría, los instrumentos y el proyecto. Aquí aparece la semántica, la relación entre sistema formal y lo que se desea representar. El adjetivo correspondiente sería el de pertinencia: ¿el modelo representa bien, de un modo fecundo, los elementos de la «realidad»? Por ejemplo, si digo que las butacas de esta sala son rojas, se ve que mi frase es correcta desde el punto sintáctico, pero, en cambio, es totalmente incorrecta si estamos de acuerdo en que son más bien azules y no rojas. Aquí hay, pues, un problema de pertinencia.

La tercera dimensión es hoy, sin duda, la de mayor importancia: es la pragmática. Puesto que el modelo debe servir a un proyecto, la cuestión es saber si resulta eficaz para obtener ciertos objetivos. Si consideramos un cierto número de disciplinas como la meteorología o la economía -hay similitudes entre ambos dominios- encontraremos buenos modelos de previsión, es decir, de buena calidad y eficaces, pero extremadamente simples y simplistas desde el punto de vista de la pertinencia y el rigor. Un buen modelo que utilizo todas las mañanas para saber si cojo o no mi impermeable es mirar qué tiempo hace a las ocho de la mañana y predecir que el tiempo a mediodía será el mismo que a las ocho. Este modelo es un modelo extremadamente simple y a la vez eficaz.

Si avanzamos un poco más -a un dentro del primer punto, qué es un modelo-, estas tres posibles aproximaciones a la noción de modelo me llevan a concluir algo bastante contestatario, casi revolucionario: un modelo no es un objeto matemático, un modelo matemático no es un objeto matemático. O, con mayor precisión, no es más que parcialmente matemático. Daré varios ejemplos más adelante.

Puesto que un modelo está construido a base de ecuaciones, variables, etcétera., está hecho con matemáticas, su sintaxis es matemática. Pero sus otras dos propiedades provienen de disciplinas que no son en absoluto matemáticas. Esto es muy importante. Hemos vencido un poco lo que podríamos llamar el imperialismo formalista de los años sesentas, en los que se había creído que se podía tratar la modelización únicamente desde un punto de vista formal. Ahora bien, creo que ello condujo a ciertos excesos en los usos sociales, pedagógicos o en la investigación. I.e., nuestra forma de utilizar los modelos para resolver un cierto número de problemas se ha visto influida negativamente por el hecho de que nos resistíamos a admitir que había además problemas semánticos y pragmáticos.

Para comprender realmente lo que es un modelo, es necesario recuperar las nociones complementarias de la pertinencia y de la eficacia, y diremos entonces que un modelo es algo a la vez cognitivo y social. Pues está forzosamente en relación con nuestros sistemas de representación, lo que se denomina a veces ideología, dicho en un sentido lato, o también un paradigma. Cuando ilustre lo que estoy diciendo con la noción de modelo lineal en estadística matemática, mostraré que hay al menos tres o cuatro paradigmas en la historia del modelo lineal, es decir tres o cuatro maneras de representar los objetos que se van a tratar mediante las estadísticas.

Estos tres o cuatro grandes modos de representar el mundo, el mundo inerte o el mundo vivo, el mundo de lo humano y lo social, interfieren continuamente con la semántica. Y los mismos objetos formales adquieren diferentes significaciones a partir del momento en que nos enfrentamos a diferentes problemas. Estamos obligados a hacer, entonces, una especie de historia de las ideas, filosóficas y científicas, a recurrir a la sociología de las ciencias para intentar comprender cuáles son las representaciones del mundo en las que se integran nuestros modelos. Pues a partir del momento en el que hablamos de pragmática, hablamos de acción, y también de actores.

2. SOCIO-LÓGICA DE LA MODELIZACIÓN.

Así pues, dejamos de hablar de modelo y empezamos a hablar de modelización, es decir de acción. Hay hombres que modelan, no hay modelos. Hay hombres que modelan para llegar a ciertos objetivos. En este momento hemos invertido la posición de partida, es decir, estamos obligados a hacer una especie de sociología de la modelización, a comprender qué tipo de actividad humana opera en la modelización.

Esta actividad humana tiene evidentemente una especificidad. Esta es una cuestión que debatimos en nuestros seminarios en París, a menudo con vehemencia, pues los más radicales afirman que la ciencia es una actividad social como cualquier otra. También se puede defender, un poco menos radicalmente, que la ciencia es una actividad social entre otras, aunque un poco más específicas -y pese a todo una actividad social. Por tanto, el concepto social debe ser redefinido.

¿Qué tipo de sociología de la ciencia podemos hacer para comprender lo que es la modelización, no el modelo? Simplificando, hay dos escuelas de sociología de la ciencia muy distintas. La primera sociología de la ciencia que conocimos era tanto una sociología oficial, normativa, como una sociología contestataria, marxista. En los años de la posguerra -aunque su comienzo data de los años 1930- se fundaba sobre siguiente principio: buena ciencia, mala aplicación. Los científicos, según esto, serían finalmente los únicos capaces de tratar de la parte cognitiva de su actividad: puesto que trabajan sobre conceptos, no podemos ir a ver lo que hacen. Su actividad no es objeto de la sociología.

Por otra parte, desde el momento en que los instrumentos se construyen sirven a la sociedad o, a la inversa, cada vez que importan materiales de la sociedad para construir sus objetos, entonces los sociólogos podemos decir algo. Esta visión de la sociología de la ciencia no me parece apropiada porque -por poner la comparación- equivale imaginar al hombre de ciencia como alguien que está mal vestido, sucio, que trae microbios, pero que, cuando va a su laboratorio, se cambia, se pone una bata blanca, se coloca una mascarilla en la boca y se pone a trabajar en un lugar que es por completo estanco respecto a la sociedad. Esta imagen médica me parece una imagen muy apropiada de lo que ha sido la sociología o la filosofía de la ciencia durante mucho tiempo: hay una actividad completamente cerrada sobre sí misma, la actividad cognitiva del científico, que se puede aislar completamente de sus relaciones sociales; pero, por otra parte, ese científico es un hombre que entra y sale de su laboratorio, y lleva consigo un cierto número de microbios, que serían los conflictos sociales, las ideologías, y cosas por ese orden. Éste es el denominado modelo de la contaminación.

Finalmente, hay que considerar que la actividad científica es indisociablemente cognitiva y social, planteamiento que vertebra lo que se ha dado en llamar la nueva sociología de la ciencia, que comenzó en el Reino Unido, luego en Francia, y se ha extendido por otros lugares.

Se reconocerá detrás de toda esta discusión el famoso conflicto entre externalismo e internalismo, es decir, que si en lugar de hablar de sociología, hablásemos historia de las ciencias nos encontraríamos un viejo debate: por una parte, la historia internalista, esa historia que parte de los contenidos pero que no se interesa por lo que ocurra en el exterior y, por otra, la historia externalista, aquella que se interesa por la forma en que los científicos están inmersos en su sociedad. Es esta dualidad la que nosotros ponemos en cuestión con una última idea fuerza -con la que vamos a concluir este segundo punto-: si queremos comprender de una forma a la vez cognitiva y social el modo en la que el científico construye sus objetos, es preciso que nos interesemos por la ciencia caliente y no por la ciencia fría.

Es una noción muy simple: si tomo un objeto técnico cualquiera, un ordenador, por ejemplo, este objeto es un objeto técnico en el cual hay abundante ciencia incorporada. Sea un objeto técnico o científico, en todo caso es interesante el que podamos servirnos de él sin preguntarnos sobre su funcionamiento. Es un gran avance. Todo el progreso de nuestra sociedad proviene de que utilizamos a cada momento objetos que no sabemos exactamente cómo funcionan (un micrófono, un bolígrafo), confiamos en los científicos, en los técnicos, los economistas y los comerciantes que han fabricado todos estos objetos.

Así pues, el aspecto de caja negra está ligado a la siguiente idea tomada de la teoría de sistemas: podemos interesarnos por estos objetos únicamente desde el punto de vista de aquello que ha entrado y aquello que ha salido del sistema, para después buscar las funciones que relacionen las entradas y las salidas, sin ocuparnos del mecanismo del sistema. Éste punto de vista es, efectivamente, el que nos ha permitido avanzar. Si tuviésemos que desmontar objetos entender sus mecanismos para poder utilizarlos, no podríamos progresar.

Pero, al mismo tiempo, este punto de vista, esta noción de caja negra, es el que nos impide entender los propios objetos: ha creado un muro, algo estanco, entre nosotros y la tecnología de la ciencia. Uno de los problemas de la vulgarización científica y, a la vez, de la filosofía y de la historia de las ciencias es comprender el proceso de construcción de los objetos. Ahora bien, si quisiera reconstruir todos los objetos científicos y todos los objetos técnicos que me rodean, me enfrentaría a una tarea imposible de acometer hoy día. Y ello porque esos objetos no sólo han sido fabricados -y bien fabricados: han sido además comprobados, garantizados por la institución que asegura su funcionamiento. Se da pues una imagen tan acabada de sus objetos, que se diría que son fríos, lisos, inaccesibles.

Tomemos un objeto cotidiano, como es el automóvil, y las controversias sobre los usos sociales del automóvil que tenemos últimamente. En este momento, a causa de la polución, en París vamos a utilizarlo un día de cada dos. Tomemos pues, una controversia interesante como es el del coche de combustión contra el coche eléctrico, que ha acabado en nuestros días con el coche de combustión como vencedor. Pero si en lugar de interesarnos por este objeto terminado que es el coche de hoy -que apenas ha evolucionado, puesto que el motor de combustión evoluciona muy poco-, si en lugar de interesarnos por este objeto para denostarlo, nos interesáramos por las controversias iniciales que hubo en el momento en el cual se podía aún elegir entre ambos modelos, entonces el asunto se vuelve apasionante. Es decir, si trabajamos con la ciencia caliente, esto es, sobre el momento en el cual, a través de las controversias, se elaboran las diferentes soluciones a un mismo problema, comprenderemos mucho mejor los objetos que nos rodean y comprenderemos por qué uno de esos objetos, una de esas versiones, ha superado a la otra.

Hemos elegido un ejemplo de objetos técnicos, pero tendríamos el mismo resultado si hubiésemos usado un ejemplo de objetos científicos. Mostraremos en el modelo lineal por qué los mínimos cuadrados, la distribución normal y la media fueron, al comienzo del siglo XIX, los vencedores ante el problema que planteaba la teoría de los errores. Hoy no podemos ya entenderlo, y por ello debemos hacer historia, volver al momento en que la controversia estaba viva, en que los científicos estaban envueltos a la vez en actividades cognitivas y sociales para defender sus puntos de vista. Es entonces cuando ejercemos de historiadores, cuando interrogamos a los documentos y a los vestigios históricos, y encontramos huellas de controversias en las que se puede identificar cuáles eran los argumentos que pesaron para que prevaleciese una solución y no otra. Podemos entonces comprender, por tal relación de fuerzas entre argumentos, el sistema social que ha hecho emerger una de entre las dos soluciones. Podemos entonces comprender cómo se han impuesto ciertos modelos y otros no.

Si somos extremistas caeremos en el relativismo: si se tiene esa visión de la ciencia, se puede llegar a decir que no hay verdad absoluta y que no hay más que éxitos o fracasos. Y se llegaría a decir, del mismo modo, que no hay objeto o teoría o modelo que se imponga porque sea el mejor, sino al contrario, de tal objeto, teoría o modelo llega a ser mejor precisamente por haberse impuesto.

La comunidad de filósofos, historiadores y sociólogos de la ciencia está actualmente muy dividida sobre esta cuestión, y así nos encontramos con conflictos entre realistas y relativistas. En mi caso, se puede decir que estoy más cerca de los relativistas, pero con matices. Claramente estoy obligado a admitir que uno de los coches de los que hablábamos en el ejemplo anterior ha sido el vencedor, eso es evidente. Pero parece que debemos admitir, al menos, que la existencia de los objetos sobre los que trabajamos ha sido construida y que es preciso retornar al momento de su construcción, si queremos aprender algo sobre ellos.

3. HISTORIA DE LA NOCIÓN DE MODELO.

Dejemos ya este segundo punto y pasemos a considerar la historia de la noción de Modelo. Este primer epígrafe ha sido esencial para explicar por qué me he interesado por la historia de la noción de Modelo, o, si lo prefieren, por la de las matemáticas aplicadas. Era el único modo de dar con la ciencia caliente a la que antes me refería, y encontrarme con auténticas controversias.

¿Cuál es la actividad de los sociólogos en esta nueva sociología de la ciencia? Por una parte, estudian las controversias. Es al estudiar una controversia cuando tenemos los verdaderos argumentos ante los ojos, mientras que si estudiamos únicamente los argumentos vencedores nunca sabremos por qué han perdido los que han sido eliminados. Por otra parte, los sociólogos cultivan una especie de antropología del trabajo científico, es decir, observan a los científicos un poco como los antropólogos observan al buen salvaje. Se trataría de acercarse a la construcción de la ciencia con cierta ingenuidad, puesto que si nos adentramos en el problema con la idea de que los mejores son los que ganan, me pregunto por qué habríamos de continuar.

No hay filosofía de la ciencia o sociología de la ciencia posible, a mi entender, si partimos del resultado de la batalla. Se trata de un viejo problema de la filosofía y de la historia: se sabe de antemano quién ha ganado. ¿Qué podemos hacer entonces? ¿Ofrecer simplemente justificaciones de los resultados? Pero al menos deberíamos tener la honestidad de reconocer que si nos situamos en la época que es objeto de nuestro estudio, la impresión fundamental que extraeremos es la de incertidumbre, puesto que no sabemos aún que va a ocurrir, y eso cambia todo. Para empezar, se vuelve apasionante. Cuando les enseño a mis estudiantes ciertos conceptos desde un punto de vista histórico, mi lección se convierte así en una epopeya, una historia colectiva en la que no se sabe demasiado bien quién es el vencedor. Hay lances de vida o muerte, y estas son las cosas que se olvidan cuando hoy abrimos manuales de estadística o matemáticas.

La historia de la noción de Modelo nos plantea múltiples problemas, veámoslos rápidamente. En primer lugar, cuando hablamos de historia de los modelos, la mitad de los matemáticos afirman que se trata de un concepto completamente ahistórico, que se trata de una idea que ha existido siempre. Muchos matemáticos que conocen la historia de su disciplina de modo sistemático saben que la noción de Modelo es reciente y que existe un cierto peligro al tomar este concepto que ahora todo lo invade y pretender trasladarlo al siglo XVIII, cuando hablar de Modelo en el siglo XVIII es francamente imposible. Proyectar en el pasado los conceptos contemporáneos es uno de los mayores y más típicos errores del principiante en historia.

Ahora bien, la primera ruptura importante aparece cuando descubrimos que la noción de Modelo no era utilizada y manipulada antes de 1920 o 1930. Más precisamente, en las ciencias sociales, y en particular en mi propia disciplina, la economía, aparecerá explícitamente y por escrito entre 1936 y 1938. Cuando aparece la palabra nueva -y por supuesto la palabra no es la cosa- se da cuando menos, en alguna parte, una manera de observar distinta, una especie de revolución, de cambio de paradigma. Por supuesto, en 1930 aparece la palabra, pero existen ensayos importantes sobre la cuestión, como el de G. Israel- que ustedes, sin duda, conocerán6-, que data el momento de la ruptura hacia 1920, en los trabajos del matemático italiano Volterra.

Si la ruptura se sitúa en esos años ¿acaso quiere ello decir que anteriormente no se hacían matemáticas aplicadas en las ciencias sociales? Por supuesto que sí. Si tomamos por ejemplo la economía, hemos hecho matemáticas económicas desde Cournot e incluso antes, se hacía ya estadística económica del siglo XIX e incluso antes, en forma de aritmética política.

¿En qué consiste, entonces, esta ruptura de los años 30? Pienso que, si ahondamos un poco, vemos que entre la noción de modelo matemático en la noción de matematización se dan diferencias. Creo, por mi parte, que debe distinguirse modelización de matematización, y la forma de hacerlo, si sólo disponemos de dos minutos, puede ser poniendo la frontera en los años treinta: digamos que con anterioridad se efectuaba una matematización de lo real y después su modelización.

Esta matematización de lo real se ha servido del modelo de las ciencias físicas, si bien en el seno de estas la relación entre las matemáticas y la física está lejos de ser simple, si no extremadamente compleja. ¿Qué hace que una cosa sea verdadera? A partir del Renacimiento, el que algo sea verdadero no depende de que se encuentre en las Escrituras, sino que se corresponda con la naturaleza que observamos. En el momento en que se pierde la confianza en los textos sagrados para definir la verdad podemos elegir entre dos opciones -y toda la historia de la modelización está impregnada de esa dualidad.

Por un lado, está la opción que de manera moderna llamaríamos hipotético-deductiva. Se postula un cierto número de hipótesis sobre el mundo en relación al sistema que se estudia y se deducen, continuación, ciertas propiedades gracias, entre otros, a herramientas como las matemáticas. En lo que respecta a la economía, lo que denominamos la vía de la economía matemática o economía racional, es una vía que se abrió muy pronto. Conocemos textos de economía matemática que datan de 1801, 1802 y uno de mis colegas en París, Pierre Crepel, acaba de escribir un libro muy interesante a este respecto7.

Evidentemente, en todas las ciencias de la observación cabe una segunda aproximación, paralela a la que acabamos de definir: se trata de la aproximación inductiva. Esta segunda aproximación consiste en partir de las observaciones, de los hechos: los recolectamos y los medimos -aparece el problema de la medida-, y entre estas medidas establecemos relaciones, también matemáticas. Estas relaciones aparecen como regularidades y llegan después a constituirse en leyes científicas. Tenemos, por tanto, un segundo método establecer leyes en las ciencias, un método que parte de los hechos y que llamamos método inductivo.

También se dan ejemplos de estas dos aproximaciones en astronomía. Evidentemente, en ambas disciplinas hay matematización, se utilizan matemáticas, pero no son en absoluto las mismas, y el problema esencial resulta de esta dualidad. Si nos referimos a la historia de la economía, el auténtico problema es que hasta los años treinta no se sabe cómo unir ambas aproximaciones, no hay punto en común. Les podría citar toda una serie de autores para ilustrárselo, pero comencemos ahora por Cournot, que es considerado el padre de la economía matemática.

Cournot escribió en 1838 un libro sobre la teoría de la riqueza8 en el cual se emplean por primera vez funciones y variables aún sin especificar -es decir, arbitrarias-, como la que denomina F(p), ley de demanda. Con ellas formula unas ecuaciones, muy simples y bien conocidas en economía matemática, a propósito del monopolio, duopolio, etc. y obtiene también sus correspondientes máximos. Cournot también fue autor de otro libro9, de 1843, que quizás les resulte menos conocido: es un ensayo sobre estadística y probabilidad en el que se ocupa de los métodos inferenciales estadísticos que permiten ascender inductivamente de la recopilación estadística de evidencias factuales a leyes generales. Plantea ya allí la cuestión de las deficiencias de estas inferencias, puesto que, como es sabido, la dificultad en la que se viene insistiendo desde el siglo XVII es que la auténtica verdad, la única certidumbre, es la de las consecuencias que podemos obtener deductivamente a partir de hipótesis.

En los filósofos del siglo XVIII volvemos a encontrar estas dos verdades. Hablan, por una parte, de verdades de la matemática y de la filosofía, que se obtienen por silogismo y deducción. Dependen de nuestras acciones, de nuestros puntos de partida, pero una vez que estos se admiten, llegamos a incertidumbres. Por otra parte, sabemos que fundar una ciencia en los hechos supone obtener semi-certidumbres, puesto que no hay hechos de los que estemos seguros. Llegamos a los hechos por mediación de nuestros sentidos, de nuestras observaciones y de las de otros, esto es, de testimonios. Hay, por tanto, una incertidumbre que va en aumento por observarse unas veces una cosa y otras veces otra: es el problema de la contingencia.

La gran revolución que se da ya a finales del siglo XVII, y después en el XVIII, se encuentra en la ley de los grandes números, que nos permite trabajar con cuasi certidumbres y avanzar, aunque no sean certidumbres plenas. Es sabido que, desde Hume, el problema de la inducción consiste en que si voy a Inglaterra y veo tres ingleses y dos son pelirrojos, puedo concluir que dos tercios de los ingleses son pelirrojos. Obviamente, este razonamiento es fuente de errores, como Hume y otros filósofos señalaron. La solución de esta dificultad se encuentra, de algún modo, en el cálculo de probabilidades, en la ley de los grandes números, el ars cojectandi o arte de la conjetura de Bernouilli10, que nos permite superarla. Toda la matemática del Condorcet, en tiempos de la revolución francesa, consiste en afirmar que hay dos clases de verdades, las deductivas y las semiverdades o semicertidumbres inductivas, pero, gracias al cálculo de probabilidades, podremos finalmente edificar la ciencia.

Haría falta aún un siglo y medio para realizar lo que Condorcet proponía. Esta dualidad perdurará a lo largo de todo el siglo XIX, durante el cual se trabajará alternativamente en ambos campos sin que nunca llegaran a unificarse. Esto se denomina, en psicología, esquizofrenia: hay dos partes disociadas de la personalidad, del trabajo científico. Después de Cournot, en la historia de la economía hay muchos otros autores en tal situación, como, por ejemplo, Edgeworth, conocido por los estadísticos como estadístico y por los economistas como economista. Son muy escasos los textos en que ambas facetas se analizan conjuntamente.

Avancemos algo más en esta historia de la idea general de modelo. Después de la matematización de los fenómenos físicos en el Renacimiento, nos encontramos con autores como Descartes, Newton y Laplace, que corresponden a otras tantas etapas en su desarrollo. Aún sin tiempo de  desarrollarlo, diremos que la matematización cartesiana de la física consiste en su reducción a la geometría, pues para Descartes la materia es extensión. Esta es una matematización completamente distinta de la que encontraremos en Newton, para quien el espacio es un continuum matemático en el cual el instrumento de análisis es el cálculo diferencial. Aquí se da, por tanto, una opción fundamental en la representación del mundo: o bien se considera un continuum o no. La elección del propio Newton es un tanto peculiar, puesto que aplica la idea de continuidad al vacío, en el cual habría, no obstante, masas que se atraen a distancia. El universo newtoniano resulta por ello bastante curioso.

No nos entretendremos más con la física puesto que debemos ocuparnos a continuación de Laplace, en el que nos encontramos ya la bifurcación entre ciencias físicas y ciencias humanas. Puesto que son estas últimas las que aquí nos interesan, podemos, ciertamente, dar comienzo a nuestra historia con el mecanismo Laplaciano. Según su concepción de las matemáticas, no habría contradicción entre determinismo y azar. Así se muestra en un conocido pasaje que a menudo conviene recordar, de donde explica el azar como efecto -o disimulo, dicen algunos- de nuestra ignorancia:

«Todos los acontecimientos, incluso aquellos que por su insignificancia parecen no atenerse a las grandes leyes de la naturaleza, no son sino una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender de causas finales o del azar, según que ocurrieran o se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento, y desaparecen por completo ante la sana filosofía que no ve en ellas más que la expresión de nuestra ignorancia de las verdaderas causas11».

Todo el mundo conoce este pasaje:

«Una inteligencia que en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia para someter a análisis tales datos, podría abarcar en una sola fórmula a los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos12».

Es la idea de una causalidad universal. Todo aquello que observemos tendrá siempre una causa -la idea es muy antigua- y dado que algunas de estas nos son inaccesibles, se dará el azar. El azar que diremos epistémico, asociado a nuestros conocimientos o, más exactamente, a la falta de los mismos, por oposición a un azar óntico, ligado a la existencia misma de las cosas, y que no encontrará defensa hasta la segunda mitad del siglo XIX.

En este texto del Ensayo filosófico sobre las probabilidades de Laplace encontraremos que la matematización, tal como se nos da en la física, puede trasladarse fácilmente a las ciencias morales. En este ensayo de Laplace se dan, en efecto, indicaciones que muestran que la vía que ha de seguirse en las ciencias sociales es la misma que se había seguido en las ciencias físicas.

Quisiera concluir rápidamente este recorrido histórico por la idea de modelo. Digamos que con Laplace hemos visto aparecer los modelos probabilísticos y el triunfo del cálculo de probabilidades. Más, curiosamente, todo el siglo XIX va a ser un desierto desde el punto de vista del cálculo de las probabilidades. Los historiadores suelen explicarlo así: todo estaba resuelto por Laplace, Condorcet y algunos más a principios del XIX, y sin embargo su programa no fue aplicado durante todo este siglo -a causa de dificultades en las que no nos vamos a extender aquí-, de modo que será en la década de los treinta, ya en nuestro siglo, cuando se dé la siguiente fase, la que denominamos revolución probabilista.

Simplificándolo un poco, podríamos decir que, en efecto, durante algo más de un siglo, de 1820 a 1930, el cálculo de probabilidades estuvo el retroceso, en particular en las ciencias sociales -como la sociología, economía o lingüística. Hasta Laplace y Poisson el cálculo de probabilidades se había considerado como una solución al problema del dualismo inducción/deducción, tal y como Condorcet lo había planteado pero después poco más se hizo. ¿Cuál fue la razón? Primeramente, que Condorcet murió guillotinado durante la Revolución y no tuvo tiempo de concluir su trabajo. Y Laplace era, por su parte, un autor difícil de leer y, por tanto, sus escritos no fueron muy conocidos. Cuando se estudia la historia de la estadística y cálculo de probabilidades se advierte que hubo muy pocos lectores de Laplace entre los mismos matemáticos, y aún menos entre sociólogos o economistas.

Si avanzamos un poco más en el tiempo, nos encontraremos una ruptura importante alrededor de 1859 –esta vez seremos precisos en la datación-. Se dieron entonces dos acontecimientos de importancia: por una parte, la física estadística de Maxwell13, donde, por una vez, el azar se considera central en física, proponiéndose que toda la teoría física puede ser edificada sobre este concepto. Éste ya no equivaldrán más a ignorancia de las cosas, y esto es fundamental para el cálculo de probabilidades. Por otra parte, en 1859 es también el libro de Darwin el origen de las especies, donde se nos dice que toda la evolución de las especies, la biología, se puede interpretar desde un doble principio: variación azarosa seguida de selección, natural o artificial.

En este momento la noción de modelo cambia profundamente: se da una importante ruptura con la concepción mecanicista. La noción de analogía pasa a desempeñar un papel fundamental:

«Por analogía física, entiendo la semejanza parcial entre las leyes de una ciencia y las leyes de otra, que hace que una pueda servir para ilustrar la otra14».

Es sabido que al cambio de perspectiva operado por la obra de Maxwell le sigue el nacimiento del positivismo, el comienzo de una nueva física que va a triunfar. Un personaje que me parece importante en este proceso fue Ernst Mach, un físico que quiso romper con todo lo que se había hecho en física hasta el momento, y en particular con nociones tan importantes como la de fuerza y explicación15. A partir de Mach el objeto de la física será no ya explicar las cosas, sino describirlas. El movimiento se convierte en un concepto importante, pues se trata de describir regularidades, de encontrar modelos que sean simples resúmenes de nuestras percepciones de la realidad. Si me intereso aquí por la obra de Mach es por su enorme influencia en Karl Pearson, cuyo primer libro es un ensayo filosófico titulado La gramática de la ciencia, donde se recogen las ideas de Mach para aplicarlas a la estadística16. Todos ustedes habrán visto, sin duda, gráficos con nubes de puntos y curvas atravesándolos. Hay dos maneras de describirlos: por un lado, nubes de puntos y una curva o también, digámoslo así, en primer lugar una curva y luego errores, de modo que los puntos no se incluirán en la curva, sino que estarían siempre en su entorno. Esta es la noción más antigua. Pero también puede decirse que lo principal son las nubes de puntos, donde se resumiría nuestras observaciones, y la curva no sería más que un ajuste de éstas. Aparece aquí la noción del ajuste de los datos, una novedad en la época: la curva, al decir de Pearson, resumiría estenográficamente los puntos de la nube, que no serían otra cosa que los elementos de nuestra percepción.

Esta ruptura se produjo muy lentamente. Comenzaría a finales del siglo XIX, y fue reforzada por cierto número de movimientos filosóficos, a los que me referiré a continuación, y también por el desarrollo de la propia física, i.e., la revolución que supuso el relativismo de Einstein, por una parte, y la física cuántica, por otra.

Una de estas corrientes filosóficas se encuentra en el Círculo de Viena. La idea central de su primer período es que la ciencia sería un lenguaje cuya sintaxis debería controlarse mediante reglas lógicas. Tal es, poco más o menos, el programa esbozado por Ernst Mach, de quien antes les hablaba, y otros filósofos y estadísticos. Ahora bien, podemos decir que este programa, de algún modo asociado al programa matemático de Hilbert , fue arruinado por los resultados de Gödel en 1931, cuando demostró su famoso teorema en el que se denunciaba -pongámoslo así- que es imposible asegurar la verdad de una teoría desde un punto de vista sintáctico. En ese momento aparece en el Círculo de Viena una nueva y muy importante versión de la noción de modelo: la teoría semántica. Es decir, nos encontramos ahora un segundo modo de afirmar que las cosas son verdaderas, apelando no a la coherencia de la sintaxis, sino a la misma noción de modelo.

Es sabido que hay dos nociones de modelo, que algunos quisieran separar, aunque yo tiendo a unirlas. Hay una noción matemática, muy precisa, de modelo: hay una teoría de modelos debida a autores como Carnap y Tarski. Este es un concepto semántico tomado de la lógica. Pero creo que su aparición no está desconectada de la irrupción, de un modo mucho más difuso, de la noción de modelo en las ciencias sociales por esa misma época -hacia los años treinta. He estudiado históricamente esta relación, encontrándomela a menudo. Uno de los fenómenos más importantes de la época fue, desgraciadamente, el nazismo, que obligó a una mayoría de los miembros del Círculo vienés a emigrar a los Estados Unidos. Y cuando se estudia la historia de la econometría, nos encontramos con que esta disciplina nace oficialmente con la fundación de la Cowles Commission también en los años treinta: alrededor de la mitad de esta comisión se componía de científicos refugiados en los Estados Unidos a causa de la invasión de Alemania y Austria por el fascismo.

No difícil, por tanto, seguirle el rastro a la noción de modelo del segundo período del Círculo de Viena cuando se transmite a disciplinas tales como la econometría, o la sociología cuantitativa. En efecto, en los años treinta aparece la palabra modelo en una mayoría de las ciencias sociales, y se encuentra en autores como Lazarsfeld, Slutsky, Tinbergen, Ullmo, en los hermanos Guillaume, en Divisia... justamente entre los años 1937 y 1939, asociada a la idea -conscientemente reductiva -de que el modelo no es otra cosa que una representación, y su objetivo es describir y predecir, y no explicar.

A partir de entonces, ya para terminar mi recorrido histórico, encontraremos tres momentos importantes más en el desarrollo de la noción de modelo. El primero acontece durante la Segunda Guerra Mundial. Tengamos presente el artículo de Amy Dahan17, donde se estudia cómo las matemáticas aplicadas nacen en el contexto de los formidables programas de investigación bélica estadounidenses, tales como los que condujeron a la bomba atómica o a la investigación operativa, exportada luego a Francia en los años 50. Fue, por tanto, un momento muy importante en la modelización, pues autores tan sobresalientes como Vom Neumann vindicaron claramente el concepto de modelo.

Otro episodio de suma importancia, sobre el que también he escrito18, fue el estructuralismo francés de los años sesenta. Hay una confluencia sorprendente -muy parisina, por otra parte- entre las ciencias sociales y la matemática del grupo Bourbaki, cuya propuesta era que debía pasarse de las matemáticas, en general, a una matemática en la que la noción fundamental fuese la de estructura. Esta revolución matemática comenzó a finales de los años treinta, pero su momento cumbre lo alcanza entre los años cincuenta y sesenta, coincidiendo -y no por casualidad, pues sus protagonistas se conocían y discutían entre sí- con otra revolución en las ciencias sociales, asociada a nombres como, por ejemplo, Levi Strauss en Francia. La revolución consistía en eliminar las nociones de actor e historia en los fenómenos sociales, para iluminar, en cambio, la de estructura, como en el caso de las estructuras del parentesco. Sus antecedentes, por supuesto, se encuentran mucho antes, en particular en lingüística. La distinción de la lengua (languaje) del habla (parole) se la debemos ya a Saussure.

El tercero de los momentos a los que antes me refería es el de la revolución informática, la introducción del ordenador. Nos hemos encontrado a lo largo de la historia de la modelización un intruso: los cálculos. Hay, en efecto, tres elementos: la teoría, el modelo y los cálculos. Pues bien, la aparición del cálculo electrónico lo cambia todo. Podemos datarla, ciertamente, en la época de la de los primeros ordenadores, hacia el final de la Segunda Guerra Mundial puesto que con estos ocurrió lo mismo que anteriormente veíamos con la bomba atómica y la econometría. Pero creo, que en lo que a la modelización respecta, la revolución más importante fue la de la microinformática a finales de los años 70. Fue entonces cuando verdaderamente, y de golpe, se pone a disposición de casi todos los investigadores una enorme potencia de cálculo, aunque no puedo detenerme ahora en el análisis de los cambios que ello trajo.

4. HISTORIA DEL MODELO LINEAL.

Puesto que el tiempo se acaba, vamos a concluir la exposición, rápidamente, con el penúltimo punto. He defendido una Tesis doctoral en 1995 sobre la historia del Modelo lineal19, tomando el concepto tal como se emplea en matemática aplicada: sea un Modelo lineal y=ax+ei, en el cual y es un vector aleatorio o variable endógena, que tratamos de predecir, y x es una matriz de variables exógenas; hay p variables exógenas o explicativas y n es el número de observaciones, que conforman la matriz de n líneas y p columnas; el coeficiente a es un vector y ei es una variable aleatoria -puesto que nos vamos a ocupar de modelos lineales aleatorios-, sobre la cual tenemos un cierto número de hipótesis.

Tal era el objeto central de los manuales de estadística matemática cuando cursé mis estudios universitarios en los años 70. Cuando se comprenden sus fundamentos, nos encontramos con los tres ejes de la estadística matemática: las nociones de estimación y estimador, y la distribución normal que pronto aparece como distribución de los errores. Todo el mundo se sirve hoy de este modelo en las ciencias aplicadas para ajustar, para aplicar ciertas variables en función de otras. Es lineal, por tanto es bastante simple, i.e., nos evitamos todos los problemas que aparecen con los no lineales.

Al interesarnos por el origen de este modelo, nos preguntamos ¿por qué éste? ¿Cómo funciona? ¿Por qué tomar un estimador mínimo-cuadrático? ¿Por qué optar por la distribución normal? ¿Cuál es el origen de todo ello?. Yo me di cuenta entonces de que hacía falta remontarse hasta 1750, y he estudiado en mi Tesis20 sus antecedentes y su constitución de 1750 a 1950, no más allá pues ya no cambiará demasiado. Esto me ha obligado a ir de la astronomía a la física social de Quetelet, i.e., a la sociología, a la biometría de Galton y Pearson, y luego a la econometría, por mencionar sólo algunas etapas de la investigación.

Empecemos con la teoría de los errores21. Los modelos que en ella se emplean fueron construidos por Gauss y Laplace hacia 1700: así, a menudo se habla del modelo de Gauss, o a veces, del modelo de Laplace-Gauss, aunque el método de los mínimos cuadrados se debe, en realidad, a Legendre. Todo ello aparece en un plazo muy breve, a comienzos del XIX: los resultados de Legendre son de 1805, el famoso teorema de Laplace en 1810 y Gauss aporta los suyos en 1809 y 1823.

Si nos interesamos por el modelo de Gauss, esto es, por la teoría de los estimadores y la distribución normal, es porque ahí se encuentra la solución de un problema, el problema de los errores de medidas. Si abrimos una historia de la astronomía, nos encontraremos, en realidad, con dos historias: una historia de la observación del método inductivo, y otra de la deducción y del modelo matemático, i.e., la mecánica celeste. Estas dos historias se dan siempre en paralelo, lo cual plantea, ciertamente, un problema: no se dice lo mismo en ambas, no se corresponden. Cuando se observan los astros, no se encuentra sin más lo que el modelo predice, y cuando hago una predicción con el modelo, suponiendo que en cierto lugar ha de haber algo, resulta que no se encuentra exactamente allí, sino un poco más acá.

Tal es el problema de los errores de medida, y cuando descendemos hasta este punto en el análisis damos con algo esencial: el error no pertenece a las matemáticas, es algo físico, y debemos comenzar estudiando cómo se matematiza, lo cual no es, en absoluto, simple. En la teoría de los errores hay que pulir muchas cosas antes de poder afirmar que un error es una variable aleatoria que sigue cierta distribución. En París, le hemos dedicado todo un curso a la cuestión. Cuando se efectúa un buen número de mediciones, en general se encuentran diferencias que nos obliga a suponer que hay un error. La primera reacción, ateniéndonos al determinismo acostumbrado, suele ser eliminar las causas del error, pero llega un momento en que esto se hace imposible, no podemos eliminar las causas del error, aparece siempre. Es entonces cuando se ha conseguido reducir el error a un objeto matemático, en el cual ya no hay azar. Disponemos, pues, de una posible modelización en términos de variables aleatorias.

Este proceso, según mi análisis, nos lleva a plantear tres interrogantes. En primer lugar, ¿cómo escoger el término medio (milieu) -Este en el concepto empleado en la época, equivalente a la media aritmética- de distintas observaciones? En segundo lugar, ¿cuál es la distribución de los errores? Y, por último, ¿qué procedimiento de ajuste debemos escoger? Estos interrogantes tienen un número de soluciones posibles, y cuando las estudiamos estamos en la ciencia caliente.

¿El término medio de diferentes observaciones? Hay muchos: la media, la mediana, la media ponderada, el término medio entre la más pequeña y la más grande, etc. ¿por qué escoger la media? Me dirán que por ser la mejor. Pero ¿por qué lo es, por qué ha ganado? No es porque sea la mejor sino porque está ligada a otros objetos matemáticos como la distribución normal o el modelo de los mínimos cuadrados, y funcionan como un trípode. Hasta finales del siglo XIX los físicos se preguntaban si la distribución de los errores era, en verdad, normal. Por entonces, algunos suponían que era producto de la observación, otros que era un resultado matemático, pero, en general, decían no saber qué era realmente.

Pues bien, en las ciencias sociales nos encontramos con una traducción completa del modelo de Laplace-Gauss debida a A. Quetelet, un astrónomo y estadístico belga22. A mediados del XIX, Quetelet construyó una sociología -que denominó física social- que no era sino una simple transposición a las ciencias sociales de la teoría de los errores de Laplace-Gauss.



Les mostraré su operación mediante un esquema: en la parte derecha y representado lo que podríamos llamar resultados de la teoría de los errores en física, sobre un objeto ya existente. Por ejemplo, un objeto típico en astronomía es la estrella polar, de la que medimos su altura. Si medimos varias veces, las medidas tendrán errores. Apoyándonos en la justificación que nos ofrecen un cierto número de teoremas matemáticos, tomaremos por medida -hoy diríamos estimación del verdadero valor de esta altura -la media aritmética de las medidas observada. A la izquierda tiene, por tanto, n medidas del objeto y, tomando su medida, se obtiene lo que los astrónomos llaman la posición verdadera (lieu vrai) de la estrella. Evidentemente, jamás tendremos a nuestro alcance la auténtica estrella, es un ejemplo donde el realismo no funciona. Creemos que existe pero jamás la hemos tocado y, por tanto, suponemos que existe esa auténtica posición porque somos realistas, y la obtenemos a partir de la media de las observaciones.

La transposición efectuada por Quetelet es la siguiente: si medimos la lectura de los individuos de una población y calculamos su media, esta segunda será completamente diferente de aquella a la que nos referíamos en nuestro ejemplo anterior: ya no es objetiva, esto es, ya no es el resultado de una serie de medidas de un mismo objeto, es la media de varias medidas de individuos distintos. Esta medida es fundamentalmente distinta en su semántica, pues ya no hay un único objeto de referencia.

Quetelet nos decía estas dos medias son diferentes -denominémoslas, por abreviar, media objetiva y media subjetiva. Pero ¿qué representa esta última? ¿Nada en absoluto? ¿No es ya la estimación de algún objeto, como en astronomía? Quetelet respondía del siguiente modo: si consideramos la distribución de la altura de, por ejemplo, reclutas, ésta tiene la misma forma que la distribución de nuestros errores de medida en astronomía. Es, en efecto, la distribución que hoy denominamos normal. Quetelet venía a decir en su respuesta y había una similitud tan enorme entre ambas distribuciones que, si bien reconocía que eran distintas, podíamos hacer como si no lo fueran. Es decir, podíamos hacer que esta media -a la derecha de mi esquema- fuese la estimación de algo que no existe. ¿El qué? No haya referencia, no hay estrella. Si he medido hombres, no hay un único referente para la diversidad de lo humano.

Quetelet consigue varias cosas a un tiempo. Hacer corresponder la noción de error en ciencias físicas a la noción de variabilidad en las ciencias sociales: no todo el mundo tiene la misma altura, la misma inteligencia, etcétera. En segundo lugar, afirma que la estrella polar existe, pero en el otro lado no hay nada: a estos efectos, inventa el concepto de hombre medio (homme moyen). Es un concepto creado artificialmente, i.e. Construido por la media calculada. Más ¿qué es éste concepto? Nuestro objeto científico, dirá Quetelet, el objeto central de mi sociología. La sociología será el estudio del hombre medio.

No podemos extendernos más en ello, pero es un ejemplo perfecto de exportación de un cierto número de herramientas filosóficas y matemáticas desde las ciencias astronómicas a las sociales. Toda esta teoría de la media influyó mucho en la sociología emergente a finales del siglo XIX.

También a finales del siglo pasado se encuentra una segunda aproximación al método lineal entre los estadísticos anglosajones que habían leído a Darwin -uno de ellos era incluso primo suyo, Galton, estudioso de la variabilidad y la reproducción de las especies. La curva que, como acabamos de ver, empleaba Quetelet sería también, según estos, para describir las cualidades morales de los individuos, su inteligencia, etcétera. Le interesaban además no la parte central, sino los extremos, es decir, los eficientes o los superdotados. A través de la interpretación de esta curva veremos cómo se reproducen las divisiones sociales. Pues una misma curva matemática, la distribución normal -es precisamente Galton quien la bautiza así -no tiene, en absoluto, la misma significación en el caso anterior, la interpretación es completamente diferente. La curva no sería ya una variación alrededor de la media, sino, por contra, una prueba de que nuestras sociedades son heterogéneas, de que existen los genes. El alcance de todo ello era enorme, pues, como saben, Galton era eugenista: se autorizará a unas personas a reproducirse, y a otras no, para mejorar nuestra especie. Es Galton quien inventa la regresión y la correlación, los dos instrumentos fundamentales de la estadística matemática.

Ambos instrumentos se asemejan al análisis de la distribución normal de dos variables que habían efectuado Laplace y Gauss. ¿Eran realmente una novedad?. En una revista de 1920 encontramos un artículo del estadounidense H. Seal23 donde plantea si podemos unir la teoría de los errores de Laplace-Gauss y la estadística matemática de Galton, Pearson y Fisher, dedicando 25 páginas a intentar probar la identidad entre ambas. Y en ese mismo número encontramos un artículo de Karl Pearson también de unas 20 páginas, donde afirma que su trabajo no tiene nada que ver con el de Laplace o Gauss24. No sólo lo afirma, sino que en la revista que había fundado, Biometrika, no se cita a Gauss ni una sola vez en veinticinco años. Ciertamente, si estudiamos las matemáticas desde un punto de vista exclusivamente sintáctico, es imposible entender por qué decían trabajar en cosas distintas.

Teoría de errores

Biometría
Gravitación Universal (Newton)
Teoría
Evolución (Darwin).
Navegación, cartografía.
Desafíos.
Eugenismo, higienismo.
La figura de la tierra.
Ejemplos.
Ley de la heredabilidad.
Boscovich, Legendre, Laplace, Gauss.
Actores.
Galton, Pearson.
1750-1820.
Período
1885-1900.
Un objeto único: el geoide.
Referente.
Individuos de múltiples padres.
Observaciones independientes, repetidas.
Medidas.
Estadísticos sobre una muestra.
y= longitud de 1°: aleatorio
y
y= altura del hijo: aleatorio.
x=sen2 latitud: determinista
x
x= altura media de los padres: aleatoria.
Pequeño número de observaciones
n
Gran número de observaciones.
Newton---> Geoide elíptica
Modelo.
Darwin---> ninguna.
yi=yi(media) + ei= axi+b+ei
Sintaxis.
yi=yi(media) + ei= axi+b+ei
Ajuste funcional de yi
yi(media)
Esperanza condicionada dey/xi.
La función se deriva del modelo
Aproximación lineal
ŷi = f(xi)

Linealidad
Regresión que se deriva de la ley.
Descubrimiento a posteriori ligado a la normalidad.
Valor verdadero de los parámetros del modelo (achatamiento)
a,b
Influencias por interpretar a=coeficiente de regresión (<1 span="">
Precisión = error de medida de yi
+ Error de especificación del modelo
ei

(significación)
Variabilidad individual intrínseca.
+ multiplicación de los referentes.
Inútil para Boscovich o Gauss

Justifica los mínimos cuadrados para Gauss (en 1809)
Normalidad

de los ei
Hipótesis fundamental definitoria de una «superficie de correlación normal».
.
Débil (fluctuación del error)

Hipótesis simplificadora

Regla de ajuste: mínimos cuadrados
δ2ei

Homocedasticidad.

su mínimo
Fuerte (variabilidad de la descendencia).

Una consecuencia.

Sin interpretación particular.
Calidad del ajuste
(1 -r2)
Reducción de variabilidad.
Sin interpretación particular
r
Coeficiente de regresión y pendiente de la recta de regresión en coordenadas reducidas.

He intentado en este pequeño esquema mostrar las diferencias entre la aproximación de la teoría astronómica de los errores en astronomía y el de la biometría. Se puede interpretar a partir de lo que denomino sintaxis, la ecuación matemática que se encuentra en su centro. Es una relación matemática muy simple, una recta de regresión o de mínimos cuadrados. No es fácil distinguirlas: sólo Yule mostró que únicamente se identificaban en ciertas condiciones, pues, de hecho, sus orígenes son diferentes25. La recta de los mínimos cuadrados viene de la astronomía, mientras que la noción de regresión -que encontraremos tanto en estadística como en psicoanálisis- viene de Galton. Explicaba Galton que la heredabilidad (heredité) consistía en lo siguiente: los triunfadores quieren tener hijos que también lo sean, pero no tanto como ellos, y habrá por tanto una regresión hacia la mediocridad26. Y este es el término que actualmente se emplea en estadística. Para entender la diferencia entre ambos, hay que estudiar la historia de ambos conceptos en sus dominios de origen. Aunque no tenga ahora tiempo para detenerme en el comentario de este esquema, creo que resume todas las diferencias existentes entre el modelo lineal de los astrónomos y el modelo lineal de los biómetras de la escuela inglesa de finales del siglo XIX. En uno de los casos la ei corresponde al error, en el otro a la variabilidad. La semántica es, por tanto, completamente diferente en ambos.

Permítanme un comentario final sobre el uso del modelo lineal en econometría, a la que yo profesionalmente me dedico. En general, la econometría fue, en 1930, un intento de aunar las vías inductiva y deductiva a las que anteriormente me refería. El núcleo de la econometría se encuentra, en efecto, en el modelo lineal, y su interpretación va a volver a definirse. Incluso si en un principio no hubo grandes novedades matemáticas, el objeto fue redefinido, lo cual dio lugar a grandes dificultades, como la de aplicar los conceptos de regresión y correlación a los fenómenos económicos -las funciones de demanda, por ejemplo. Apareció un problema nuevo, el de la identificación. Intentar comprender los ciclos económicos (business cycles) mediante la correlación les abocó a una catástrofe, que fue el concepto de barómetros económicos de los años veinte: esta teoría fue incapaz de predecir la famosa crisis de 192927.

En suma, disponer de herramientas matemáticas listas para ser utilizadas con un objetivo dado es algo que parece simple, pero es completamente imposible, ha de redefinirse toda la semántica de los objetos. Y al redefinirla, puede ocurrir que aparezcan dificultades sintácticas. En econometría, en particular, es difícil comprender, en términos aleatorios, a que corresponde la v en el modelo. Detrás de esta v hay cosas muy diversas, que nos conducen, ya hemos visto, tanto a la teoría de los errores de medida como al concepto de variabilidad.

RESUMEN.

El artículo propone un análisis del concepto de modelo matemático atendiendo a su triple dimensión sintáctica, semántica y pragmática como vía para analizar la genealogía de los distintos modelos a través de la actividad de modelización, tal y como propone la sociología contemporánea de la ciencia. Se analizan los principales episodios en la constitución del concepto de modelo matemático, esbozándose finalmente la génesis de los modelos lineales.

REFERENCIAS

1 Conferencia pronunciada en el ciclo «Matemáticas, estadística y ciencias sociales» organizado y dirigido por José M. Arribas, febrero-marzo de 1997, Dto. de Sociología I, UNED. Transcripción: M." Jesús Sánchez. Revisión, traducción y notas; David Teira Serrano, bajo la supervisión del autor. El traductor agradece las numerosas anotaciones sobre el borrador recibidas de Emmánuel Lizcano.
2 UFR Economie Appliquée. Universidad Paris-lX Dauphine
3 Cf. M. Armatte, Histoire du modele linéaire. Formes et usages en statistique et économétrie jusqu 'en 1945, Tesis doctoral defendida en la EHESS (París) en 1995, que se editará próximamente (disponible ya en microficha).
4 Referencias detalladas sobre estos dos primeros epígrafes se encuentran en Armatte, op.cii.,caps. 1-3.
5 Traducción española de F.H.Azcurra: El oficio de sociólogo. Presupuestos epistemológicos,(México: Siglo XXI, 1994).
6 La mathématisation du réel. Essai sur la modélisation mathématique (París: Editions du Seuil, 1996).
7 Se trata la obra de Charles Fran90is Bicquilley, Théorie élémentaire du commerce, cuya edición original es de 1804 y se reedita ahora con un prefacio de Pierre Crépel (Lyon: Aleas Editeurs,1995).
8 Traducción española de J.C. Zapatero: Investigaciones acerca de los principios matemáticos de la teoría de las riquezas (Madrid: Alianza, 1969).
9 Hay una edición reciente a cargo de B. Bru: Exposition de la théorie des chances et des probabilités (París: Vrin, 1984).
10 J. Bemoulli, Ars Conjectandi, en Die Werke von Jakob Bernoulli (Basilea: Birkhauser, 1975), vol. III, pp. 107-289. Edición original: 1713.
11 Traducción castellana de Pilar Castrillo: Ensayo filosófico sobre las probabilidades (Madrid: Alianza, 1985), p. 24.
12 Ibid., p. 25.
13 J.C.MAXWELL, «Illustrations of the mechanical theory of gases», 1860, reeditado en W.D.Niven, ed., The Scientific Papers of J.C. Maxwell (Cambridge: C.U.P., 1890).
14 ibid.,vol.l,p.l56.
15 Traducción española de E. Ovejero, Análisis de las sensaciones (Barcelona: Alta Fulla, 1987). Traducción de la sexta edición (1911). Edición original: 1885.
16 The Grammar of Science (S.I.: Meridian Books, 1960). Edición original: (3) 1911.
17 A. DAHAN DALMEDICO, «L'essor des mathématiques appliquées aux États-Unis: l'impact de la Seconde Guerre Mondiale», Revue d'histoire des mathématiques, 2 (1996).
18 M. ARMATTE, «Mathématiques modemes et sciences humaines», en B. Belhoste et al. (din), Les sciences au lycée, un siécle de reformes des mathématiques et de la physique en France et á l'étranger (París: Vuibert / INRP, 1996).
19 Cf. supra nota 3.
20 Op.cit.
21 Cf. M.ARMATTE «Théorie des erreurs, moyenne et loi nórmale», en J.FELDMAN, G.LAGNEAU, B.MATALON (eds.), Moyenne .milieu, centre. Histoire et usages (París:Editions E.H.E.S.S., 1991).
22 Cf M ARMATTE, «La moyenne á travers les traites de statistique», en J.FELDMAN, G.LAGNEAU, B.MATALON (eds.), Moyenne, milieu, centre. Histoire et usages, (París: Editions E.H.E.S.S., 1991) y «Adolphe Quetelet», en KARL VON MEITER (dir.). La Sociologie (París: Larousse, 1992).
23 «The Historical Development of tlie Gauss Linear model», en M.G. Kendall & E.S. Pearson, eds., Studies in the History of Statistics and Probability, vol. l (Londres: Griffin, 1970).
24 K. Pearson, «Notes on the History of Correlation», Biometrika, 13 (1920), pp. 25-45; reeditado en M.G. Kendall & E.S. Pearson (eds.), op.cit.
25 G.U. Yule, «On the Theory of Correlation», Journal of the Royal Statistical Society 60 (1897), pp. 812-854.
26 F. Galton, «Regression toward Mediocrity in Hereditary Stature», Journal of the Anthropological 15(1886). pp. 246-263.
27 Cf. M. Armatte. «Conjonctions, conjoncture et conjecture. Les barométres economiques». Histoire et mesure 7.1-2 (1992).

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería