EMPIRIA. Revista de Metodología de Ciencias Sociales. N°
3, 2000, pp. 11-34.
MICHEL
ARMATTE.²
INTRODUCCIÓN.
Este artículo gira en torno al concepto del
modelo y su historia3 y, en particular, de la historia de la
modelización en las ciencias sociales. Antes definir qué es un modelo y cuál ha
sido su trayectoria histórica, me parece importante explicar brevemente porque
sentí la necesidad de comprender de dónde vienen las herramientas matemáticas que
utilizamos en las ciencias sociales. De hecho, creo que mi propio itinerario
personal comienza con la crítica de la modelización en las ciencias sociales.
Hacia 1970 en Francia -tal vez ocurriese también aquí en España- éramos muy
críticos respecto al uso que se hacía de las matemáticas, particularmente en
sociología y economía. Era un momento en el cual los modelos económicos
desempeñaban un papel extremadamente importante en la política económica. Era
también la época del estructuralismo, que otorgaba a las matemáticas un
papel de igual importancia en las ciencias humanas.
Ahora bien, la crítica que hacíamos entonces
era una crítica ideológica, política, y al cabo de un tiempo nos apercibimos de
que era preciso replantear el problema para intentar comprenderlo. ¿Es que sólo
se podía criticar un modelo según cómo se usase? Era lo que habíamos estado
haciendo durante años, sin entrar nunca en su misma construcción. Y claro, esto
nos había llevado a una especie de callejón sin salida, sobradamente conocido
en Historia de las ciencias, que consiste en afirmar que hay buenas ciencias
y malas aplicaciones. Este dualismo no me pareció y en absoluto correcto.
En aquella época muchos intelectuales
provenientes de diferentes campos -matemáticos, sociólogos, historiadores,
filósofos- nos dedicábamos a investigar la noción de matemáticas aplicadas
o de modelización. Había muchas posibles vías: se podía, por ejemplo,
hacer simplemente filosofía, es decir, interesarse por la noción de modelo como
una noción cognitiva, i.e., relativa a una manera de conocer. Pero la vía que
finalmente escogimos muchos de nosotros, tal vez en reacción a tan extendido
formalismo de los años 1960, fue regresar a la historia y a la sociología. Es
decir, comencé mi carrera haciendo matemáticas para sociólogos y ahora hago
sociología para matemáticos, sociología o historia social de las matemáticas.
Es una inversión que me parece interesante.
Voy a comenzar primeramente por una especie
de definición de qué es un modelo. Intentaré demostrar que las respuestas más
inmediatas a esta cuestión son demasiado simples, y que esta simplicidad
conduce a equívocos. Después intentaré definir, si me lo permiten, lo que
llamaría socio-lógica (socio-lógique) de la modelización -prefiero
hablar de modelización antes que de modelo: el modelo es el
producto mientras que la modelización es la acción, una acción social humana.
Una vez efectuada la definición, que acaso sea la parte más filosófica,
pasaremos a la historia. Quisiera recorrer rápidamente la historia de la noción
de modelo, de un modo que, como comprenderán, tendrá que ser caricaturesco. Si
barremos dos siglos en tan poco tiempo, no puede ser de otra manera. Insistiré
particularmente en sus principales rupturas, es decir, aquellos momentos en que
el concepto se modifica profundamente.
Puesto que éstos son temas muy abstractos, en
la parte cuarta de mi exposición los ilustraré con mis propias investigaciones,
muy empíricas y concretas, sobre la historia del concepto de modelo lineal,
es decir, lo que hoy en día se denomina modelo lineal en econometría o
en la estadística matemática. Quisiera mostrarles cómo se construyó este
concepto a través de distintos dominios, desde la astronomía o la biología
hasta la economía y la sociología. En cada disciplina, esta herramienta (outil)
es sucesivamente recuperada y transformada. Adelantándoles ya mi primera tesis,
creo que no hay formas matemáticas que circulen por sí solas. No creo que haya
un maletín de herramientas matemáticas que podamos usar a voluntad,
aplicándolas a este problema aquí y a otro allá.
Para concluir, quisiera referirme a algunos
problemas contemporáneos de modelización, pues éste es el tema de un seminario
que coordino en París con la historiadora de la matemática Amy Dahan
(CNRS/CAK). En él analizamos modelos y modelización en distintas disciplinas,
desde la meteorología a la economía financiera, para intentar comprender qué
cambios se están produciendo hoy en ambos conceptos. Trataré, por tanto, de
comentar algunos de nuestros debates.
1. EL CONCEPTO DE
MODELO.
Comencemos entonces, si les parece, por el
primer punto4: ¿qué es un modelo? Si ustedes tienen la curiosidad de
ir a buscar definiciones en distintos diccionarios o en actores renombrados, se
encontrarán con que hay una palabra que se usa constantemente para definir
modelo (podría darles muchos casos): se trata de la palabra
representación, una representación de la realidad por medio de sistemas
formales cualesquiera. Esta noción de representación, que se encuentra tanto en
Levi Strauss como en libros de matemáticas, es fundamental pues nos indica
inmediatamente la necesidad de distinguir dos elementos: puesto que hay
representación, estará, por un lado,
la cosa y, por otro, su representación.
Sin embargo, esta noción de representación
está llena de trampas, y voy a señalar algunas. Cuando se dice
representación de la realidad nos encontramos de inmediato con una primera
interrogante: ¿qué es esta realidad? Aparece así un problema filosófico en las
ciencias: ¿hay verdaderamente una realidad primera que nosotros representamos
posteriormente? ¿Esta realidad nos es accesible? Es sabido que sobre estos
problemas hay al menos dos concepciones absolutamente opuestas. Por una parte,
el realismo, que supone que los objetos preexisten a nuestras
investigaciones y, por otra, una concepción -en realidad, son muchas- que de
manera moderna llamamos constructivismo: los objetos de nuestro estudio,
los que investigamos en las ciencias sociales, no son los objetos reales, son
objetos reconstruidos.
Ustedes saben sin duda que la epistemología
actual insiste mucho sobre todo esto, tanto en las ciencias físicas como en las
ciencias sociales. Los sociólogos franceses manejan un libro muy importante
titulado El oficio de sociólogo, debido a P Bourdieu, J.C. Chamboredon y
J.C. Passeron5, que dedica muchas páginas a esta cuestión de la
construcción del objeto sociológico.
La primera dificultad con la que nos
encontramos, por tanto, es la de que el modelo no representa la realidad. Por
lo menos, no de manera verosímil, ya que muy a menudo la realidad se nos
escapa. También hubiéramos podido -es curioso, al menos- buscar ayuda en el
diccionario, mirando los diversos sentidos de la palabra modelo. Es sin
duda interesante porque se encuentran toda una serie de acepciones diferentes
del término. Podríamos enumerar cinco que tengo ahora a la vista, pero en
ciertos diccionarios encuentran doce o quince. Las cinco acepciones que yo le
voy a dar son categorías sumamente comprensivas.
La primera idea de modelo es la de
referente o prototipo que reproducir. Es la idea de modelo del pintor o del
escultor. Cuando tenemos un modelo delante de nosotros y lo reproducimos, lo
que llamamos modelo es el referente de nuestra acción, que consiste en
reproducirlo. La segunda acepción del término es la de un tipo ideal
extraído de una población homogénea. Por ejemplo, en francés -no conozco la
traducción española- se habla de «un niño modelo». Se habla de modelo de bondad
de modelo de justicia, es decir, se toma el comportamiento humano y a partir de
este se extrae una noción abstracta a la cual damos el nombre de modelo.
La tercera acepción es la de maqueta. Los ingenieros la conocen muy
bien, pues es la que más utilizan: el modelo de cualquier dispositivo es una
maqueta, esto es, se incluye la noción de escala de representación y la
elección de ésta. La cuarta, aunque también podríamos decir maqueta, es la de
icono, es decir, una representación de una idea abstracta por objeto
concreto, una imagen en dos o tres dimensiones. Esta última es la única que me
interesa y la que discutiremos aquí: la noción de formalismo matemático o
lógico que representa un sistema.
¿Acaso estas acepciones de la palabra modelo
son independientes? Contra lo que algunos dicen, no. Les mostraré después, si
tenemos tiempo, un texto de A. Quetelet, un sociólogo y estadístico belga de
mediados del siglo XIX, que muestra exactamente la relación que existe entre el
modelo del pintor y el modelo del matemático.
Volviendo a lo anterior, se apreciará bien que
en todos estos casos el modelo no es una representación de la realidad. Tomemos
un ejemplo de sobra conocido por ustedes como es el de los mapas geográficos,
que a menudo se utilizan para explicar la noción de modelo. El mapa es una
representación del territorio: por ejemplo, cuando como la Guía Michelín -unos
mapas que se utilizan frecuentemente en Francia- encuentro representado el
territorio francés. Esta guía la hizo la casa Michelín, que, como saben, venden
neumáticos. Los neumáticos se usan para viajar en coche, así que el mapa era de
carreteras. Uno se da cuenta de que la representación del territorio que hizo
Michelín es una representación pensada para el uso de neumáticos, es decir,
destinada al conductor. En consecuencia, no se encuentra en ella determinada
información acerca del paisaje, ni sobre el subsuelo, ni sobre los lugares
donde puedo ir de picnic o donde hay hermosos bosques.
Así pues, se advierte que los mapas de la
Guía Michelín son una representación del territorio orientada hacia un
proyecto, el del turismo en automóvil. Si quiero viajar de otro modo, necesito
otro tipo de mapa. Por tanto, lo primero que debemos cambiar en nuestra idea de
modelo es que hay realidades completamente diferentes de un mismo territorio
dependiendo de los proyectos que tengamos: si hacemos turismo, si buscamos
petróleo, si vamos a la guerra, no necesitamos un mismo mapa, sino mapas
distintos.
En la noción moderna de modelo- moderna,
porque si atendemos a su historia, veremos que hay otras- que se encuentra en
las ciencias sociales, ocurre lo mismo: el modelo es una representación de
nuestros sistemas sociales y económicos, pero es preciso reintroducir la idea
de que estos sistemas han sido pensados en función de unos proyectos. Existe
una mediación, estamos divididos entre dos entidades, la realidad y su representación
formal, si bien creo que esta división debe ser sustituida por otra tripartita.
Lo que representa mi sistema formal no es
directamente la realidad, pues no tengo acceso a ella, sino los objetos que
reconstruimos. Estos objetos reconstruidos, intermediarios, se construyen
mediante tres elementos: el primero es una teoría (thérorie), i.e., no
hay modelo de algo real, sino una teoría de esta realidad.
El segundo elemento son las herramientas.
Ustedes saben que hoy para hacer mapas contamos con nuevas herramientas que son
infinitamente más precisas que aquellas de las que nos servíamos para diseñar
los mapas del siglo XVIII o del XIX. Hoy, por ejemplo, contamos con satélites y
medimos la altura de los mares con una precisión de dos centímetros. Así pues,
el segundo elemento que sirve de mediación entre la representación y la
realidad son las herramientas, y éstas han experimentado enormes cambios a lo
largo del tiempo.
El tercer elemento, es también muy
importante, es el proyecto. Un modelo raramente sirve para la pura
contemplación de la realidad, sino que suele servir para actuar sobre ella. En
la concepción moderna -y veremos en qué momento situar la transición hacia esa
concepción moderna-, por ejemplo, en economía (a la que profesionalmente me
dedico), el modelo no puede estar disociado de su fundamento teórico: hay
modelos monetaristas, modelos keynesianos, modelos marxistas, etcétera. La
teoría está presente, no puede mantenerse al margen de los instrumentos de
observación y medida, a su vez, no puede disociarse del proyecto, puesto que el
modelo me va a servir para llevar algo a
cabo: pronósticos, simulación, políticas económicas, etcétera. Le va a servir
para orientar a quienes deciden.
Añadiría a estos tres elementos un cuarto,
como consecuencia. En la noción de modelo como representación de la realidad
hay que eliminar completamente la idea de que hay una proporción entre ambos. Un
modelo no es un modelo reducido. La idea de modelo reducido es interesante en
sí misma pero entraña cierta falsedad: que todo lo que hay en la realidad se
encuentra el modelo. Hay forzosamente una reducción en el modelo: tomamos de la
realidad los elementos que nos interesan, en un número muy reducido, para
analizar esta realidad o transformarla.
Aunque no aceptemos estos elementos, por lo
demás bastante consensuados en la actual filosofía de la ciencia, admitiremos
al menos que hay al menos tres dimensiones en los modelos que nos resulta
absolutamente preciso distinguir, y que denominaremos sintáctica, semántica
y pragmática. Son términos que provienen de la lingüística, pero nos
permiten describir la relación existente entre el objeto y su representación,
puesto que estamos en el universo de los signos.
¿Por qué insisto en distinguir estas tres
dimensiones? Cuando hablamos de un Modelo, hay que distinguir desde qué punto
de vista lo hacemos. Si no referimos a la sintaxis, el adjetivo o la cualidad
correspondiente es el rigor. El rigor sintáctico nos remite a un sistema
formal, sean representaciones gráficas, matemáticas, geométricas o analíticas.
Existen reglas estrictas (una sintaxis) para construir estos objetos formales:
podemos decir, por tanto, que hay modelos mal construidos porque no respetan ni
tan siquiera las reglas sintácticas.
Debemos advertir, en segundo lugar, que los
modelos representan una realidad, más exactamente una realidad mediada por la
teoría, los instrumentos y el proyecto. Aquí aparece la semántica, la relación
entre sistema formal y lo que se desea representar. El adjetivo correspondiente
sería el de pertinencia: ¿el modelo representa bien, de un modo fecundo,
los elementos de la «realidad»? Por ejemplo, si digo que las butacas de esta
sala son rojas, se ve que mi frase es correcta desde el punto sintáctico, pero,
en cambio, es totalmente incorrecta si estamos de acuerdo en que son más bien
azules y no rojas. Aquí hay, pues, un problema de pertinencia.
La tercera dimensión es hoy, sin duda, la de mayor
importancia: es la pragmática. Puesto que el modelo debe servir a un proyecto,
la cuestión es saber si resulta eficaz para obtener ciertos objetivos. Si
consideramos un cierto número de disciplinas como la meteorología o la economía
-hay similitudes entre ambos dominios- encontraremos buenos modelos de
previsión, es decir, de buena calidad y eficaces, pero extremadamente simples y
simplistas desde el punto de vista de la pertinencia y el rigor. Un buen modelo
que utilizo todas las mañanas para saber si cojo o no mi impermeable es mirar
qué tiempo hace a las ocho de la mañana y predecir que el tiempo a mediodía
será el mismo que a las ocho. Este modelo es un modelo extremadamente simple y
a la vez eficaz.
Si avanzamos un poco más -a un dentro del
primer punto, qué es un modelo-, estas tres posibles aproximaciones a la noción
de modelo me llevan a concluir algo bastante contestatario, casi
revolucionario: un modelo no es un objeto matemático, un modelo matemático
no es un objeto matemático. O, con mayor precisión, no es más que
parcialmente matemático. Daré varios ejemplos más adelante.
Puesto que un modelo está construido a base
de ecuaciones, variables, etcétera., está hecho con matemáticas, su sintaxis es
matemática. Pero sus otras dos propiedades provienen de disciplinas que no son
en absoluto matemáticas. Esto es muy importante. Hemos vencido un poco lo que
podríamos llamar el imperialismo formalista de los años sesentas, en los
que se había creído que se podía tratar la modelización únicamente desde un
punto de vista formal. Ahora bien, creo que ello condujo a ciertos excesos en
los usos sociales, pedagógicos o en la investigación. I.e., nuestra forma de
utilizar los modelos para resolver un cierto número de problemas se ha visto
influida negativamente por el hecho de que nos resistíamos a admitir que había además
problemas semánticos y pragmáticos.
Para comprender realmente lo que es un
modelo, es necesario recuperar las nociones complementarias de la pertinencia y
de la eficacia, y diremos entonces que un modelo es algo a la vez cognitivo y
social. Pues está forzosamente en relación con nuestros sistemas de
representación, lo que se denomina a veces ideología, dicho en un
sentido lato, o también un paradigma. Cuando ilustre lo que estoy diciendo con
la noción de modelo lineal en estadística matemática, mostraré que hay al menos
tres o cuatro paradigmas en la historia del modelo lineal, es decir tres o
cuatro maneras de representar los objetos que se van a tratar mediante las
estadísticas.
Estos tres o cuatro grandes modos de
representar el mundo, el mundo inerte o el mundo vivo, el mundo de lo humano y
lo social, interfieren continuamente con la semántica. Y los mismos objetos formales
adquieren diferentes significaciones a partir del momento en que nos
enfrentamos a diferentes problemas. Estamos obligados a hacer, entonces, una
especie de historia de las ideas, filosóficas y científicas, a recurrir a la
sociología de las ciencias para intentar comprender cuáles son las
representaciones del mundo en las que se integran nuestros modelos. Pues a
partir del momento en el que hablamos de pragmática, hablamos de acción, y
también de actores.
2. SOCIO-LÓGICA DE LA
MODELIZACIÓN.
Así pues, dejamos de hablar de modelo
y empezamos a hablar de modelización, es decir de acción. Hay hombres
que modelan, no hay modelos. Hay hombres que modelan para llegar a ciertos
objetivos. En este momento hemos invertido la posición de partida, es decir, estamos
obligados a hacer una especie de sociología de la modelización, a
comprender qué tipo de actividad humana opera en la modelización.
Esta actividad humana tiene evidentemente una
especificidad. Esta es una cuestión que debatimos en nuestros seminarios en
París, a menudo con vehemencia, pues los más radicales afirman que la ciencia
es una actividad social como cualquier otra. También se puede defender, un poco
menos radicalmente, que la ciencia es una actividad social entre otras, aunque
un poco más específicas -y pese a todo una actividad social. Por tanto, el
concepto social debe ser redefinido.
¿Qué tipo de sociología de la ciencia podemos
hacer para comprender lo que es la modelización, no el modelo? Simplificando,
hay dos escuelas de sociología de la ciencia muy distintas. La primera
sociología de la ciencia que conocimos era tanto una sociología oficial,
normativa, como una sociología contestataria, marxista. En los años de la
posguerra -aunque su comienzo data de los años 1930- se fundaba sobre siguiente
principio: buena ciencia, mala aplicación. Los científicos, según esto, serían
finalmente los únicos capaces de tratar de la parte cognitiva de su actividad:
puesto que trabajan sobre conceptos, no podemos ir a ver lo que hacen. Su
actividad no es objeto de la sociología.
Por otra parte, desde el momento en que los
instrumentos se construyen sirven a la sociedad o, a la inversa, cada vez que
importan materiales de la sociedad para construir sus objetos, entonces los
sociólogos podemos decir algo. Esta visión de la sociología de la ciencia no me
parece apropiada porque -por poner la comparación- equivale imaginar al hombre
de ciencia como alguien que está mal vestido, sucio, que trae microbios, pero
que, cuando va a su laboratorio, se cambia, se pone una bata blanca, se coloca
una mascarilla en la boca y se pone a trabajar en un lugar que es por completo
estanco respecto a la sociedad. Esta imagen médica me parece una imagen muy
apropiada de lo que ha sido la sociología o la filosofía de la ciencia durante
mucho tiempo: hay una actividad completamente cerrada sobre sí misma, la
actividad cognitiva del científico, que se puede aislar completamente de sus
relaciones sociales; pero, por otra parte, ese científico es un hombre que
entra y sale de su laboratorio, y lleva consigo un cierto número de microbios,
que serían los conflictos sociales, las ideologías, y cosas por ese orden. Éste
es el denominado modelo de la contaminación.
Finalmente, hay que considerar que la
actividad científica es indisociablemente cognitiva y social, planteamiento que
vertebra lo que se ha dado en llamar la nueva sociología de la ciencia,
que comenzó en el Reino Unido, luego en Francia, y se ha extendido por otros
lugares.
Se reconocerá detrás de toda esta discusión
el famoso conflicto entre externalismo e internalismo, es decir, que si
en lugar de hablar de sociología, hablásemos historia de las ciencias nos
encontraríamos un viejo debate: por una parte, la historia internalista, esa
historia que parte de los contenidos pero que no se interesa por lo que ocurra
en el exterior y, por otra, la historia externalista, aquella que se interesa
por la forma en que los científicos están inmersos en su sociedad. Es esta
dualidad la que nosotros ponemos en cuestión con una última idea fuerza -con
la que vamos a concluir este segundo punto-: si queremos comprender de una forma
a la vez cognitiva y social el modo en la que el científico construye sus
objetos, es preciso que nos interesemos por la ciencia caliente y no por
la ciencia fría.
Es una noción muy simple: si tomo un objeto
técnico cualquiera, un ordenador, por ejemplo, este objeto es un objeto técnico
en el cual hay abundante ciencia incorporada. Sea un objeto técnico o
científico, en todo caso es interesante el que podamos servirnos de él sin
preguntarnos sobre su funcionamiento. Es un gran avance. Todo el progreso de
nuestra sociedad proviene de que utilizamos a cada momento objetos que no
sabemos exactamente cómo funcionan (un micrófono, un bolígrafo), confiamos en
los científicos, en los técnicos, los economistas y los comerciantes que han
fabricado todos estos objetos.
Así pues, el aspecto de caja negra
está ligado a la siguiente idea tomada de la teoría de sistemas: podemos interesarnos
por estos objetos únicamente desde el punto de vista de aquello que ha entrado
y aquello que ha salido del sistema, para después buscar las funciones que
relacionen las entradas y las salidas, sin ocuparnos del mecanismo del sistema.
Éste punto de vista es, efectivamente, el que nos ha permitido avanzar. Si
tuviésemos que desmontar objetos entender sus mecanismos para poder
utilizarlos, no podríamos progresar.
Pero, al mismo tiempo, este punto de vista,
esta noción de caja negra, es el que nos impide entender los propios
objetos: ha creado un muro, algo estanco, entre nosotros y la tecnología de la
ciencia. Uno de los problemas de la vulgarización científica y, a la vez, de la
filosofía y de la historia de las ciencias es comprender el proceso de construcción
de los objetos. Ahora bien, si quisiera reconstruir todos los objetos
científicos y todos los objetos técnicos que me rodean, me enfrentaría a una
tarea imposible de acometer hoy día. Y ello porque esos objetos no sólo han
sido fabricados -y bien fabricados: han sido además comprobados, garantizados
por la institución que asegura su funcionamiento. Se da pues una imagen tan
acabada de sus objetos, que se diría que son fríos, lisos, inaccesibles.
Tomemos un objeto cotidiano, como es el
automóvil, y las controversias sobre los usos sociales del automóvil que
tenemos últimamente. En este momento, a causa de la polución, en París vamos a
utilizarlo un día de cada dos. Tomemos pues, una controversia interesante como
es el del coche de combustión contra el coche eléctrico, que ha acabado en
nuestros días con el coche de combustión como vencedor. Pero si en lugar de
interesarnos por este objeto terminado que es el coche de hoy -que
apenas ha evolucionado, puesto que el motor de combustión evoluciona muy poco-,
si en lugar de interesarnos por este objeto para denostarlo, nos interesáramos
por las controversias iniciales que hubo en el momento en el cual se podía aún
elegir entre ambos modelos, entonces el asunto se vuelve apasionante. Es decir,
si trabajamos con la ciencia caliente, esto es, sobre el momento en el
cual, a través de las controversias, se elaboran las diferentes soluciones a un
mismo problema, comprenderemos mucho mejor los objetos que nos rodean y
comprenderemos por qué uno de esos objetos, una de esas versiones, ha superado
a la otra.
Hemos elegido un ejemplo de objetos técnicos,
pero tendríamos el mismo resultado si hubiésemos usado un ejemplo de objetos
científicos. Mostraremos en el modelo lineal por qué los mínimos cuadrados, la
distribución normal y la media fueron, al comienzo del siglo XIX, los
vencedores ante el problema que planteaba la teoría de los errores. Hoy no
podemos ya entenderlo, y por ello debemos hacer historia, volver al momento en
que la controversia estaba viva, en que los científicos estaban envueltos a la
vez en actividades cognitivas y sociales para defender sus puntos de vista. Es
entonces cuando ejercemos de historiadores, cuando interrogamos a los
documentos y a los vestigios históricos, y encontramos huellas de controversias
en las que se puede identificar cuáles eran los argumentos que pesaron para que
prevaleciese una solución y no otra. Podemos entonces comprender, por tal
relación de fuerzas entre argumentos, el sistema social que ha hecho emerger
una de entre las dos soluciones. Podemos entonces comprender cómo se han
impuesto ciertos modelos y otros no.
Si somos extremistas caeremos en el
relativismo: si se tiene esa visión de la ciencia, se puede llegar a decir que
no hay verdad absoluta y que no hay más que éxitos o fracasos. Y se llegaría a
decir, del mismo modo, que no hay objeto o teoría o modelo que se imponga
porque sea el mejor, sino al contrario, de tal objeto, teoría o modelo llega a
ser mejor precisamente por haberse impuesto.
La comunidad de filósofos, historiadores y
sociólogos de la ciencia está actualmente muy dividida sobre esta cuestión, y
así nos encontramos con conflictos entre realistas y relativistas. En mi
caso, se puede decir que estoy más cerca de los relativistas, pero con matices.
Claramente estoy obligado a admitir que uno de los coches de los que hablábamos
en el ejemplo anterior ha sido el vencedor, eso es evidente. Pero parece que
debemos admitir, al menos, que la existencia de los objetos sobre los que
trabajamos ha sido construida y que es preciso retornar al momento de su
construcción, si queremos aprender algo sobre ellos.
3. HISTORIA DE LA
NOCIÓN DE MODELO.
Dejemos ya este segundo punto y pasemos a
considerar la historia de la noción de Modelo. Este primer epígrafe ha sido
esencial para explicar por qué me he interesado por la historia de la noción de
Modelo, o, si lo prefieren, por la de las matemáticas aplicadas. Era el único
modo de dar con la ciencia caliente a la que antes me refería, y
encontrarme con auténticas controversias.
¿Cuál es la actividad de los sociólogos en
esta nueva sociología de la ciencia? Por una parte, estudian las controversias.
Es al estudiar una controversia cuando tenemos los verdaderos argumentos ante
los ojos, mientras que si estudiamos únicamente los argumentos vencedores nunca
sabremos por qué han perdido los que han sido eliminados. Por otra parte, los
sociólogos cultivan una especie de antropología del trabajo científico, es
decir, observan a los científicos un poco como los antropólogos observan al
buen salvaje. Se trataría de acercarse a la construcción de la ciencia con
cierta ingenuidad, puesto que si nos adentramos en el problema con la idea de
que los mejores son los que ganan, me pregunto por qué habríamos de continuar.
No hay filosofía de la ciencia o sociología
de la ciencia posible, a mi entender, si partimos del resultado de la batalla.
Se trata de un viejo problema de la filosofía y de la historia: se sabe de
antemano quién ha ganado. ¿Qué podemos hacer entonces? ¿Ofrecer simplemente
justificaciones de los resultados? Pero al menos deberíamos tener la honestidad
de reconocer que si nos situamos en la época que es objeto de nuestro estudio,
la impresión fundamental que extraeremos es la de incertidumbre, puesto que no
sabemos aún que va a ocurrir, y eso cambia todo. Para empezar, se vuelve
apasionante. Cuando les enseño a mis estudiantes ciertos conceptos desde un
punto de vista histórico, mi lección se convierte así en una epopeya, una
historia colectiva en la que no se sabe demasiado bien quién es el vencedor.
Hay lances de vida o muerte, y estas son las cosas que se olvidan cuando hoy
abrimos manuales de estadística o matemáticas.
La historia de la noción de Modelo nos
plantea múltiples problemas, veámoslos rápidamente. En primer lugar, cuando
hablamos de historia de los modelos, la mitad de los matemáticos afirman que se
trata de un concepto completamente ahistórico, que se trata de una idea que ha
existido siempre. Muchos matemáticos que conocen la historia de su disciplina
de modo sistemático saben que la noción de Modelo es reciente y que existe un
cierto peligro al tomar este concepto que ahora todo lo invade y pretender
trasladarlo al siglo XVIII, cuando hablar de Modelo en el siglo XVIII es
francamente imposible. Proyectar en el pasado los conceptos contemporáneos es
uno de los mayores y más típicos errores del principiante en historia.
Ahora bien, la primera ruptura importante
aparece cuando descubrimos que la noción de Modelo no era utilizada y
manipulada antes de 1920 o 1930. Más precisamente, en las ciencias sociales, y
en particular en mi propia disciplina, la economía, aparecerá explícitamente y
por escrito entre 1936 y 1938. Cuando aparece la palabra nueva -y por supuesto
la palabra no es la cosa- se da cuando menos, en alguna parte, una manera de
observar distinta, una especie de revolución, de cambio de paradigma. Por
supuesto, en 1930 aparece la palabra, pero existen ensayos importantes sobre la
cuestión, como el de G. Israel- que ustedes, sin duda, conocerán6-,
que data el momento de la ruptura hacia 1920, en los trabajos del matemático
italiano Volterra.
Si la ruptura se sitúa en esos años ¿acaso
quiere ello decir que anteriormente no se hacían matemáticas aplicadas en las
ciencias sociales? Por supuesto que sí. Si tomamos por ejemplo la economía,
hemos hecho matemáticas económicas desde Cournot e incluso antes, se hacía ya
estadística económica del siglo XIX e incluso antes, en forma de aritmética
política.
¿En qué consiste, entonces, esta ruptura de los
años 30? Pienso que, si ahondamos un poco, vemos que entre la noción de
modelo matemático en la noción de matematización se dan diferencias.
Creo, por mi parte, que debe distinguirse modelización de
matematización, y la forma de hacerlo, si sólo disponemos de dos minutos,
puede ser poniendo la frontera en los años treinta: digamos que con anterioridad
se efectuaba una matematización de lo real y después su modelización.
Esta matematización de lo real se ha servido
del modelo de las ciencias físicas, si bien en el seno de estas la relación
entre las matemáticas y la física está lejos de ser simple, si no
extremadamente compleja. ¿Qué hace que una cosa sea verdadera? A partir del
Renacimiento, el que algo sea verdadero no depende de que se encuentre en las
Escrituras, sino que se corresponda con la naturaleza que observamos. En el
momento en que se pierde la confianza en los textos sagrados para definir la
verdad podemos elegir entre dos opciones -y toda la historia de la modelización
está impregnada de esa dualidad.
Por un lado, está la opción que de manera
moderna llamaríamos hipotético-deductiva. Se postula un cierto número de
hipótesis sobre el mundo en relación al sistema que se estudia y se deducen,
continuación, ciertas propiedades gracias, entre otros, a herramientas como las
matemáticas. En lo que respecta a la economía, lo que denominamos la vía de la
economía matemática o economía racional, es una vía que se abrió muy
pronto. Conocemos textos de economía matemática que datan de 1801, 1802 y uno de
mis colegas en París, Pierre Crepel, acaba de escribir un libro muy interesante
a este respecto7.
Evidentemente, en todas las ciencias de la
observación cabe una segunda aproximación, paralela a la que acabamos de
definir: se trata de la aproximación inductiva. Esta segunda
aproximación consiste en partir de las observaciones, de los hechos: los
recolectamos y los medimos -aparece el problema de la medida-, y entre estas
medidas establecemos relaciones, también matemáticas. Estas relaciones aparecen
como regularidades y llegan después a constituirse en leyes científicas.
Tenemos, por tanto, un segundo método establecer leyes en las ciencias, un
método que parte de los hechos y que llamamos método inductivo.
También se dan ejemplos de estas dos
aproximaciones en astronomía. Evidentemente, en ambas disciplinas hay
matematización, se utilizan matemáticas, pero no son en absoluto las mismas, y
el problema esencial resulta de esta dualidad. Si nos referimos a la historia
de la economía, el auténtico problema es que hasta los años treinta no se sabe
cómo unir ambas aproximaciones, no hay punto en común. Les podría citar toda
una serie de autores para ilustrárselo, pero comencemos ahora por Cournot, que es
considerado el padre de la economía matemática.
Cournot escribió en 1838 un libro sobre la
teoría de la riqueza8 en el cual se emplean por primera vez
funciones y variables aún sin especificar -es decir, arbitrarias-, como la que
denomina F(p), ley de demanda. Con ellas formula unas ecuaciones, muy
simples y bien conocidas en economía matemática, a propósito del monopolio,
duopolio, etc. y obtiene también sus correspondientes máximos. Cournot también
fue autor de otro libro9, de 1843, que quizás les resulte menos
conocido: es un ensayo sobre estadística y probabilidad en el que se ocupa de
los métodos inferenciales estadísticos que permiten ascender inductivamente de
la recopilación estadística de evidencias factuales a leyes generales. Plantea
ya allí la cuestión de las deficiencias de estas inferencias, puesto que, como
es sabido, la dificultad en la que se viene insistiendo desde el siglo XVII es
que la auténtica verdad, la única certidumbre, es la de las consecuencias que
podemos obtener deductivamente a partir de hipótesis.
En los filósofos del siglo XVIII volvemos a
encontrar estas dos verdades. Hablan, por una parte, de verdades de la
matemática y de la filosofía, que se obtienen por silogismo y deducción.
Dependen de nuestras acciones, de nuestros puntos de partida, pero una vez que
estos se admiten, llegamos a incertidumbres. Por otra parte, sabemos que fundar
una ciencia en los hechos supone obtener semi-certidumbres, puesto que no hay
hechos de los que estemos seguros. Llegamos a los hechos por mediación de
nuestros sentidos, de nuestras observaciones y de las de otros, esto es, de
testimonios. Hay, por tanto, una incertidumbre que va en aumento por observarse
unas veces una cosa y otras veces otra: es el problema de la contingencia.
La gran revolución que se da ya a finales del
siglo XVII, y después en el XVIII, se encuentra en la ley de los grandes números,
que nos permite trabajar con cuasi certidumbres y avanzar, aunque no sean
certidumbres plenas. Es sabido que, desde Hume, el problema de la inducción
consiste en que si voy a Inglaterra y veo tres ingleses y dos son pelirrojos,
puedo concluir que dos tercios de los ingleses son pelirrojos. Obviamente, este
razonamiento es fuente de errores, como Hume y otros filósofos señalaron. La
solución de esta dificultad se encuentra, de algún modo, en el cálculo de
probabilidades, en la ley de los grandes números, el ars cojectandi o
arte de la conjetura de Bernouilli10, que nos permite superarla.
Toda la matemática del Condorcet, en tiempos de la revolución francesa,
consiste en afirmar que hay dos clases de verdades, las deductivas y las
semiverdades o semicertidumbres inductivas, pero, gracias al cálculo de
probabilidades, podremos finalmente edificar la ciencia.
Haría falta aún un siglo y medio para
realizar lo que Condorcet proponía. Esta dualidad perdurará a lo largo de todo
el siglo XIX, durante el cual se trabajará alternativamente en ambos campos sin
que nunca llegaran a unificarse. Esto se denomina, en psicología,
esquizofrenia: hay dos partes disociadas de la personalidad, del trabajo
científico. Después de Cournot, en la historia de la economía hay muchos otros
autores en tal situación, como, por ejemplo, Edgeworth, conocido por los
estadísticos como estadístico y por los economistas como economista. Son muy
escasos los textos en que ambas facetas se analizan conjuntamente.
Avancemos algo más en esta historia de la
idea general de modelo. Después de la matematización de los fenómenos
físicos en el Renacimiento, nos encontramos con autores como Descartes, Newton
y Laplace, que corresponden a otras tantas etapas en su desarrollo. Aún sin
tiempo de desarrollarlo, diremos que la
matematización cartesiana de la física consiste en su reducción a la geometría,
pues para Descartes la materia es extensión. Esta es una matematización
completamente distinta de la que encontraremos en Newton, para quien el espacio
es un continuum matemático en el cual el instrumento de análisis es el
cálculo diferencial. Aquí se da, por tanto, una opción fundamental en la
representación del mundo: o bien se considera un continuum o no. La
elección del propio Newton es un tanto peculiar, puesto que aplica la idea de
continuidad al vacío, en el cual habría, no obstante, masas que se atraen a
distancia. El universo newtoniano resulta por ello bastante curioso.
No nos entretendremos más con la física
puesto que debemos ocuparnos a continuación de Laplace, en el que nos
encontramos ya la bifurcación entre ciencias físicas y ciencias humanas. Puesto
que son estas últimas las que aquí nos interesan, podemos, ciertamente, dar
comienzo a nuestra historia con el mecanismo Laplaciano. Según su concepción de
las matemáticas, no habría contradicción entre determinismo y azar. Así se
muestra en un conocido pasaje que a menudo conviene recordar, de donde explica
el azar como efecto -o disimulo, dicen algunos- de nuestra ignorancia:
«Todos los acontecimientos, incluso aquellos que por su insignificancia parecen no atenerse a las grandes leyes de la naturaleza, no son sino una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender de causas finales o del azar, según que ocurrieran o se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento, y desaparecen por completo ante la sana filosofía que no ve en ellas más que la expresión de nuestra ignorancia de las verdaderas causas11».
Todo el mundo conoce este pasaje:
«Una inteligencia que en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia para someter a análisis tales datos, podría abarcar en una sola fórmula a los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos12».
Es la idea de una causalidad universal. Todo
aquello que observemos tendrá siempre una causa -la idea es muy antigua- y dado
que algunas de estas nos son inaccesibles, se dará el azar. El azar que diremos
epistémico, asociado a nuestros conocimientos o, más exactamente, a la
falta de los mismos, por oposición a un azar óntico, ligado a la
existencia misma de las cosas, y que no encontrará defensa hasta la segunda
mitad del siglo XIX.
En este texto del Ensayo filosófico sobre
las probabilidades de Laplace encontraremos que la matematización, tal como
se nos da en la física, puede trasladarse fácilmente a las ciencias morales. En
este ensayo de Laplace se dan, en efecto, indicaciones que muestran que la vía
que ha de seguirse en las ciencias sociales es la misma que se había seguido en
las ciencias físicas.
Quisiera concluir rápidamente este recorrido
histórico por la idea de modelo. Digamos que con Laplace hemos visto aparecer
los modelos probabilísticos y el triunfo del cálculo de probabilidades. Más,
curiosamente, todo el siglo XIX va a ser un desierto desde el punto de vista
del cálculo de las probabilidades. Los historiadores suelen explicarlo así:
todo estaba resuelto por Laplace, Condorcet y algunos más a principios del XIX,
y sin embargo su programa no fue aplicado durante todo este siglo -a causa de
dificultades en las que no nos vamos a extender aquí-, de modo que será en la
década de los treinta, ya en nuestro siglo, cuando se dé la siguiente fase, la
que denominamos revolución probabilista.
Simplificándolo un poco, podríamos decir que,
en efecto, durante algo más de un siglo, de 1820 a 1930, el cálculo de
probabilidades estuvo el retroceso, en particular en las ciencias sociales
-como la sociología, economía o lingüística. Hasta Laplace y Poisson el cálculo
de probabilidades se había considerado como una solución al problema del
dualismo inducción/deducción, tal y como Condorcet lo había planteado pero
después poco más se hizo. ¿Cuál fue la razón? Primeramente, que Condorcet murió
guillotinado durante la Revolución y no tuvo tiempo de concluir su trabajo. Y
Laplace era, por su parte, un autor difícil de leer y, por tanto, sus escritos
no fueron muy conocidos. Cuando se estudia la historia de la estadística y
cálculo de probabilidades se advierte que hubo muy pocos lectores de Laplace
entre los mismos matemáticos, y aún menos entre sociólogos o economistas.
Si avanzamos un poco más en el tiempo, nos
encontraremos una ruptura importante alrededor de 1859 –esta vez seremos precisos
en la datación-. Se dieron entonces dos acontecimientos de importancia: por una
parte, la física estadística de Maxwell13, donde, por una vez, el
azar se considera central en física, proponiéndose que toda la teoría física
puede ser edificada sobre este concepto. Éste ya no equivaldrán más a
ignorancia de las cosas, y esto es fundamental para el cálculo de
probabilidades. Por otra parte, en 1859 es también el libro de Darwin el
origen de las especies, donde se nos dice que toda la evolución de las especies,
la biología, se puede interpretar desde un doble principio: variación azarosa
seguida de selección, natural o artificial.
En este momento la noción de modelo cambia
profundamente: se da una importante ruptura con la concepción mecanicista. La
noción de analogía pasa a desempeñar un papel fundamental:
«Por analogía física, entiendo la semejanza parcial entre las leyes de una ciencia y las leyes de otra, que hace que una pueda servir para ilustrar la otra14».
Es sabido que al cambio de perspectiva operado
por la obra de Maxwell le sigue el nacimiento del positivismo, el comienzo de
una nueva física que va a triunfar. Un personaje que me parece importante en
este proceso fue Ernst Mach, un físico que quiso romper con todo lo que se
había hecho en física hasta el momento, y en particular con nociones tan
importantes como la de fuerza y explicación15. A partir de
Mach el objeto de la física será no ya explicar las cosas, sino describirlas.
El movimiento se convierte en un concepto importante, pues se trata de
describir regularidades, de encontrar modelos que sean simples resúmenes de
nuestras percepciones de la realidad. Si me intereso aquí por la obra de Mach
es por su enorme influencia en Karl Pearson, cuyo primer libro es un ensayo
filosófico titulado La gramática de la ciencia, donde se recogen las
ideas de Mach para aplicarlas a la estadística16. Todos ustedes
habrán visto, sin duda, gráficos con nubes de puntos y curvas atravesándolos.
Hay dos maneras de describirlos: por un lado, nubes de puntos y una
curva o también, digámoslo así, en primer lugar una curva y luego
errores, de modo que los puntos no se incluirán en la curva, sino que
estarían siempre en su entorno. Esta es la noción más antigua. Pero también
puede decirse que lo principal son las nubes de puntos, donde se resumiría
nuestras observaciones, y la curva no sería más que un ajuste de éstas. Aparece
aquí la noción del ajuste de los datos, una novedad en la época: la curva, al
decir de Pearson, resumiría estenográficamente los puntos de la nube, que no
serían otra cosa que los elementos de nuestra percepción.
Esta ruptura se produjo muy lentamente.
Comenzaría a finales del siglo XIX, y fue reforzada por cierto número de
movimientos filosóficos, a los que me referiré a continuación, y también por el
desarrollo de la propia física, i.e., la revolución que supuso el relativismo
de Einstein, por una parte, y la física cuántica, por otra.
Una de estas corrientes filosóficas se
encuentra en el Círculo de Viena. La idea central de su primer período
es que la ciencia sería un lenguaje cuya sintaxis debería controlarse mediante
reglas lógicas. Tal es, poco más o menos, el programa esbozado por Ernst Mach,
de quien antes les hablaba, y otros filósofos y estadísticos. Ahora bien,
podemos decir que este programa, de algún modo asociado al programa matemático
de Hilbert , fue arruinado por los resultados de Gödel en 1931, cuando demostró
su famoso teorema en el que se denunciaba -pongámoslo así- que es imposible
asegurar la verdad de una teoría desde un punto de vista sintáctico. En ese
momento aparece en el Círculo de Viena una nueva y muy importante versión de la
noción de modelo: la teoría semántica. Es decir, nos encontramos ahora un
segundo modo de afirmar que las cosas son verdaderas, apelando no a la
coherencia de la sintaxis, sino a la misma noción de modelo.
Es sabido que hay dos nociones de modelo, que
algunos quisieran separar, aunque yo tiendo a unirlas. Hay una noción
matemática, muy precisa, de modelo: hay una teoría de modelos debida a autores
como Carnap y Tarski. Este es un concepto semántico tomado de la lógica. Pero
creo que su aparición no está desconectada de la irrupción, de un modo mucho
más difuso, de la noción de modelo en las ciencias sociales por esa misma época
-hacia los años treinta. He estudiado históricamente esta relación,
encontrándomela a menudo. Uno de los fenómenos más importantes de la época fue,
desgraciadamente, el nazismo, que obligó a una mayoría de los miembros del
Círculo vienés a emigrar a los Estados Unidos. Y cuando se estudia la historia
de la econometría, nos encontramos con que esta disciplina nace oficialmente
con la fundación de la Cowles Commission también en los años treinta: alrededor
de la mitad de esta comisión se componía de científicos refugiados en los
Estados Unidos a causa de la invasión de Alemania y Austria por el fascismo.
No difícil, por tanto, seguirle el rastro a
la noción de modelo del segundo período del Círculo de Viena cuando se
transmite a disciplinas tales como la econometría, o la sociología
cuantitativa. En efecto, en los años treinta aparece la palabra modelo
en una mayoría de las ciencias sociales, y se encuentra en autores como
Lazarsfeld, Slutsky, Tinbergen, Ullmo, en los hermanos Guillaume, en Divisia...
justamente entre los años 1937 y 1939, asociada a la idea -conscientemente
reductiva -de que el modelo no es otra cosa que una representación, y su
objetivo es describir y predecir, y no explicar.
A partir de entonces, ya para terminar mi
recorrido histórico, encontraremos tres momentos importantes más en el
desarrollo de la noción de modelo. El primero acontece durante la Segunda
Guerra Mundial. Tengamos presente el artículo de Amy Dahan17, donde
se estudia cómo las matemáticas aplicadas nacen en el contexto de los
formidables programas de investigación bélica estadounidenses, tales como los
que condujeron a la bomba atómica o a la investigación operativa, exportada
luego a Francia en los años 50. Fue, por tanto, un momento muy importante en la
modelización, pues autores tan sobresalientes como Vom Neumann vindicaron
claramente el concepto de modelo.
Otro episodio de suma importancia, sobre el
que también he escrito18, fue el estructuralismo francés de
los años sesenta. Hay una confluencia sorprendente -muy parisina, por otra
parte- entre las ciencias sociales y la matemática del grupo Bourbaki, cuya propuesta
era que debía pasarse de las matemáticas, en general, a una matemática en la
que la noción fundamental fuese la de estructura. Esta revolución
matemática comenzó a finales de los años treinta, pero su momento cumbre lo
alcanza entre los años cincuenta y sesenta, coincidiendo -y no por casualidad,
pues sus protagonistas se conocían y discutían entre sí- con otra revolución en
las ciencias sociales, asociada a nombres como, por ejemplo, Levi Strauss en
Francia. La revolución consistía en eliminar las nociones de actor e
historia en los fenómenos sociales, para iluminar, en cambio, la de
estructura, como en el caso de las estructuras del parentesco. Sus
antecedentes, por supuesto, se encuentran mucho antes, en particular en
lingüística. La distinción de la lengua (languaje) del habla (parole)
se la debemos ya a Saussure.
El tercero de los momentos a los que antes me
refería es el de la revolución informática, la introducción del ordenador. Nos
hemos encontrado a lo largo de la historia de la modelización un intruso: los
cálculos. Hay, en efecto, tres elementos: la teoría, el modelo y los cálculos.
Pues bien, la aparición del cálculo electrónico lo cambia todo. Podemos
datarla, ciertamente, en la época de la de los primeros ordenadores, hacia el
final de la Segunda Guerra Mundial puesto que con estos ocurrió lo mismo que
anteriormente veíamos con la bomba atómica y la econometría. Pero creo, que en
lo que a la modelización respecta, la revolución más importante fue la de la
microinformática a finales de los años 70. Fue entonces cuando verdaderamente,
y de golpe, se pone a disposición de casi todos los investigadores una enorme
potencia de cálculo, aunque no puedo detenerme ahora en el análisis de los
cambios que ello trajo.
4. HISTORIA DEL
MODELO LINEAL.
Puesto que el tiempo se acaba, vamos a
concluir la exposición, rápidamente, con el penúltimo punto. He defendido una
Tesis doctoral en 1995 sobre la historia del Modelo lineal19,
tomando el concepto tal como se emplea en matemática aplicada: sea un Modelo lineal
y=ax+ei, en el cual y es
un vector aleatorio o variable endógena, que tratamos de predecir, y x es una matriz de variables exógenas;
hay p variables exógenas o
explicativas y n es el número de
observaciones, que conforman la matriz de n
líneas y p columnas; el coeficiente a es un vector y ei es una variable aleatoria -puesto que nos vamos a
ocupar de modelos lineales aleatorios-, sobre la cual tenemos un cierto número
de hipótesis.
Tal era el objeto central de los manuales de
estadística matemática cuando cursé mis estudios universitarios en los años 70.
Cuando se comprenden sus fundamentos, nos encontramos con los tres ejes de la
estadística matemática: las nociones de estimación y estimador, y la
distribución normal que pronto aparece como distribución de los errores. Todo
el mundo se sirve hoy de este modelo en las ciencias aplicadas para ajustar,
para aplicar ciertas variables en función de otras. Es lineal, por tanto es
bastante simple, i.e., nos evitamos todos los problemas que aparecen con los no
lineales.
Al interesarnos por el origen de este modelo,
nos preguntamos ¿por qué éste? ¿Cómo funciona? ¿Por qué tomar un estimador
mínimo-cuadrático? ¿Por qué optar por la distribución normal? ¿Cuál es el
origen de todo ello?. Yo me di cuenta entonces de que hacía falta remontarse
hasta 1750, y he estudiado en mi Tesis20 sus antecedentes y su
constitución de 1750 a 1950, no más allá pues ya no cambiará demasiado. Esto me
ha obligado a ir de la astronomía a la física social de Quetelet, i.e., a la
sociología, a la biometría de Galton y Pearson, y luego a la econometría, por
mencionar sólo algunas etapas de la investigación.
Empecemos con la teoría de los errores21.
Los modelos que en ella se emplean fueron construidos por Gauss y Laplace hacia
1700: así, a menudo se habla del modelo de Gauss, o a veces, del modelo de
Laplace-Gauss, aunque el método de los mínimos cuadrados se debe, en realidad,
a Legendre. Todo ello aparece en un plazo muy breve, a comienzos del XIX: los
resultados de Legendre son de 1805, el famoso teorema de Laplace en 1810 y
Gauss aporta los suyos en 1809 y 1823.
Si nos interesamos por el modelo de Gauss,
esto es, por la teoría de los estimadores y la distribución normal, es porque
ahí se encuentra la solución de un problema, el problema de los errores de
medidas. Si abrimos una historia de la astronomía, nos encontraremos, en
realidad, con dos historias: una historia de la observación del método
inductivo, y otra de la deducción y del modelo matemático, i.e., la mecánica
celeste. Estas dos historias se dan siempre en paralelo, lo cual plantea,
ciertamente, un problema: no se dice lo mismo en ambas, no se corresponden.
Cuando se observan los astros, no se encuentra sin más lo que el modelo
predice, y cuando hago una predicción con el modelo, suponiendo que en cierto
lugar ha de haber algo, resulta que no se encuentra exactamente allí, sino un
poco más acá.
Tal es el problema de los errores de medida,
y cuando descendemos hasta este punto en el análisis damos con algo esencial:
el error no pertenece a las matemáticas, es algo físico, y debemos comenzar
estudiando cómo se matematiza, lo cual no es, en absoluto, simple. En la teoría
de los errores hay que pulir muchas cosas antes de poder afirmar que un error
es una variable aleatoria que sigue cierta distribución. En París, le hemos
dedicado todo un curso a la cuestión. Cuando se efectúa un buen número de
mediciones, en general se encuentran diferencias que nos obliga a suponer que
hay un error. La primera reacción, ateniéndonos al determinismo acostumbrado,
suele ser eliminar las causas del error, pero llega un momento en que esto se
hace imposible, no podemos eliminar las causas del error, aparece siempre. Es
entonces cuando se ha conseguido reducir el error a un objeto matemático, en el
cual ya no hay azar. Disponemos, pues, de una posible modelización en términos
de variables aleatorias.
Este proceso, según mi análisis, nos lleva a
plantear tres interrogantes. En primer lugar, ¿cómo escoger el término medio
(milieu) -Este en el concepto empleado en la época, equivalente a la media
aritmética- de distintas observaciones? En segundo lugar, ¿cuál es la
distribución de los errores? Y, por último, ¿qué procedimiento de ajuste
debemos escoger? Estos interrogantes tienen un número de soluciones posibles, y
cuando las estudiamos estamos en la ciencia caliente.
¿El término medio de diferentes
observaciones? Hay muchos: la media, la mediana, la media ponderada, el término
medio entre la más pequeña y la más grande, etc. ¿por qué escoger la media? Me
dirán que por ser la mejor. Pero ¿por qué lo es, por qué ha ganado? No es
porque sea la mejor sino porque está ligada a otros objetos matemáticos como la
distribución normal o el modelo de los mínimos cuadrados, y funcionan como un
trípode. Hasta finales del siglo XIX los físicos se preguntaban si la
distribución de los errores era, en verdad, normal. Por entonces, algunos
suponían que era producto de la observación, otros que era un resultado
matemático, pero, en general, decían no saber qué era realmente.
Pues bien, en las ciencias sociales nos
encontramos con una traducción completa del modelo de Laplace-Gauss debida a A.
Quetelet, un astrónomo y estadístico belga22. A mediados del XIX,
Quetelet construyó una sociología -que denominó física social- que no
era sino una simple transposición a las ciencias sociales de la teoría de los
errores de Laplace-Gauss.
Les mostraré su operación mediante un
esquema: en la parte derecha y representado lo que podríamos llamar
resultados de la teoría de los errores en física, sobre un objeto ya
existente. Por ejemplo, un objeto típico en astronomía es la estrella polar, de
la que medimos su altura. Si medimos varias veces, las medidas tendrán errores.
Apoyándonos en la justificación que nos ofrecen un cierto número de teoremas
matemáticos, tomaremos por medida -hoy diríamos estimación del verdadero
valor de esta altura -la media aritmética de las medidas observada. A la
izquierda tiene, por tanto, n medidas
del objeto y, tomando su medida, se obtiene lo que los astrónomos llaman la
posición verdadera (lieu vrai) de la estrella. Evidentemente, jamás
tendremos a nuestro alcance la auténtica estrella, es un ejemplo donde el
realismo no funciona. Creemos que existe pero jamás la hemos tocado y, por
tanto, suponemos que existe esa auténtica posición porque somos
realistas, y la obtenemos a partir de la media de las observaciones.
La transposición efectuada por Quetelet es la
siguiente: si medimos la lectura de los individuos de una población y
calculamos su media, esta segunda será completamente diferente de aquella a la
que nos referíamos en nuestro ejemplo anterior: ya no es objetiva, esto es, ya
no es el resultado de una serie de medidas de un mismo objeto, es la media
de varias medidas de individuos distintos. Esta medida es fundamentalmente
distinta en su semántica, pues ya no hay un único objeto de referencia.
Quetelet nos decía estas dos medias son
diferentes -denominémoslas, por abreviar, media objetiva y media
subjetiva. Pero ¿qué representa esta última? ¿Nada en absoluto? ¿No es ya
la estimación de algún objeto, como en astronomía? Quetelet respondía del
siguiente modo: si consideramos la distribución de la altura de, por ejemplo,
reclutas, ésta tiene la misma forma que la distribución de nuestros errores de
medida en astronomía. Es, en efecto, la distribución que hoy denominamos
normal. Quetelet venía a decir en su respuesta y había una similitud tan
enorme entre ambas distribuciones que, si bien reconocía que eran distintas,
podíamos hacer como si no lo fueran. Es decir, podíamos hacer que esta media -a
la derecha de mi esquema- fuese la estimación de algo que no existe. ¿El qué?
No haya referencia, no hay estrella. Si he medido hombres, no hay un único
referente para la diversidad de lo humano.
Quetelet consigue varias cosas a un tiempo.
Hacer corresponder la noción de error en ciencias físicas a la noción de
variabilidad en las ciencias sociales: no todo el mundo tiene la misma altura,
la misma inteligencia, etcétera. En segundo lugar, afirma que la estrella polar
existe, pero en el otro lado no hay nada: a estos efectos, inventa el concepto
de hombre medio (homme moyen). Es un concepto creado artificialmente,
i.e. Construido por la media calculada. Más ¿qué es éste concepto? Nuestro
objeto científico, dirá Quetelet, el objeto central de mi sociología. La
sociología será el estudio del hombre medio.
No podemos extendernos más en ello, pero es
un ejemplo perfecto de exportación de un cierto número de herramientas
filosóficas y matemáticas desde las ciencias astronómicas a las sociales. Toda
esta teoría de la media influyó mucho en la sociología emergente a finales del
siglo XIX.
También a finales del siglo pasado se
encuentra una segunda aproximación al método lineal entre los estadísticos
anglosajones que habían leído a Darwin -uno de ellos era incluso primo suyo,
Galton, estudioso de la variabilidad y la reproducción de las especies. La
curva que, como acabamos de ver, empleaba Quetelet sería también, según estos,
para describir las cualidades morales de los individuos, su inteligencia,
etcétera. Le interesaban además no la parte central, sino los extremos, es
decir, los eficientes o los superdotados. A través de la interpretación de esta
curva veremos cómo se reproducen las divisiones sociales. Pues una misma curva
matemática, la distribución normal -es precisamente Galton quien la
bautiza así -no tiene, en absoluto, la misma significación en el caso anterior,
la interpretación es completamente diferente. La curva no sería ya una
variación alrededor de la media, sino, por contra, una prueba de que nuestras
sociedades son heterogéneas, de que existen los genes. El alcance de todo ello
era enorme, pues, como saben, Galton era eugenista: se autorizará a unas
personas a reproducirse, y a otras no, para mejorar nuestra especie. Es Galton
quien inventa la regresión y la correlación, los dos instrumentos fundamentales
de la estadística matemática.
Ambos instrumentos se asemejan al análisis de
la distribución normal de dos variables que habían efectuado Laplace y Gauss.
¿Eran realmente una novedad?. En una revista de 1920 encontramos un artículo
del estadounidense H. Seal23 donde plantea si podemos unir la teoría
de los errores de Laplace-Gauss y la estadística matemática de Galton, Pearson
y Fisher, dedicando 25 páginas a intentar probar la identidad entre ambas. Y en
ese mismo número encontramos un artículo de Karl Pearson también de unas 20
páginas, donde afirma que su trabajo no tiene nada que ver con el de Laplace o
Gauss24. No sólo lo afirma, sino que en la revista que había
fundado, Biometrika, no se cita a Gauss ni una sola vez en veinticinco
años. Ciertamente, si estudiamos las matemáticas desde un punto de vista
exclusivamente sintáctico, es imposible entender por qué decían trabajar en
cosas distintas.
Teoría de errores
|
|
Biometría
|
Gravitación
Universal (Newton)
|
Teoría
|
Evolución (Darwin).
|
Navegación,
cartografía.
|
Desafíos.
|
Eugenismo,
higienismo.
|
La figura de la
tierra.
|
Ejemplos.
|
Ley de la
heredabilidad.
|
Boscovich,
Legendre, Laplace, Gauss.
|
Actores.
|
Galton, Pearson.
|
1750-1820.
|
Período
|
1885-1900.
|
Un objeto único: el
geoide.
|
Referente.
|
Individuos de
múltiples padres.
|
Observaciones
independientes, repetidas.
|
Medidas.
|
Estadísticos sobre
una muestra.
|
y= longitud de 1°: aleatorio
|
y
|
y= altura del hijo:
aleatorio.
|
x=sen2
latitud: determinista
|
x
|
x= altura media de
los padres: aleatoria.
|
Pequeño número de
observaciones
|
n
|
Gran número de
observaciones.
|
Newton--->
Geoide elíptica
|
Modelo.
|
Darwin--->
ninguna.
|
yi=yi(media)
+ ei= axi+b+ei
|
Sintaxis.
|
yi=yi(media)
+ ei= axi+b+ei
|
Ajuste funcional de yi
|
yi(media)
|
Esperanza
condicionada dey/xi.
|
La función se
deriva del modelo
Aproximación lineal
|
ŷi = f(xi)
Linealidad
|
Regresión que se deriva de
la ley.
Descubrimiento a
posteriori ligado a la normalidad.
|
Valor verdadero de
los parámetros del modelo (achatamiento)
|
a,b
|
Influencias por
interpretar a=coeficiente de regresión (<1 span="">
|
Precisión = error
de medida de yi
+ Error de
especificación del modelo
|
ei
(significación)
|
Variabilidad individual
intrínseca.
+ multiplicación de
los referentes.
|
Inútil para
Boscovich o Gauss
Justifica los
mínimos cuadrados para Gauss (en 1809)
|
Normalidad
de
los ei
|
Hipótesis
fundamental definitoria de una «superficie de correlación normal».
.
|
Débil (fluctuación
del error)
Hipótesis
simplificadora
Regla de ajuste:
mínimos cuadrados
|
δ2ei
Homocedasticidad.
su
mínimo
|
Fuerte
(variabilidad de la descendencia).
Una consecuencia.
Sin interpretación
particular.
|
Calidad del ajuste
|
(1
-r2)
|
Reducción de variabilidad.
|
Sin interpretación
particular
|
r
|
Coeficiente de
regresión y pendiente de la recta de regresión en coordenadas reducidas.
|
He intentado en este pequeño esquema mostrar
las diferencias entre la aproximación de la teoría astronómica de los errores
en astronomía y el de la biometría. Se puede interpretar a partir de lo que
denomino sintaxis, la ecuación matemática que se encuentra en su centro. Es una
relación matemática muy simple, una recta de regresión o de mínimos cuadrados.
No es fácil distinguirlas: sólo Yule mostró que únicamente se identificaban en
ciertas condiciones, pues, de hecho, sus orígenes son diferentes25.
La recta de los mínimos cuadrados viene de la astronomía, mientras que la
noción de regresión -que encontraremos tanto en estadística como en
psicoanálisis- viene de Galton. Explicaba Galton que la heredabilidad
(heredité) consistía en lo siguiente: los triunfadores quieren tener hijos
que también lo sean, pero no tanto como ellos, y habrá por tanto una
regresión hacia la mediocridad26. Y este es el término que
actualmente se emplea en estadística. Para entender la diferencia entre ambos,
hay que estudiar la historia de ambos conceptos en sus dominios de origen.
Aunque no tenga ahora tiempo para detenerme en el comentario de este esquema,
creo que resume todas las diferencias existentes entre el modelo lineal de los
astrónomos y el modelo lineal de los biómetras de la escuela inglesa de finales
del siglo XIX. En uno de los casos la ei
corresponde al error, en el otro a la variabilidad. La semántica es, por tanto,
completamente diferente en ambos.
Permítanme un comentario final sobre el uso
del modelo lineal en econometría, a la que yo profesionalmente me dedico. En
general, la econometría fue, en 1930, un intento de aunar las vías inductiva y
deductiva a las que anteriormente me refería. El núcleo de la econometría se
encuentra, en efecto, en el modelo lineal, y su interpretación va a volver a
definirse. Incluso si en un principio no hubo grandes novedades matemáticas, el
objeto fue redefinido, lo cual dio lugar a grandes dificultades, como la de
aplicar los conceptos de regresión y correlación a los fenómenos económicos -las
funciones de demanda, por ejemplo. Apareció un problema nuevo, el de la
identificación. Intentar comprender los ciclos económicos (business cycles)
mediante la correlación les abocó a una catástrofe, que fue el concepto de
barómetros económicos de los años veinte: esta teoría fue incapaz de predecir
la famosa crisis de 192927.
En suma, disponer de herramientas matemáticas
listas para ser utilizadas con un objetivo dado es algo que parece simple, pero
es completamente imposible, ha de redefinirse toda la semántica de los objetos.
Y al redefinirla, puede ocurrir que aparezcan dificultades sintácticas. En econometría,
en particular, es difícil comprender, en términos aleatorios, a que corresponde
la v en el modelo. Detrás de esta v hay cosas muy diversas, que nos
conducen, ya hemos visto, tanto a la teoría de los errores de medida como al
concepto de variabilidad.
RESUMEN.
El artículo propone un análisis del concepto
de modelo matemático atendiendo a su triple dimensión sintáctica, semántica y
pragmática como vía para analizar la genealogía de los distintos modelos a
través de la actividad de modelización, tal y como propone la sociología
contemporánea de la ciencia. Se analizan los principales episodios en la
constitución del concepto de modelo matemático, esbozándose finalmente la
génesis de los modelos lineales.
REFERENCIAS
1 Conferencia pronunciada en el ciclo
«Matemáticas, estadística y ciencias sociales» organizado y dirigido por José
M. Arribas, febrero-marzo de 1997, Dto. de Sociología I, UNED. Transcripción:
M." Jesús Sánchez. Revisión, traducción y notas; David Teira Serrano, bajo
la supervisión del autor. El traductor agradece las numerosas anotaciones sobre
el borrador recibidas de Emmánuel Lizcano.
2 UFR Economie Appliquée. Universidad Paris-lX
Dauphine
3 Cf. M. Armatte, Histoire du modele
linéaire. Formes et usages en statistique et économétrie jusqu 'en 1945, Tesis
doctoral defendida en la EHESS (París) en 1995, que se editará próximamente
(disponible ya en microficha).
4 Referencias detalladas sobre estos dos
primeros epígrafes se encuentran en Armatte, op.cii.,caps. 1-3.
5 Traducción española de F.H.Azcurra: El
oficio de sociólogo. Presupuestos epistemológicos,(México: Siglo XXI,
1994).
6 La mathématisation du réel. Essai sur la
modélisation mathématique (París: Editions du Seuil, 1996).
7 Se trata la obra de Charles Fran90is
Bicquilley, Théorie élémentaire du commerce, cuya edición original es de
1804 y se reedita ahora con un prefacio de Pierre Crépel (Lyon: Aleas
Editeurs,1995).
8 Traducción española de J.C. Zapatero: Investigaciones
acerca de los principios matemáticos de la teoría de las riquezas (Madrid:
Alianza, 1969).
9 Hay una edición reciente a cargo de B. Bru:
Exposition de la théorie des chances et des probabilités (París: Vrin,
1984).
10 J. Bemoulli, Ars Conjectandi, en Die Werke von Jakob
Bernoulli (Basilea: Birkhauser, 1975), vol. III, pp. 107-289. Edición original:
1713.
11 Traducción castellana de Pilar Castrillo: Ensayo
filosófico sobre las probabilidades (Madrid: Alianza, 1985), p. 24.
12 Ibid., p. 25.
13 J.C.MAXWELL, «Illustrations of the mechanical theory of gases», 1860,
reeditado en W.D.Niven, ed., The Scientific Papers of J.C. Maxwell (Cambridge:
C.U.P., 1890).
14 ibid.,vol.l,p.l56.
15 Traducción española de E. Ovejero, Análisis
de las sensaciones (Barcelona: Alta Fulla, 1987). Traducción de la sexta
edición (1911). Edición original: 1885.
16 The Grammar of Science (S.I.:
Meridian Books, 1960). Edición original: (3) 1911.
17 A. DAHAN DALMEDICO, «L'essor des
mathématiques appliquées aux États-Unis: l'impact de la Seconde Guerre
Mondiale», Revue d'histoire des mathématiques, 2 (1996).
18 M. ARMATTE, «Mathématiques modemes et
sciences humaines», en B. Belhoste et al. (din), Les sciences au
lycée, un siécle de reformes des mathématiques et de la physique en France et á
l'étranger (París: Vuibert / INRP, 1996).
19 Cf. supra nota 3.
20 Op.cit.
21 Cf. M.ARMATTE «Théorie des erreurs,
moyenne et loi nórmale», en J.FELDMAN, G.LAGNEAU, B.MATALON (eds.), Moyenne
.milieu, centre. Histoire et usages (París:Editions E.H.E.S.S., 1991).
22 Cf M ARMATTE, «La moyenne á travers les
traites de statistique», en J.FELDMAN, G.LAGNEAU, B.MATALON (eds.), Moyenne,
milieu, centre. Histoire et usages, (París: Editions E.H.E.S.S., 1991) y
«Adolphe Quetelet», en KARL VON MEITER (dir.). La Sociologie (París:
Larousse, 1992).
23 «The Historical Development of tlie Gauss Linear model», en M.G.
Kendall & E.S. Pearson, eds., Studies in the History of Statistics and
Probability, vol. l (Londres: Griffin, 1970).
24 K. Pearson, «Notes on the History of Correlation», Biometrika, 13
(1920), pp. 25-45; reeditado en M.G. Kendall & E.S. Pearson (eds.), op.cit.
25 G.U. Yule, «On the Theory of Correlation», Journal
of the Royal Statistical Society 60 (1897), pp. 812-854.
26 F. Galton, «Regression toward Mediocrity in Hereditary Stature», Journal
of the Anthropological 15(1886). pp. 246-263.
27 Cf. M. Armatte. «Conjonctions, conjoncture et conjecture. Les barométres
economiques». Histoire et mesure 7.1-2 (1992).
Comentarios