Enrahonar. 19,
1992/91-97.
José A Díez Calzada.
Los preceptos para la interpretación de la naturaleza se dividen en dos clases: los primeros enseñan a deducir y hacer salir de la experiencia las leyes generales; los segundos a derivar de las leyes generales nuevas experiencias. La primera clase se divide en tres partes. (La primera consiste en) formar una historia natural y experimental suficiente y exacta (...) es preciso, después, formar tablas y encadenamientos de hechos (...) A pesar de tales auxilios, el espíritu, abandonado a sí mismo y a sus libres movimientos, es impotente e inhábil para descubrir las leyes generales, hay que regularlo y prestarles socorro. He aquí por qué, en tercer lugar, es preciso emplear una inducción legítima y verdadera, que es en sí misma la clave de la interpretación (F. Bacon, Novum Organum, (Lib, 2º, 10).
Desde que Bacon escribiera estas líneas, la
inducción ha sido puerto obligado para todo estudioso de la naturaleza y de los
límites del conocimiento científico. Andrés Rivadulla, profesor de Lógica y
Filosofía de la Ciencia de la Universidad Complutense, investigador y
conferenciante en universidades extranjeras y autor, entre otros trabajos más
especializados, de un estudio sobre el estado actual de la investigación
metacientífica (Filosofía Actual de la Ciencia, Tecnos, Madrid, 1986),
afronta ahora el reto de realizar una nueva escala en dicho puerto.
Probabilidad e Inferencia Científica (1) se propone pensar de nuevo,
mediante el análisis crítico de las últimas investigaciones en el campo, el
problema de la inducción, el problema, en palabras del autor, «de sí, y en qué
sentido, se puede decir que aprendemos intuitivamente de la experiencia».
Se define comúnmente la inducción como el
paso o inferencia de lo particular, de los hechos singulares, a lo universal, a
las leyes generales. Tal paso plantea al menos dos cuestiones que conviene
distinguir cuidadosamente. La primera se refiere al «establecimiento» de las
leyes, al proceso mediante el cual éstas se descubren o infieren. La segunda
tiene que ver con la «justificación» de las leyes, e.e., si la verdad de los
hechos singulares apoya, y en qué sentido lo hace, la validez de la ley
general. Contrariamente a la deducción, donde el establecimiento de la
inferencia, en tanto que inferencia, es a la vez, una justificación de la
misma, en la inducción las dos cuestiones son independientes. Bacon, y también
Mill y, en parte, Whewell, creían tener respuesta para la primera. Hoy, sin
embargo, sabemos que no hay ningún «método» para «realizar inducciones», que el
descubrimiento de las leyes es un proceso creador («conjetural», diría Popper)
que nada tiene que ver con una serie de instrucciones y que compete en todo
caso a la psicología investigar. Por ello, el único problema relativo a la
inducción de que se ocupa la actual filosofía de la ciencia es el de su justificación.
Esta cuestión es «lógica». A las series de enunciados tales que se pretende que
unos justifican otros les llamamos «argumentos». La inducción, simplificando
mucho, tiene la forma de un argumento en el que las premisas expresan hechos
singulares («el sol salió hoy, y ayer, y...») y la conclusión expresa, bien un
hecho general («el sol sale todos los días»), bien un nuevo hecho singular que
«no se deduce» de los anteriores («el sol saldrá mañana»). La cuestión es: ¿en
qué sentido las premisas justifican la conclusión? (Para esta cuestión no
importa «cómo se ha llegado» al hecho de justificar, ni si los hechos-premisas
se conocen antes o después de llegar a él).
En la deducción (válida), el sentido en que
las premisas justifican la conclusión es claro, la justifican en tanto que la
verdad de aquellas garantiza la «verdad» de ésta; el argumento no es
ampliativo. La inducción, al contrario, es ampliativa, y ello supone que aún
siendo (intuitivamente) válida, la verdad de las premisas no garantiza la «verdad»
de la conclusión. Sin embargo, parece indudable que en un sentido interesante
hay inducciones válidas y, por tanto, que en la inducción (válida) la
conclusión recibe cierto «apoyo» de las premisas, e.e., que éstas garantizan si
no su verdad, alguna propiedad epistémicamente interesante de la conclusión;
esta propiedad por otro lado, no debe ser de tipo «todo o nada» sino tener
grados, pues el apoyo que confieren las premisas inductivas puede ser menor o
mayor según el número de hechos particulares «apoyadores». Gran parte de los
esfuerzos en filosofía de la ciencia en el siglo XX se han dirigido a encontrar
un modo de hacer precisa esta intuición o a mostrar que la intuición es
errónea; en el primer caso, además, casi siempre se iba a parar a la probabilidad
o a algún sucedáneo suyo. Probabilidad de Inferencia Científica es
básicamente un estudio detenido de los principales resultados a que han
conducido tales esfuerzos. No es sin embargo una obra meramente expositiva,
pues el autor, mediante el análisis crítico de las diversas alternativas, va
conformando y sugiriendo su propia posición, difícil de desentrañar a veces de
entre los análisis y que merecería una presencia más explícita de la que el
propio autor le da.
La obra consta de cinco estudios autocontenidos
que, en ocasiones, dan la impresión de haber sido concebidos independientemente
unos de otros. Sin embargo, y como el autor sugiere en la «Introducción», se
articulan naturalmente en dos bloques. En los tres primeros se analizan los
principales momentos de la polémica sobre la inducción tal como se ha
desarrollado en los filósofos de la ciencia «profesionales» (Reichenbach,
Popper, Carnap, Hintikka...). En los últimos se discuten los principales
enfoques en estadística matemática y los métodos de inferencia estadística a
ellos asociados (Bayes, Fisher, De Finetti, Neyman,...). La finalidad de este
segundo bloque no es un cambio de tema sino estudiar la relevancia de las
investigaciones en estadística matemática para el problema de la inducción. Éste
es quizás el aspecto metodológicamente más original de la obra, abordar el
problema de la inducción teniendo en cuenta los desarrollos en una disciplina
tradicionalmente no vinculada, de forma explícita, al mismo. No se trata pues
de dos partes separadas sino, por decirlo así, en dos actos, con sus
correspondientes escenas, de un mismo drama. El tema es el mismo, el trasfondo
sobre el que se discute, diferente. Ello supone un considerable esfuerzo por
parte del autor para trasladar al campo de la investigación estadística el
núcleo conceptual del problema de la inducción tal como se ha tratado
tradicionalmente en filosofía de la ciencia. Éste planteamiento global resulta,
sin embargo, a veces, difícil de percibir. El carácter autocontenido de cada
estudio y las pocas concesiones del autor a la hora de explicar el hilo
conductor, dificultan en ocasiones el seguimiento de la trama y un mayor
aprovechamiento de la obra en su conjunto.
En el primer estudio se presentan los
argumentos antiinductivistas de Popper (cuya sombra recorrerá toda la obra) y
su fuerza contra lógica probabilística de Reichenbach. Los argumentos son
básicamente dos: (1) toda justificación de una hipótesis inductiva (ley-teoría)
que pretenda atribuir a ésta una propiedad epistémica «objetiva», incluida la
probabilidad, presupone un «principio de inducción» que, o es empírico y
requiere a su vez justificación con lo que se cae en un regreso infinito, o es
a priori y por tanto inaceptable; y (2) ninguna magnitud que se pueda
atribuir a la ley-teoría en virtud de los test pasados por ella puede adecuarse
al cálculo de probabilidades. Respecto de (2), Rivadulla cuestiona su validez
general y, a la vez, muestra los serios problemas con que se enfrenta el «grado
de corroboración», la magnitud (no probabilista) que propone Popper para medir
el éxito de una hipótesis en la contrastación. En cuanto a la fuerza de (1)
contra Reichenbach, concluye que no es suficiente, pues el principio de
inducción de Reichenbach es un mero postulado que afirma que el límite de la
frecuencia relativa en la (eventual) prolongación de una serie es cercano al
valor de la frecuencia para el fragmento conocido de la serie. Este postulado
no es una afirmación empírica del tipo de las que se deben justificar
intuitivamente sino sólo, en palabra de Reichenbach, «la suposición más
favorables» (pp. 49-50). En este punto, sin embargo, no queda del todo claro si
un principio como este requiere justificación y de qué tipo, si no es
inductiva, o si no la requiere y es en cierto sentido a priori aunque un
a priori aceptable.
El siguiente en vérselas con Popper es Carnap
en el segundo estudio se somete el sistema de lógica inductiva de este a las
críticas de aquél. El concepto carnapiano clave para la justificación inductiva
es el de «probabilidad lógica» o «grado de confirmación», mediante el cual se
expresan relaciones «analíticas» entre hechos, no propiedades fácticas de los
mismos. Ello le libra en principio de (1), pero el problema reaparece al
incluir en la función confirmación un parámetro que expresa el grado de
uniformidad del mundo y cuya determinación queda abierta a elección (peligro de
«apriorismo»). Rivadulla defiende que la objeción no es fatal, pues la elección
del parámetro, y su eventual corrección, es una hipótesis empírica a la cual no
tiene sentido exigir justificación inductiva (pp. 78-79). De nuevo sería útil
para el lector una discusión más detenida, para aclarar por ejemplo, a qué
hipótesis empíricas cabe exigir justificación inductiva y a cuáles no, pues, si
el único motivo de no exigirla a la determinación del parámetro es el método
inductivo la presupone, entonces parece que se elimina el regreso infinito o el
«apriorismo» casi por definición.
El sistema inductivo de Carnap es válido sólo
para hipótesis singulares. En la segunda parte del cap. 2 el autor estudia la
modificación que hace Hintikka del mismo para dar cabida a las hipótesis
generales. La principal dificultad de este sistema es que, como ha objetado
Essler, parece violar la «condición de irrelevancia», que exige que para la
evaluación de una hipótesis sólo sea relevante qué casos la cumplen y cuáles
no, y no qué otras hipótesis satisfacen los casos que no la cumplen. Rivadulla
analiza la objeción y concluye (pp. 97-98) de sistema combinado de Hintikka no
vulnera tal condición (aunque no se aclara completamente, en el caso de las
hipótesis generales, si la exculpación depende del aumento potencialmente
ilimitado de las observaciones). Puesto que no parece enfrentarse a
dificultades graves, el autor confía en que la lógica inductiva de Hintikka
«proporcione una aceptable reconstrucción lógica de nuestra práctica inductiva»
(p. 99).
Después de haber criticado en el primer
capítulo el concepto de «grado de corroboración», ahora le toca el turno al
otro concepto-medida clave de la epistemología popperiana, el de
«verosimilitud». En el tercer estudio, que se aparta un poco del tema principal
de la obra, se muestra la imposibilidad, lógica y conceptual, de que el
concepto popperiano de verosimilitud de cuenta de las propias intuiciones
realistas de Popper sobre el progreso científico. En la segunda parte del mismo
estudio se presenta la teoría de la verosimilitud de Niinniluoto que, a juicio
del autor, supera las insuficiencias de la anterior y expresa adecuadamente lo
que de acertado tenían aquellas intuiciones. Un aspecto clave de esta nueva
teoría es la distinción entre «verosimilitud» y «verosimilitud estimada». La
primera es una medida absoluta no relativizada a la evidencia disponible. La
segunda si está relativizada a la evidencia y proporciona un criterio
epistémico para la «atribución» de grados de verosimilitud a las teorías. En
este punto se enlaza de nuevo con el tema principal, pues para la determinación
de la verosimilitud «estimada» es imprescindible recurrir a las probabilidades
inductivas.
El primer acto se cierra por tanto con la
victoria del espíritu de Carnap (adecuadamente encarnado) sobre el de Popper.
En el segundo acto la batalla se lleva, como anunciamos, al campo de la
estadística matemática. El objeto es estudiar la relevancia de los métodos de
inferencia estadística para el problema de la inducción, e.e., si la inferencia
estadística es, y en qué sentido, inductiva. En el capítulo 4, y tras recordar
los resultados de Bayes sobre probabilidad inversa se estudian exhaustivamente
los métodos de máxima likelehood y de probabilidad fiducial, ambos de
Fisher. La conclusión (pp. 142-145) es que, si bien el argumento fiducial es en
última instancia deductivo, el método de máxima likelehood parece
corresponder a un razonamiento inductivo que provee de una medida de nuestra
creencia racional en la conclusión. Éste procedimiento es además inmune, según
el autor, las críticas de Popper, y su único aspecto (no excesivamente)
controvertido sería que supone la asunción de un principio de uniformidad de la
naturaleza.
El último estudio analiza otra serie de
métodos de inferencia estadística: los test de significación de Fisher, los
test de hipótesis de Neyman- Pearson y la teoría de los intervalos de confianza
también de N-P. Tras el análisis, se concluye (pp. 193ss.) que los dos primeros
no son en realidad métodos de razonamiento inductivo, que permiten atribuir
valores epistémicos, sino de conducta inductiva, e.e., procedimientos que
permiten tomar decisiones (aunque no queda del todo claro si, o en qué sentido
éstos excluyen siempre aquellos, pues parecería en principio que algunos
procedimientos de decisión pueden construirse sobre, si los hay, valores
inductivos, p.e., elegir el mayor); ambos suponen, además, el establecimiento
a priori de los niveles de significación, valores de desviación de las
observaciones por encima de las cuales se considera que la evidencia contra la
hipótesis es suficiente para abandonarla. Tampoco el procedimiento de estimación
por intervalos de confianza puede, aunque por otros motivos (pp. 192-193 y
198), considerarse propiamente inductivo.
Las últimas páginas de la obra contiene las
propias reflexiones del autor sobre la imposibilidad de que desde la estadística
objetivista, cuya seña de identidad es la ausencia de probabilidades iniciales
a priori, se ofrezca una teoría sobre «cómo aprendemos
inductiva-probabilísticamente de la experiencia» (p. 202). Ello sólo es
posible, en el campo de la estadística, desde enfoques neo bayesianos (por
ejemplo, con ciertas reservas, De Finetti), que parten siempre de
probabilidades a priori. Éstas reflejarían las opiniones iniciales de
cierta persona acerca de una hipótesis, y el método de inferencia estadística
elucidaría cómo modificar tales opiniones a la luz de la experiencia..
¿Cómo se relacionan estos resultados con los
de la primera parte? Sorprendentemente bien, a juicio del autor. También aquí
triunfa espíritu de Carnap, pues no sólo «es un subjetivista en el sentido de
que acepta la interpretación de la probabilidad lógica o inductiva como grado
racional de creencias» sino que «su concepto de grado de confirmación
reconstruye lógicamente la idea neo bayesiana de que valores de probabilidad
final superiores a los de la probabilidad inicial reflejan un aumento en la
creencia en la verdad de la hipótesis» (p, 208). El comunicado final es
rotundo: «la conclusión final no puede ser otra, pues, contra Popper, que desde
un punto de vista lógico-subjetivista, la posibilidad de la probabilidad
inductiva es indiscutible» (ibid. 9).
Probabilidad e Inferencia Científica es una obra difícil,
no por el aparato técnico empleado, sino por su densidad temática y, sobre
todo, por su complejidad conceptual, pues el tema mismo lo es. Tiene la, en
nuestro país es rara, virtud de la concreción en el planteamiento de los
problemas y el rigor en el análisis de los mismos, acompañados por un
conocimiento interdisciplinar poco común. Cada uno de los temas, aquí apenas
esbozado, se desarrolla en la obra con una precisión y exhaustividad inusuales,
que hacen que el lector aprenda constantemente mientras sigue al autor en sus
análisis. La obra contiene, además, importantes contribuciones en cuestiones
específicas que, junto con el esfuerzo por estudiar la inferencia estadística a
la luz del problema de la inducción, hacen de ella un trabajo original y de
lectura obligada para todo aquel interesado en la inferencia científica. Quizás
hubiera sido deseable una mayor proporción entre el minucioso estudio de los
diferentes sistemas y la, en ocasiones, algo escasa explicitación de las
relaciones conceptuales entre los mismos (por ejemplo, entre los sistemas de
Carnap y Reichenbach). También hubiera sido beneficioso un mayor abundamiento
en las conclusiones de algunos estudios que facilitara al lector una
comprensión más profunda de las mismas. Ya hemos indicado, en la presentación
de los diferentes estudios, algunos casos, pero donde más útil hubiera sido es
en la valoración final.. Sería bueno saber, por ejemplo el sentido exacto en
que el concepto de grado de confirmación, que expresa la probabilidad inductiva
carnapiana, reconstruye lógicamente la probabilidad inductiva neo bayesiana y
si ésta, como aquélla, presupone la determinación a priori del grado de
uniformidad de la naturaleza. Otra cuestión sobre la que sería útil un
comentario más extenso es la interpretación, aceptada por Carnap, de la
probabilidad inductiva como grado racional de creencia. En el cap 2 apenas se
había dicho nada al respecto, y el lector tiene la impresión de que ello afecta
a parte de la polémica que tenía con Popper, y a una parte epistemológicamente
importante. Éste afirma que ninguna medida del éxito de una hipótesis en los
test (a) comporta como la probabilidad matemática y (b) expresa una propiedad
epistémica «objetiva» de la hipótesis, e.c., una propiedad que (como la verdad)
y de la hipótesis independientemente de la relación de creencia (confianza) que
podamos mantener con ella. Popper puede estar equivocado en (a) y haber
fracasado en su propia búsqueda de una medida no probabilista del éxito, pero
ello no elimina (b), que a juicio de Popper, es su mayor y definitiva
contribución al problema de la inducción («no podemos justificar las teorías,
aunque podemos justificar nuestra preferencia por determinadas teorías»). Sería
bueno saber si estaban en conflicto o no, o hasta qué punto, sobre esta
cuestión epistemológicamente clave, pues de ella depende el sentido preciso en
que podemos decir que aprendemos inductivamente de la experiencia. La intuición
inductivista básica, a la que difícilmente podemos resistirnos, es que, cuantos
más test pasa una teoría, «más justificada» está. La cuestión es qué hay que
entender por «más justificada», esto es, si «más justificada» significa sólo
«más justificados estamos en creer en ella» o significa algo más fuerte e
independiente de nuestra relación de creencia con las teorías (otra cosa es si
la medida matemática de la justificación es o no probabilista). Después de
todo, si se hubiera interpretado siempre de forma débil, quizá Popper, aunque
antiprobabilista, no hubiera sido tan vehementemente antiinductivista.
Comentario-impromptu a la nota de Díez
Calzada
Aunque Carnap y Popper, protagonistas
principales del conflicto bélico en torno a la y inducción que-tras estar
latente desde el siglo de Hume-explotó hace unas décadas en la filosofía de la
ciencia, estén ya fuera de la escena (el primero fallecido en 1970 y el segundo
recogiendo los merecidos honores a una larga y fructífera vida intelectual),
los ecos de la batalla no se han extinguido, según puede verse en el estudio de
Rivadulla del cual da Díez Calzada cumplida noticia.
La guerra disminuyó en virulencia cuando las
nuevas ideas que pusieron en juego Kuhn y otros filósofos de la ciencia en los
años sesenta amenazaron con hacerla irrelevante. Pero, una vez asimiladas estas
últimas contribuciones, hoy creemos que no se ventilaban entonces meros
pseudoproblemas.
Ahora, una vez que la perspectiva nos permite
contemplar el campo de batalla a través del humo, contemplamos sorprendidos que
hay muchos aspectos que los contendientes compartían, como, notablemente, la
creencia en que las leyes naturales son, básicamente generalizaciones. Con
todo, los viejos problemas reaparecen en formas apenas nuevas: ¿qué justifica
la creencia de que fue el aceite de colza adulterado y no hortalizas tratadas
con insecticidas el causante del síndrome tóxico? ¿Por qué se efectuaron los
estudios y pruebas que se hicieron, en qué medida justifican ellos la creencia
y por qué?.
No sabemos cuántas enseñanzas podremos
extraer aún de las antiguas contiendas y de los estudios actuales, que en
cierta medida los prolongan. Será entonces prudente no perderlos completamente
de vista.
Daniel Quesada
(1) Andrés Rivadulla,
Probabilidad de Inferencia Científica, Anthropos, Barcelona 1991 (223 pp.)
Comentarios