Ir al contenido principal

En Torno a la Lógica de la Inferencia.



Enrahonar. 19, 1992/91-97.


José A Díez Calzada.

Los preceptos para la interpretación de la naturaleza se dividen en dos clases: los primeros enseñan a deducir y hacer salir de la experiencia las leyes generales; los segundos a derivar de las leyes generales nuevas experiencias. La primera clase se divide en tres partes. (La primera consiste en) formar una historia natural y experimental suficiente y exacta (...) es preciso, después, formar tablas y encadenamientos de hechos (...) A pesar de tales auxilios, el espíritu, abandonado a sí mismo y a sus libres movimientos, es impotente e inhábil para descubrir las leyes generales, hay que regularlo y prestarles socorro. He aquí por qué, en tercer lugar, es preciso emplear una inducción legítima y verdadera, que es en sí misma la clave de la interpretación (F. Bacon, Novum Organum, (Lib, 2º, 10).

Desde que Bacon escribiera estas líneas, la inducción ha sido puerto obligado para todo estudioso de la naturaleza y de los límites del conocimiento científico. Andrés Rivadulla, profesor de Lógica y Filosofía de la Ciencia de la Universidad Complutense, investigador y conferenciante en universidades extranjeras y autor, entre otros trabajos más especializados, de un estudio sobre el estado actual de la investigación metacientífica (Filosofía Actual de la Ciencia, Tecnos, Madrid, 1986), afronta ahora el reto de realizar una nueva escala en dicho puerto. Probabilidad e Inferencia Científica (1) se propone pensar de nuevo, mediante el análisis crítico de las últimas investigaciones en el campo, el problema de la inducción, el problema, en palabras del autor, «de sí, y en qué sentido, se puede decir que aprendemos intuitivamente de la experiencia».

Se define comúnmente la inducción como el paso o inferencia de lo particular, de los hechos singulares, a lo universal, a las leyes generales. Tal paso plantea al menos dos cuestiones que conviene distinguir cuidadosamente. La primera se refiere al «establecimiento» de las leyes, al proceso mediante el cual éstas se descubren o infieren. La segunda tiene que ver con la «justificación» de las leyes, e.e., si la verdad de los hechos singulares apoya, y en qué sentido lo hace, la validez de la ley general. Contrariamente a la deducción, donde el establecimiento de la inferencia, en tanto que inferencia, es a la vez, una justificación de la misma, en la inducción las dos cuestiones son independientes. Bacon, y también Mill y, en parte, Whewell, creían tener respuesta para la primera. Hoy, sin embargo, sabemos que no hay ningún «método» para «realizar inducciones», que el descubrimiento de las leyes es un proceso creador («conjetural», diría Popper) que nada tiene que ver con una serie de instrucciones y que compete en todo caso a la psicología investigar. Por ello, el único problema relativo a la inducción de que se ocupa la actual filosofía de la ciencia es el de su justificación. Esta cuestión es «lógica». A las series de enunciados tales que se pretende que unos justifican otros les llamamos «argumentos». La inducción, simplificando mucho, tiene la forma de un argumento en el que las premisas expresan hechos singulares («el sol salió hoy, y ayer, y...») y la conclusión expresa, bien un hecho general («el sol sale todos los días»), bien un nuevo hecho singular que «no se deduce» de los anteriores («el sol saldrá mañana»). La cuestión es: ¿en qué sentido las premisas justifican la conclusión? (Para esta cuestión no importa «cómo se ha llegado» al hecho de justificar, ni si los hechos-premisas se conocen antes o después de llegar a él).

En la deducción (válida), el sentido en que las premisas justifican la conclusión es claro, la justifican en tanto que la verdad de aquellas garantiza la «verdad» de ésta; el argumento no es ampliativo. La inducción, al contrario, es ampliativa, y ello supone que aún siendo (intuitivamente) válida, la verdad de las premisas no garantiza la «verdad» de la conclusión. Sin embargo, parece indudable que en un sentido interesante hay inducciones válidas y, por tanto, que en la inducción (válida) la conclusión recibe cierto «apoyo» de las premisas, e.e., que éstas garantizan si no su verdad, alguna propiedad epistémicamente interesante de la conclusión; esta propiedad por otro lado, no debe ser de tipo «todo o nada» sino tener grados, pues el apoyo que confieren las premisas inductivas puede ser menor o mayor según el número de hechos particulares «apoyadores». Gran parte de los esfuerzos en filosofía de la ciencia en el siglo XX se han dirigido a encontrar un modo de hacer precisa esta intuición o a mostrar que la intuición es errónea; en el primer caso, además, casi siempre se iba a parar a la probabilidad o a algún sucedáneo suyo. Probabilidad de Inferencia Científica es básicamente un estudio detenido de los principales resultados a que han conducido tales esfuerzos. No es sin embargo una obra meramente expositiva, pues el autor, mediante el análisis crítico de las diversas alternativas, va conformando y sugiriendo su propia posición, difícil de desentrañar a veces de entre los análisis y que merecería una presencia más explícita de la que el propio autor le da.

La obra consta de cinco estudios autocontenidos que, en ocasiones, dan la impresión de haber sido concebidos independientemente unos de otros. Sin embargo, y como el autor sugiere en la «Introducción», se articulan naturalmente en dos bloques. En los tres primeros se analizan los principales momentos de la polémica sobre la inducción tal como se ha desarrollado en los filósofos de la ciencia «profesionales» (Reichenbach, Popper, Carnap, Hintikka...). En los últimos se discuten los principales enfoques en estadística matemática y los métodos de inferencia estadística a ellos asociados (Bayes, Fisher, De Finetti, Neyman,...). La finalidad de este segundo bloque no es un cambio de tema sino estudiar la relevancia de las investigaciones en estadística matemática para el problema de la inducción. Éste es quizás el aspecto metodológicamente más original de la obra, abordar el problema de la inducción teniendo en cuenta los desarrollos en una disciplina tradicionalmente no vinculada, de forma explícita, al mismo. No se trata pues de dos partes separadas sino, por decirlo así, en dos actos, con sus correspondientes escenas, de un mismo drama. El tema es el mismo, el trasfondo sobre el que se discute, diferente. Ello supone un considerable esfuerzo por parte del autor para trasladar al campo de la investigación estadística el núcleo conceptual del problema de la inducción tal como se ha tratado tradicionalmente en filosofía de la ciencia. Éste planteamiento global resulta, sin embargo, a veces, difícil de percibir. El carácter autocontenido de cada estudio y las pocas concesiones del autor a la hora de explicar el hilo conductor, dificultan en ocasiones el seguimiento de la trama y un mayor aprovechamiento de la obra en su conjunto.

En el primer estudio se presentan los argumentos antiinductivistas de Popper (cuya sombra recorrerá toda la obra) y su fuerza contra lógica probabilística de Reichenbach. Los argumentos son básicamente dos: (1) toda justificación de una hipótesis inductiva (ley-teoría) que pretenda atribuir a ésta una propiedad epistémica «objetiva», incluida la probabilidad, presupone un «principio de inducción» que, o es empírico y requiere a su vez justificación con lo que se cae en un regreso infinito, o es a priori y por tanto inaceptable; y (2) ninguna magnitud que se pueda atribuir a la ley-teoría en virtud de los test pasados por ella puede adecuarse al cálculo de probabilidades. Respecto de (2), Rivadulla cuestiona su validez general y, a la vez, muestra los serios problemas con que se enfrenta el «grado de corroboración», la magnitud (no probabilista) que propone Popper para medir el éxito de una hipótesis en la contrastación. En cuanto a la fuerza de (1) contra Reichenbach, concluye que no es suficiente, pues el principio de inducción de Reichenbach es un mero postulado que afirma que el límite de la frecuencia relativa en la (eventual) prolongación de una serie es cercano al valor de la frecuencia para el fragmento conocido de la serie. Este postulado no es una afirmación empírica del tipo de las que se deben justificar intuitivamente sino sólo, en palabra de Reichenbach, «la suposición más favorables» (pp. 49-50). En este punto, sin embargo, no queda del todo claro si un principio como este requiere justificación y de qué tipo, si no es inductiva, o si no la requiere y es en cierto sentido a priori aunque un a priori aceptable.

El siguiente en vérselas con Popper es Carnap en el segundo estudio se somete el sistema de lógica inductiva de este a las críticas de aquél. El concepto carnapiano clave para la justificación inductiva es el de «probabilidad lógica» o «grado de confirmación», mediante el cual se expresan relaciones «analíticas» entre hechos, no propiedades fácticas de los mismos. Ello le libra en principio de (1), pero el problema reaparece al incluir en la función confirmación un parámetro que expresa el grado de uniformidad del mundo y cuya determinación queda abierta a elección (peligro de «apriorismo»). Rivadulla defiende que la objeción no es fatal, pues la elección del parámetro, y su eventual corrección, es una hipótesis empírica a la cual no tiene sentido exigir justificación inductiva (pp. 78-79). De nuevo sería útil para el lector una discusión más detenida, para aclarar por ejemplo, a qué hipótesis empíricas cabe exigir justificación inductiva y a cuáles no, pues, si el único motivo de no exigirla a la determinación del parámetro es el método inductivo la presupone, entonces parece que se elimina el regreso infinito o el «apriorismo» casi por definición.

El sistema inductivo de Carnap es válido sólo para hipótesis singulares. En la segunda parte del cap. 2 el autor estudia la modificación que hace Hintikka del mismo para dar cabida a las hipótesis generales. La principal dificultad de este sistema es que, como ha objetado Essler, parece violar la «condición de irrelevancia», que exige que para la evaluación de una hipótesis sólo sea relevante qué casos la cumplen y cuáles no, y no qué otras hipótesis satisfacen los casos que no la cumplen. Rivadulla analiza la objeción y concluye (pp. 97-98) de sistema combinado de Hintikka no vulnera tal condición (aunque no se aclara completamente, en el caso de las hipótesis generales, si la exculpación depende del aumento potencialmente ilimitado de las observaciones). Puesto que no parece enfrentarse a dificultades graves, el autor confía en que la lógica inductiva de Hintikka «proporcione una aceptable reconstrucción lógica de nuestra práctica inductiva» (p. 99).

Después de haber criticado en el primer capítulo el concepto de «grado de corroboración», ahora le toca el turno al otro concepto-medida clave de la epistemología popperiana, el de «verosimilitud». En el tercer estudio, que se aparta un poco del tema principal de la obra, se muestra la imposibilidad, lógica y conceptual, de que el concepto popperiano de verosimilitud de cuenta de las propias intuiciones realistas de Popper sobre el progreso científico. En la segunda parte del mismo estudio se presenta la teoría de la verosimilitud de Niinniluoto que, a juicio del autor, supera las insuficiencias de la anterior y expresa adecuadamente lo que de acertado tenían aquellas intuiciones. Un aspecto clave de esta nueva teoría es la distinción entre «verosimilitud» y «verosimilitud estimada». La primera es una medida absoluta no relativizada a la evidencia disponible. La segunda si está relativizada a la evidencia y proporciona un criterio epistémico para la «atribución» de grados de verosimilitud a las teorías. En este punto se enlaza de nuevo con el tema principal, pues para la determinación de la verosimilitud «estimada» es imprescindible recurrir a las probabilidades inductivas.

El primer acto se cierra por tanto con la victoria del espíritu de Carnap (adecuadamente encarnado) sobre el de Popper. En el segundo acto la batalla se lleva, como anunciamos, al campo de la estadística matemática. El objeto es estudiar la relevancia de los métodos de inferencia estadística para el problema de la inducción, e.e., si la inferencia estadística es, y en qué sentido, inductiva. En el capítulo 4, y tras recordar los resultados de Bayes sobre probabilidad inversa se estudian exhaustivamente los métodos de máxima likelehood y de probabilidad fiducial, ambos de Fisher. La conclusión (pp. 142-145) es que, si bien el argumento fiducial es en última instancia deductivo, el método de máxima likelehood parece corresponder a un razonamiento inductivo que provee de una medida de nuestra creencia racional en la conclusión. Éste procedimiento es además inmune, según el autor, las críticas de Popper, y su único aspecto (no excesivamente) controvertido sería que supone la asunción de un principio de uniformidad de la naturaleza.

El último estudio analiza otra serie de métodos de inferencia estadística: los test de significación de Fisher, los test de hipótesis de Neyman- Pearson y la teoría de los intervalos de confianza también de N-P. Tras el análisis, se concluye (pp. 193ss.) que los dos primeros no son en realidad métodos de razonamiento inductivo, que permiten atribuir valores epistémicos, sino de conducta inductiva, e.e., procedimientos que permiten tomar decisiones (aunque no queda del todo claro si, o en qué sentido éstos excluyen siempre aquellos, pues parecería en principio que algunos procedimientos de decisión pueden construirse sobre, si los hay, valores inductivos, p.e., elegir el mayor); ambos suponen, además, el establecimiento a priori de los niveles de significación, valores de desviación de las observaciones por encima de las cuales se considera que la evidencia contra la hipótesis es suficiente para abandonarla. Tampoco el procedimiento de estimación por intervalos de confianza puede, aunque por otros motivos (pp. 192-193 y 198), considerarse propiamente inductivo.

Las últimas páginas de la obra contiene las propias reflexiones del autor sobre la imposibilidad de que desde la estadística objetivista, cuya seña de identidad es la ausencia de probabilidades iniciales a priori, se ofrezca una teoría sobre «cómo aprendemos inductiva-probabilísticamente de la experiencia» (p. 202). Ello sólo es posible, en el campo de la estadística, desde enfoques neo bayesianos (por ejemplo, con ciertas reservas, De Finetti), que parten siempre de probabilidades a priori. Éstas reflejarían las opiniones iniciales de cierta persona acerca de una hipótesis, y el método de inferencia estadística elucidaría cómo modificar tales opiniones a la luz de la experiencia..

¿Cómo se relacionan estos resultados con los de la primera parte? Sorprendentemente bien, a juicio del autor. También aquí triunfa espíritu de Carnap, pues no sólo «es un subjetivista en el sentido de que acepta la interpretación de la probabilidad lógica o inductiva como grado racional de creencias» sino que «su concepto de grado de confirmación reconstruye lógicamente la idea neo bayesiana de que valores de probabilidad final superiores a los de la probabilidad inicial reflejan un aumento en la creencia en la verdad de la hipótesis» (p, 208). El comunicado final es rotundo: «la conclusión final no puede ser otra, pues, contra Popper, que desde un punto de vista lógico-subjetivista, la posibilidad de la probabilidad inductiva es indiscutible» (ibid. 9).

Probabilidad e Inferencia Científica es una obra difícil, no por el aparato técnico empleado, sino por su densidad temática y, sobre todo, por su complejidad conceptual, pues el tema mismo lo es. Tiene la, en nuestro país es rara, virtud de la concreción en el planteamiento de los problemas y el rigor en el análisis de los mismos, acompañados por un conocimiento interdisciplinar poco común. Cada uno de los temas, aquí apenas esbozado, se desarrolla en la obra con una precisión y exhaustividad inusuales, que hacen que el lector aprenda constantemente mientras sigue al autor en sus análisis. La obra contiene, además, importantes contribuciones en cuestiones específicas que, junto con el esfuerzo por estudiar la inferencia estadística a la luz del problema de la inducción, hacen de ella un trabajo original y de lectura obligada para todo aquel interesado en la inferencia científica. Quizás hubiera sido deseable una mayor proporción entre el minucioso estudio de los diferentes sistemas y la, en ocasiones, algo escasa explicitación de las relaciones conceptuales entre los mismos (por ejemplo, entre los sistemas de Carnap y Reichenbach). También hubiera sido beneficioso un mayor abundamiento en las conclusiones de algunos estudios que facilitara al lector una comprensión más profunda de las mismas. Ya hemos indicado, en la presentación de los diferentes estudios, algunos casos, pero donde más útil hubiera sido es en la valoración final.. Sería bueno saber, por ejemplo el sentido exacto en que el concepto de grado de confirmación, que expresa la probabilidad inductiva carnapiana, reconstruye lógicamente la probabilidad inductiva neo bayesiana y si ésta, como aquélla, presupone la determinación a priori del grado de uniformidad de la naturaleza. Otra cuestión sobre la que sería útil un comentario más extenso es la interpretación, aceptada por Carnap, de la probabilidad inductiva como grado racional de creencia. En el cap 2 apenas se había dicho nada al respecto, y el lector tiene la impresión de que ello afecta a parte de la polémica que tenía con Popper, y a una parte epistemológicamente importante. Éste afirma que ninguna medida del éxito de una hipótesis en los test (a) comporta como la probabilidad matemática y (b) expresa una propiedad epistémica «objetiva» de la hipótesis, e.c., una propiedad que (como la verdad) y de la hipótesis independientemente de la relación de creencia (confianza) que podamos mantener con ella. Popper puede estar equivocado en (a) y haber fracasado en su propia búsqueda de una medida no probabilista del éxito, pero ello no elimina (b), que a juicio de Popper, es su mayor y definitiva contribución al problema de la inducción («no podemos justificar las teorías, aunque podemos justificar nuestra preferencia por determinadas teorías»). Sería bueno saber si estaban en conflicto o no, o hasta qué punto, sobre esta cuestión epistemológicamente clave, pues de ella depende el sentido preciso en que podemos decir que aprendemos inductivamente de la experiencia. La intuición inductivista básica, a la que difícilmente podemos resistirnos, es que, cuantos más test pasa una teoría, «más justificada» está. La cuestión es qué hay que entender por «más justificada», esto es, si «más justificada» significa sólo «más justificados estamos en creer en ella» o significa algo más fuerte e independiente de nuestra relación de creencia con las teorías (otra cosa es si la medida matemática de la justificación es o no probabilista). Después de todo, si se hubiera interpretado siempre de forma débil, quizá Popper, aunque antiprobabilista, no hubiera sido tan vehementemente antiinductivista.

Comentario-impromptu a la nota de Díez Calzada

Aunque Carnap y Popper, protagonistas principales del conflicto bélico en torno a la y inducción que-tras estar latente desde el siglo de Hume-explotó hace unas décadas en la filosofía de la ciencia, estén ya fuera de la escena (el primero fallecido en 1970 y el segundo recogiendo los merecidos honores a una larga y fructífera vida intelectual), los ecos de la batalla no se han extinguido, según puede verse en el estudio de Rivadulla del cual da Díez Calzada cumplida noticia.

La guerra disminuyó en virulencia cuando las nuevas ideas que pusieron en juego Kuhn y otros filósofos de la ciencia en los años sesenta amenazaron con hacerla irrelevante. Pero, una vez asimiladas estas últimas contribuciones, hoy creemos que no se ventilaban entonces meros pseudoproblemas.

Ahora, una vez que la perspectiva nos permite contemplar el campo de batalla a través del humo, contemplamos sorprendidos que hay muchos aspectos que los contendientes compartían, como, notablemente, la creencia en que las leyes naturales son, básicamente generalizaciones. Con todo, los viejos problemas reaparecen en formas apenas nuevas: ¿qué justifica la creencia de que fue el aceite de colza adulterado y no hortalizas tratadas con insecticidas el causante del síndrome tóxico? ¿Por qué se efectuaron los estudios y pruebas que se hicieron, en qué medida justifican ellos la creencia y por qué?.

No sabemos cuántas enseñanzas podremos extraer aún de las antiguas contiendas y de los estudios actuales, que en cierta medida los prolongan. Será entonces prudente no perderlos completamente de vista.

Daniel Quesada


(1) Andrés Rivadulla, Probabilidad de Inferencia Científica, Anthropos, Barcelona 1991 (223 pp.)

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería