ESTADÍSTICA ESPAÑOLA.
Número. 94, 1982,
páginas. 53 a 66.
por:
SEGUNDO GUTIÉRREZ CABRIA
Catedrático
de estadística matemática.
Departamento
de estadística e investigación operativa.
Universidad
de Valencia.
RESUMEN.
Se estudian las interrelaciones existentes
entre inferencia estadística e inducción. Se examinan, en particular, las
posibilidades que ofrece la estadística en relación con el problema de la
inducción según la versión de Hume; se estudian los intentos llevados a cabo
por Bernoulli y Laplace. Se concluye que las inferencias de la estadística son
«secundarias» y, en consecuencia, no constituyen una respuesta al problema de
la inducción.
Palabras clave: deducción,
reducción, inducción. Lógica inductiva, lógica probabilística. Inferencia
inductiva, inferencia estadística.
0. INTRODUCCIÓN.
El problema fundamental que tiene planteado
el conocimiento científico puede formularse así: dado que las proposiciones de
las ciencias experimentales no pueden deducirse de la lógica formal, por ser
verdades de hecho y no verdades necesarias, ¿de dónde obtienen su
justificación?. Las filosofías tradicionales de la inducción manifiestan
claramente sus insuficiencias para contestar adecuadamente a esta cuestión.
Quizá se les ha exigido demasiado. Se ha pedido la certeza de las conclusiones
inductivas en tanto que se sabía que toda inducción, de por sí, es precaria. La
situación sería posiblemente distinta si nos limitáramos a afirmar la
«probabilidad de las conclusiones inductivas». ¿No podría, con este nuevo
planteamiento, construirse una teoría lógica de la inducción?.
Esta idea iba a recibir un desarrollo
sistemático cuando los filósofos de la escuela neopositivista se apropiaron de
ella. Se han hecho diversos intentos de construir lógicas inductivas
probabilistas y se ha pensado en que la inferencia estadística podría servir al
menos de modelo para tales construcciones e, incluso, constituir ella misma una
teoría general de la inducción.
En este trabajo se estudian las posibilidades
que, desde nuestro punto de vista, ofrece la inferencia estadística en conexión
con el histórico problema de la inducción.
En el primer párrafo se da la noción de
inducción y sus diversas acepciones e interpretaciones en relación con los
métodos reductivos y deductivos.
En el párrafo segundo se formula el llamado
«problema de la inducción» y se exponen las distintas actitudes adoptadas frente
a él por la ciencia y la filosofía y, principalmente, ante el desafío de Hume.
En el párrafo tercero se analizan las
interrelaciones entre inferencia estadística e inducción. Se contempla,
primero, la presencia de la inducción en los distintos argumentos de naturaleza
estadística y se estudian, luego, las posibilidades de la inferencia
estadística frente al problema de la inducción y las razones que hacen inviable
su solución.
1. DEDUCCIÓN,
REDUCCIÓN E INDUCCIÓN.
1. Nos abstenemos aquí de indagar acerca del
conocimiento humano y partiremos de un estado de saber en el que ciertas
proposiciones han sido previamente establecidas. Ésas proposiciones constituyen
los juicios perceptivos que el sentido común tiene por ciertos, aunque la razón
filosófica pueda ponerlos en duda. Lo que se pretende (y este es el objetivo de
la lógica) es pasar de la aserción de ciertas proposiciones, llamadas premisas,
a otras, llamadas conclusiones, que se deducen de ellas. A esta operación se la
llama demostración y al sistema, argumento.
2. Hay dos formas esencialmente distintas de
argumentar: por inducción y por reducción.
En la deducción se concluye su premisa
menor de un enunciado condicional y de su premisa mayor: sí A, entonces, B; es
así que A, luego B.
La reducción puede ser progresiva y
regresiva. En ambas se conoce la premisa menor, pero no la mayor. En la
reducción progresiva se comienza por la premisa mayor desconocida según su
valor de verdad y se procede hacia la premisa menor conocida o comprobable. La
reducción progresiva se llama también «verificación».
La reducción regresiva comienza en la
premisa menor conocida y va hacia la mayor desconocida. La reducción regresiva
se llama también «explicación».
En el llamado «método hipotético -deductivo»
se dan las dos direcciones del procedimiento reductivo: es «hipotético» por
cuanto en él se establecen hipótesis explicatorias (reducción regresiva) y es
«deductivo» (esta palabra tiene aquí un sentido propio) porque de las hipótesis
se «deducen» las premisas menores verificables (reducción progresiva).
3. Cuando la premisa mayor es una
generalización de la premisa menor, la reducción se llama inducción.
Tal es el concepto tradicional de la
inducción desde Aristóteles, quien empleó el vocablo «epagogue», que significa
«llevar a», para designar el proceso de llevar, por la contemplación de casos
particulares, al conocimiento de una verdad general.
En la actualidad no todos están de acuerdo
con esta definición restrictiva de la inducción. Stuart Mill (Mill, S., 1843)
observó ya que no es necesario que una inferencia inductiva lleve a una
generalización sino que podemos extender la conclusión a un número limitado de
miembros desconocidos de una clase al siguiente miembro que aparezca en la
serie, por ejemplo. A este procedimiento de pasar de particulares a
particulares lo denominó Johnson educción (Johnson, W. E., 1921) y
Carnap (Carnap, R., 1952) señaló su importancia.
Max Black (Black, M., 1979) define la
inducción como «argumento no demostrativo, en el que la verdad de las premisas,
aunque no entraña la verdad de la conclusión, constituye una buena razón para
aceptarla». A tales argumentaciones, para las que la conclusión puede
presuponer la existencia de individuos no presupuestados por las premisas, son
llamadas por Peirce «ampliativas» (Peirce, C. S., 1902). Este ir «más allá de
las premisas», que son los hechos singulares de la experiencia (de ahí su
carácter ampliativo), posibilita la inferencia de hechos observados ha hechos
inobservados y, en particular, a la predicción del futuro. La esfera de
ampliación más importante de esta inducción es la ciencia natural.
En los «Analíticos Posteriores», de
Aristóteles, se lee: «El conocimiento de las premisas inmediatas es independiente
de la demostración». Y esto, añade, «porque el regreso debe acabar en verdades
inmediatas que debe ser indemostrables». Esto nos lleva a formular la siguiente
pregunta: reducir la inducción a la operación que permite el paso de la
percepción a las leyes experimentales y de éstas a los principios de las
teorías científicas, ¿no es olvidar que el juicio más simple de percepción es
el producto de una inducción? Por supuesto que toda subsunción de un dato
sensible lo es. Admitimos, pues, que no hay pensamiento acerca del objeto
sensible que no constituya una inducción. A este tipo de inducción se le
denomina intuitiva o "abstractiva".
4. A estas instrucciones no demostrativas
podemos añadir otras mal llamadas inducciones, o inducciones «impropias».
Tenemos, en primer lugar, la inducción
«recursiva» o matemática, formulada explícitamente por Fermat del siglo
XVII y empleada, de modo sistemático, por Jacobo Bernoulli, por lo que se la
conoce también con el nombre de «inducción bernoulliana». Se puede expresar
así: si el primer elemento de una sucesión posee una propiedad y la posee
también el sucesor de todo elemento de la serie que tenga esa propiedad, todos
los elementos de la sucesión poseen la propiedad en cuestión.. Aunque por este
procedimiento se establecen proposiciones generales, a partir de casos
particulares, se trata más bien de una deducción que de una reducción.
Aristóteles ofrece en los «Analíticos
Primeros» el siguiente ejemplo de argumento inductivo: «El hombre, el caballo y
el mulo son longevos; pero el hombre, el caballo y el mulo son todos los
animales sin hiel; luego todos los animales sin hiel son longevos». A este tipo
de inducción, en la que se enumeran todos los casos que caen bajo una
generalización, se la llama «sumativas» o «completa», por oposición a la
«matemática» en la que no se realiza una enumeración completa. También este
argumento es una especie de deducción.
5. Es importante, a los fines de este
trabajo, la distinción hecha por Nicod entre inducciones «primarias» y «secundarias».
Las inducciones primarias son argumentaciones no demostrativas «cuyas
premisas no obtienen su certeza o probabilidad a partir de ninguna inducción»
(Nicod, J., 1961). Las secundarias son las que no cumplen ese requisito
2. EL PROBLEMA DE LA
INDUCCIÓN.
1. El problema de la inducción, suscitado ya
por Aristóteles, está en que los distintos argumentos inductivos no son
conclusivos, esto es, no demostrativos. David Hume tiene el mérito incomparable
de haber planteado el problema de la inducción en los términos más netos, si
bien restringido a los casos de inferencia causal, ya que la única cuestión que
plantea es la de saber con qué derecho concluimos que tal efecto seguirá
necesariamente a tal causa. Pero los resultados que obtiene son aplicables a
todos los tipos de inferencia inductiva (puede consultarse: Hume, D., 1888 y
1894).
El problema de la inducción comporta estas
dos cuestiones fundamentales: análisis formal del pensamiento inductivo y
justificación de la inducción.
El análisis formal se aplicará a la
«reconstrucción racional» de los métodos inductivos cuya validez está
reconocida por todas las mentes sanas y a la codificación de los principios en
los que se apoyan. Por «reconstrucción racional» habrá que entenderse, no una
simple descripción de esos métodos, sino la determinación de un «sustituto»
lógico, en expresión de Reichenbach (Reichenbach, H. 1938); no su
«representación con todas sus ambigüedades, sino una sistematización que
comprenda la explicación de los conceptos y principios que utilizan y que no
excluye la posibilidad de una crítica, en frase de Carnap (Carnap, R., 1962).
El problema crítico de la justificación
consistirá en la legitimación del sistema formal constructivo. ¿Por qué es
razonable aceptar las conclusiones de ciertos argumentos inductivos como
verdaderas o probablemente verdaderas? ¿Por qué es razonable, si lo es, emplear
ciertas reglas de inferencia inductiva?.
2. La contestación dada a lo largo de la
historia al problema de la inducción ha hecho correr mucha tinta y ha seguido
distintas vertientes que pueden resumirse así:
a). Al reto lanzado por Hume no se puede
responder adecuadamente; en consecuencia, la inducción es insostenible y debe
excluirse de todo razonamiento que pretenda ser racional. Tal es la postura de
Whewel y Popper, entre otros.
b). A la luz de la crítica de Hume se observa
que los argumentos inductivos, tal como se presentan de ordinario, necesitan de
perfeccionamiento. Esto puede hacerse de dos modos: (i) con la adición de
nuevas premisas; (ii) mediante la sustitución de las conclusiones por
aserciones de probabilidad.
(i). Las premisas que se han añadido, en un
intento de resolver el problema de la inducción mediante la construcción de una
lógica inductiva, de corte análogo a la deductiva, son ciertos principios de
inducción «suprema» como lo siguiente: «el futuro ha de asemejarse al pasado»
(Hume); «el efecto de cualquier acontecimiento ha de tener una causa
suficiente» (Mill).; «la variabilidad de los hechos es limitada e
independiente» (Keynes); «existe homogeneidad en el curso de la naturaleza»
(Mill). Estos principios permitirán dar base a las inducciones. Los esfuerzos
llevados a cabo, en esta dirección, por Bacon y Mill han sido infructuosos.
(ii). La incorporación del concepto de
probabilidad a la resolución del problema de la inducción ha dado lugar a las
diversas lógicas inductivas probabilísticas, esto como consecuencia de la
importancia de las clásicas. Éstas son de dos clases: las que pretenden asignar
probabilidades a toda clase de hipótesis y justificar, tal como intenta Hans
Reichenbach, los principios en los que se basa esta asignación, y las que se
esfuerzan por construir parcelas limitadas de la lógica inductiva y definir la
probabilidad de una hipótesis en condiciones muy restringidas. Éstas
restricciones son debidas a la debilidad del sistema construido por Reichenbach
y consisten en la debilitación del concepto matemático de probabilidad (para
gozar de más libertad en la construcción) y limitación de fórmulas a
probabilizar. Las lógicas que más éxito tienen en la actualidad son las
comparativas, como las de Keynes y Koopman, que permiten discernir cuál de las
hipótesis inductivas es más probable. Las pretensiones modestas de estas
lógicas se limitan a determinar la medida de la confirmación que los
datos experimentales aportan a una hipótesis. Tal en la posición de los que se
sitúan en la óptica de Rudolf Carnap.
c). Aunque la argumentación inductiva no pueda
justificarse, ajustada al modelo deductivo, esto no obsta para que las normas
deducidas sean razonables. La racionalidad no tiene por qué estar ligada a la
deducción ni a la justificación. Puede, pues, hablarse de justificación en el
sentido de que se sabe que la afirmación de una conclusión se «sigue» (no en el
sentido deductivo de seguirse) estrictamente de premisas que se saben
verdaderas.
d). El problema de Hume es debido a confusiones
conceptuales y lingüísticas estas confusiones y sus orígenes deben ser
claramente expuestas, lo que debe conducir a la disolución del problema (a la
no existencia) y no a su solución. Es el planteamiento lingüístico del
problema, hoy tan en boga.
Se pretende aquí analizar el problema de la
inducción a la luz de la estadística. Este análisis lleva implícita la «incorporación
del concepto matemático de probabilidad». ¿Tiene sentido presentar la
inferencia estadística como una teoría del razonamiento inductivo? ¿Son
competencia de esta disciplina los problemas que se presentan en un contexto
científico determinado o se extiende, por el contrario, su área al problema
general de la inducción? Son estas cuestiones de suficiente entidad como para
que se las preste la debida atención. Es lo que hacemos a continuación.
3. INFERENCIA
ESTADÍSTICA DE INDUCCIÓN.
1. El «The logic of inductive inference»
(Fisher, R. A, 1935), Fisher se refiere al conjunto del razonamiento inductivo
como si todo él dependiera de la inferencia estadística. En «The design of
experiment», después de discutir ciertas ideas de Bayes, cuyo mérito reconoce,
atribuye a este autor el privilegio de ser «el primero en prever la importancia
del desarrollo de una teoría exacta y cuantitativa del razonamiento inductivo,
de la argumentación que conduce de los hechos observados a las teorías capaces
de explicarlos» (Fisher, R. A., 1935).
El desarrollo de la inferencia estadística se
ha producido no sin resonancia en el campo de la filosofía de la inducción. Las
cuestiones que trata, el modo de tratarlas, los principios en que se apoya,
nada es ajeno a la problemática tradicional de la inducción. Tanto en la
conducción de experiencias como en la utilización de los datos obtenidos, la
teoría de la inferencia estadística parece haberse responsabilizado, en parte
por lo menos, con problemas que dependen de lógica inductiva clásica. ¿No se
presenta acaso como un ejemplo de lógica probabilística de la inducción,
construida por hombres de ciencia, al margen de los filósofos?.
Antes de entrar en el fondo de esta pregunta,
vamos a intentar un análisis de la presencia de la inducción en la metodología
estadística.
2. Un examen detallado de las distintas
argumentaciones utilizadas por las diversas escuelas estadísticas, lleva a la
conclusión de que todas son de naturaleza «reductiva». En consecuencia, caen
dentro del ámbito de alguna de las definiciones de inducción que hemos dado.
Las más usadas son las siguientes:
a). La inducción proporcional, que es
una «reducción regresiva» que parte de la frecuencia de algún carácter en la
muestra y concluye con la frecuencia del mismo carácter en la población. De la
afirmación «m1 de los n1 elementos
seleccionados en A son B» se concluye que « m de los n elementos
seleccionados en A son B». Las estimaciones puntuales y por intervalo son
inferencias de este tipo. La proporción establecida en la conclusión puede ser
distinta de la establecida en la premisa.
b). La educción proporcional, que es la
argumentación regresiva que parte de una muestra y «regresa» a otra muestra. La
premisa es la misma de la inducción proporcional, pero la conclusión concierne
a la frecuencia aproximada de una muestra ulterior, obtenida por el mismo
procedimiento. Numerosos procesos de análisis estadístico basados en la
comparación de muestras, como el control estadístico de la calidad, diseño de
experimentos, etcétera., se basan en la educción.
c). La inducción progresiva, concebida
como proceso reductivo que conduce del examen de una muestra aleatoria a la
prueba de una hipótesis. Toda la teoría de decisión estadística bayesiana y de
Wald, así como la teoría de contraste de hipótesis estadísticas de Neyman-Pearson,
se inspiran en este proceso inductivo.
d). La deducción proporcional, llamada
también «silogismo estadístico» o «deducción estadística» y que puede
formularse así: «m de los n elementos de C son B para m/n >
1/2; A es un elemento C, luego A es un B». Por ejemplo: la mayor parte de los
españoles saben leer; Juan es español, luego Juan sabe leer. La validez de la
conclusión está en función, naturalmente, de la razón m/n.
e). La abducción, ha sido nominada por
Peirce, formulación creativa de hipótesis y único modo de inferencia
estadística que introduce nuevas ideas. Es una especie de inversión de la
deducción estadística y no tiene apenas valor demostrativo. Sirve para obtener
nuevas generalizaciones que precisan de verificación y que tiene alguna
probabilidad de ser verdaderas.
Todas estas argumentaciones llevan en la
conclusión algún grado de plausibilidad, fiabilidad o probabilidad.
4. LA INFERENCIA
ESTADÍSTICA Y EL PROBLEMA DE LA INDUCCIÓN.
1. Estudiada la inducción en su sentido más
amplio, como todo procedimiento que conduce de lo particular a lo más general o
a «otro particular», como modo de pasar de un conocimiento a otro del que no se
tenga certeza absoluta, parece claro que la inferencia estadística constituye
una teoría de la inducción, lo cual no equivale a afirmar que constituye una
lógica inductiva y, en consecuencia, que sea una solución del problema de la
inducción. La razón está en que, cualquiera que sea la forma que adopte,
siempre se referirá a inducciones secundarias y nunca a la inducción primaria.
La creencia de que en la estadística pudiera
estar la clave para la solución del problema de la inducción proviene, sin
duda, de la fe depositada, por los hombres de ciencia, en la verdad de las
hipótesis contrastadas estadísticamente y de los éxitos cosechados durante
estos últimos años, por la estadística, en el campo de la investigación
científica. Pero no basta con el testimonio de la fe; es preciso un análisis de
las razones en las que esa fe se asienta.
i) Toda inferencia estadística parte de algún
supuesto que presupone, a su vez, un proceso inductivo. Si se trata de un
problema de estimación, hay que presuponer la familia de distribuciones que lo
soporta. Si se contrasta una hipótesis, se admite de antemano que la familia
considerada es completa. Si se plantea un problema de decisión estadística, se
fijan «a priori» los posibles estados de la naturaleza, la función de pérdida y
hasta el conjunto de decisiones terminales. Si el proceso es secuencial, se
predetermina la regla de parada. Todos estos presupuestos denuncian la
presencia de inducción primaria, previamente asumidas, y, en consecuencia,
ponen de manifiesto que todo lo que se hace en el terreno de la inferencia
estadística se reduce a inferencias secundarias. El problema de la inducción
cae así en un círculo vicioso.
ii) La inferencia estadística supone la
existencia de una clase completa de hipótesis mutuamente excluyentes que pueden
ser eliminadas paulatinamente, a partir de un número finito de experiencias,
hasta quedarse con la más plausible. Admirablemente adaptada a problemas
concretos, incluso a ciertos procedimientos que juegan papel preponderante en
la investigación experimental, la inferencia estadística parte de una situación
en la que está cerrado el campo de lo posible (por trabajar con un número
limitado de hipótesis) y sus resultados son valiosos sólo a ese precio. Todo
esto está en pugna con los postulados de la lógica que no admite limitación en
sus posibilidades.
iii) Existen serias dificultades en la
transposición de los conceptos y métodos de la inferencia estadística a una
teoría general de la inducción. Tal ocurre con el principio de inferencia de
Laplace, con los esquemas bayesianos, con la verosimilitud como medida de grado
de creencia en una hipótesis, con la función de pérdida cuando se trata de
decidir acerca de la admisión de un hipótesis estadística, etcétera.
Todos los intentos históricos de resolver el
problema de la inducción, por vía estadística, han chocado con uno u otro de
esos escollos. Como ejemplo representativo hemos elegido el problema de la
inversión del teorema de Bernoulli y la regla de sucesión de Laplace.
4. 1. El Teorema de
Bernoulli.
1. Durante 21 años estuvo Bernoulli, según su
propia confesión, preocupado por obtener medidas de frecuencias a partir de
probabilidades y recíprocamente. El resultado fue el teorema que lleva su
nombre, que de modo muy simple puede enunciarse así: «Si la probabilidad de un
suceso, bajo ciertas condiciones, es p, y si estas condiciones se
presentan en n ocasiones, el número más probable, x, de ocurrencias del
suceso es np». Es éste un ejemplo de «reducción regresiva» que conduce
de la probabilidad p a la frecuencia x/n. La demostración de este
enunciado puede verse en el «Ars conjectandi» de Bernoulli (Bernoulli, J.,
1713). Hoy se obtiene fácilmente a partir de la desigualdad de Chebyschev.
Las condiciones a las que alude el teorema
pueden compendiarse en ésta: la probabilidad del suceso en la (n + 1) ocasión
no debe ser afectada por el conocimiento de la frecuencia de ocurrencias en las
n precedentes y debe ser igual a la probabilidad «a priori» de la
primera.
El enunciado de Bernoulli produjo tanto
impacto que Ellis (Ellis , R. L., 1843) y Venn (Venn, J., 1866), lo utilizaron
como base de la definición axioma de probabilidad y Laplace creyó que expresaba
una ley natural de la naturaleza. Con todo, las condiciones que exigen lo hacen
aplicable sólo a ciertas clases específicas de sucesos. Si la probabilidad
inicial está basada en la experiencia, está claro que está ligada a la
información de una nueva experiencia, lo que contradice las condiciones
impuestas. Esta última indicación pone de manifiesto que estamos trabajando con
inducciones secundarias. Además, del conocido experimento de Buffon, dirigido a
la comprobación del teorema de Bernoulli, otros análogos, empleando monedas,
bolas o dados, así como loterías y ruletas de Montecarlo, fueron diseñados, con
el mismo fin, por De Morgan, Quetelet, Jevons, Weldon, Wolf, Czuber y Karl
Pearson.
2. En carta dirigida por Jacobo Bernoulli a
Leibniz (Leibniz, G., 1855), fechada en 1703, le dice: «Podemos determinar, por
consideraciones "a priori", en qué cuantía es más probable obtener la
suma siete, al lanzar dos dados, que la suma ocho; pero no podemos determinar,
por tales procedimientos, la probabilidad de que un hombre de 20 años sobreviva
a otro de 60. ¿No será posible aún obtener este conocimiento, "a
posteriori", de haber observado un gran número de parejas de hombres
análogas a la anterior?».
En la réplica del Leibniz se encuentra la
raíz de la dificultad de la respuesta. «El cálculo de probabilidades -escribe- es
del más alto valor, pero en investigaciones estadísticas es necesario, no tanto
la sutileza matemática cuanto el enunciado preciso de todas las circunstancias.
Las posibles contingencias son demasiado numerosas para ser cubiertas por un
número finito de experiencias y el cálculo exacto está, en consecuencia, fuera
de la cuestión. Aunque la naturaleza tiene sus hábitos, debido a la
concurrencia de causas, no son generales, inmutables. Con todo, cálculos
empíricos, aunque inexactos, pueden ser adecuados en asuntos prácticos».
Bernoulli volvió, en su respuesta, a insistir
en la analogía con las bolas extraídas de urna y mantuvo que «sin estimar cada
contingencia por separado, podemos determinar, dentro de estrechos límites, la
proporción que ofrece cada alternativa». Y añadía su carta: «Esto es cierto, se
acabó la controversia; te agradará la demostración que publicaré.».
Lo cierto es que la demostración no llegó.
Después de tratar de algunas de las objeciones apuntadas por Leibniz, y
prometer algún procedimiento para estimar probabilidades «a posteriori», mediante
la inversión de su teorema, da la demostración directa y termina sin más el
«Ars Conjectandi ».
Durante el siglo XVIII no hay ningún indicio
de explicar el uso de la inversión del teorema de Bernoulli.. Las
investigaciones de D'Alembert, Daniel Bernoulli y otros, se orientan al estudio
de las condiciones de aplicabilidad del teorema directo. Laplace supone, sin
prueba, una inversión del teorema.
El análisis bayesiano actual da la siguiente
respuesta al problema de la inversión: si la probabilidad «a priori» de un
suceso es p, su aparición x veces en n pruebas es
Que p, considerada como variable,
adquiera un valor determinado, constituye una hipótesis cuya «verosimilitud» es .
Lo valores de p constituyen una clase completa de
hipótesis. Se torna así el clásico problema de la «Probabilidad de las causas».
Considerada p una variable aleatoria de densidad f(p), el teorema de
Bayes de la probabilidad «a posteriori» de que p esté entre los números p'
y p'' después de haber observado x veces el suceso en n pruebas:
Como f(p) está acotada, es f(p)
= 0, para p fijo. Además,
por ser 0≤ p ≤ 1, luego la convergencia de las integrales
de la expresión anterior queda asegurada lo cual permite calcular la
probabilidad a partir de la frecuencia. Queda, naturalmente, abierto el
problema de la determinación de f(p) al que intenta responder el
análisis bayesiano.
A efectos de nuestra tesis, el punto esencial
que hay que señalar es que las probabilidades «a posteriori» presuponen el
conocimiento no sólo de las verosimilitudes, sino también de las probabilidades
«a posteriori». Ambos conocimientos implican inducciones primarias, por lo que
la inducción obtenida, al ser secundaria, no sirve a la solución del problema
humeano.
En el caso en que la distribución «a priori»
sea uniforme en [0, 1] es f(p) = 1 y la densidad «a posteriori» de p, después
de n observaciones tiene un máximo de x/n. Es el caso aplicado por Laplace a la
solución del problema de Hume.
4. 2. La regla de
sucesión de Laplace.
Laplace toma como ejemplo, en su disertación,
el mismo utilizado por Hume expresado por la ley: «El sol saldrá todas las
mañanas». La argumentación empleada en el tipo "si B también A; si el sol
ha salido todas las mañanas hasta ahora, seguirá saliendo en lo
sucesivo"».
Según Laplace, se puede considerar la
posición del atributo A por un objeto que es un B, como un suceso aleatorio. Se
asimila así la ley a una serie de extracciones de bolas de una urna cuya
composición será constante. En su «Essai philosophique sur les probabilités»
(Laplace, P. 1814), capítulo III,, séptimo principio, enuncia: «la probabilidad
de un suceso futuro es la suma de los productos de las probabilidades de cada
causa extraída de suceso observado, por la probabilidad de que, existiendo esta
causa, ocurra el suceso futuro». Pone a continuación un ejemplo que
generalizado conduce a esta regla: si el suceso ha ocurrido siempre en n
ocasiones, la probabilidad de que se verifique siempre en una nueva serie de m
pruebas es (n +1) /(n +m +1). En caso m = 1, en que la probabilidad toma el
valor (n +1)/(n +2), fue bautizado por Venn (Venn, J. 1889) con el nombre de
«regla de sucesión de Laplace».
La prueba de esta sucesión puede hacerse
brevemente así: Sea p la probabilidad «a priori» de un suceso en condiciones
dadas. La probabilidad de que el suceso ocurra m veces en esas condiciones y
falle en otras n ocasiones es
Luego la probabilidad «a posteriori» de p, tras m
ocurrencias del suceso en m +n pruebas de que p está entre p y p + dp, es
.
Por lo tanto, la probabilidad de que el
suceso ocurra en la (m +n +1)-ésima prueba, habiendo ocurrido m veces en m + n
pruebas que es:
.
Para n = 0, esto es, cuando el suceso ha
ocurrido invariablemente, la fórmula es (m + 1)/(m + 2). En el caso en que las
condiciones del suceso no se han dado nunca, la probabilidad del suceso es 1/2
y en el caso en que las condiciones se dieran una sola vez y el suceso no
ocurriera, la probabilidad sería 1/3 (resultados totalmente absurdos).
Aparte de estas absurdidades, la fórmula de
Laplace involucra la teoría de «probabilidades desconocidas» introducidas por
él como suplemento del principio de indiferencia, con toda la problemática que
encierra. Las objeciones hechas a esta fórmula son muchas. Con respecto a la
demostración anterior hay una que aparece enseguida: si p es la probabilidad «a
priori» del suceso acaecido una vez, pn
es la probabilidad «a priori» de haber acaecido n-veces sucesivamente. Ahora
bien, del propio teorema se deduce que si ocurre una vez modifica la ocurrencia
de la de siguiente, luego las sucesivas ocurrencias no son independientes. Así,
si la probabilidad «a priori» es 1/2, la probabilidad de la segunda ocurrencia
es 2/3, luego la probabilidad «a priori» de ocurrencia dos veces es no 1/2.1/2,
sino 1/2.2/3 = 1/3; y, en general, la probabilidad «a priori» de su ocurrencia
n-veces no es (1/2)n, sino 1/(n + 1).
Las primeras críticas a esta regla
provinieron del propio Veen en la obra citada, por no estar de acuerdo, según
él, con la experiencia. Pearson, que la acepta, resuelve estas discrepancias.
Es rechazada también por Boole (Boole, G., 1854), que dice se basa en hipótesis
arbitrarias; por Bertrand (Bertrand, J., 1889), que niega su aplicabilidad al
caso de un número finito de alternativas y que la califica de ridícula,
etcétera. En cambio, merece la aprobación, entre otros, aparte de Pearson, de
De Morgan, Jevons, Lotzey y Czuber.
Con respecto a la materia que nos ocupa, la
crítica ha de centrarse en si es o no coherente reducir el problema a la
cuestión de determinar una probabilidad desconocida, aunque constante. Supuesto
aceptable la introducción de probabilidades «a priori» se mantiene la hipótesis
de que B da a la posesión de A una probabilidad determinada. Esto es, el
razonamiento de Laplace supone que entre B y A existe una implicación probable:
si x es una B hay una probabilidad de que x sea un A ahora bien, para que este
razonamiento lleve a alguna conclusión con cierta validez es preciso que B
determine A (al menos en términos probables) y que sea B el único factor
determinante de A. Está claro que estas suposiciones implican una inducción
previa, con lo que se vuelve a caer en un círculo vicioso.
Consideración
final. Tanto en la regla de
sucesión de Laplace como en el teorema de Bernoulli, como en cualquier
investigación con base estadística, el uso de muestras aleatorias es
imprescindible. Las diversas técnicas de selección de estas muestras por
especial énfasis en eliminar todo factor de naturaleza causal que pueda dar
lugar a algún sesgo. La carencia de todo sesgo en la elección es lo que
garantiza el carácter aleatorio de la muestra. Los diversos procedimientos para
la obtención de muestras aleatorias parte, pues, de la hipótesis de que
eliminan todo factor causante de sesgo. ¿Hasta qué punto podemos estar ciertos
de que estas hipótesis se cumplen? Aún en el caso de que se cumplan, ¿no están
presuponiendo un conocimiento previo difícil de adquirir por la vía de
inferencia estadística? Nuevamente no vemos recorriendo un camino que termina
en el punto de salida.
REFERENCIA BIBLIOGRAFICA
BERNOUILLI. J.:
Ars conjectandi. Basilea (1713).
BOOLE. G.: An investigation of the Laws
of Thought. Londres (1854).
BERTRAND, J.:
Calcul des probabilités. París (1889).
CARNAP, R.: The continuum of inductive methods. Chicago (1952).
- Logical Foundations
of Probability. Chicago (19ó2).
ELLIS. R. L..: «On the
Foundations of the Theory of Probability». Cmab. Phil. Soc., vol.
VIII (1843).
FISHER, R. A.: «The Iogic of inductive inference», J.
Royal Star. Soc., XCVIII. Pt. I (1935).
--The design of
Experiments. Edimburgo y Londres
(1935).
HUME, D.: «Treatise of Human Nature» . Oxford Univ. Press (1888).
---«An enquiry concerning Human Understanding». Oxford
Univ. Press (1894).
JOHNSON. W. E.: Logic. Cambridge, III, iv. (1921-24).
LEIBNIZ, G.: «Correspondence between Leibniz
and Jac. Bernouilli». L.'s Gesammelte
Werk (ed. Pertz and Gerhart),
vol. 3, Halle (1855).
LAPLACE, F.: «Essai philosophique sur les
probabilités», en Oeuvres, tomo 7, París {1847).
MILL, J. S.: «System of Logic» . Book III, Chap.
18, 23 (1843).
NICOD, J.: « Le probleme logique de L'induction» . Paris
(1961),
PEIRCE, C. S.: «Collected Papers of Charles Sanders
Peirce», 8 vols. Cambridge, Mass. (1931-58).
REICHENBACH, H.: «Experience
and Prediction». Chicago
(1938).
VENN, J.: «The Logic of
Chance» (1866).
BLACK, M.:
«Inducción y probabilidad». Ediciones Cátedra, S. A. Madrid {
1975).
SUMMARY
The
interrelations between statistical inference and induction are studied. In
particular, the possibilities of Statistics for the Hume's problem of induction
are examined; the trials implemented by Bernouilli and Laplace are studied. It
is conclued that the inferences of Statistics are secondary and therefore they
do not solvet the problem of induction.
Key words: Deduction, reduction, induction. Inductive logic,
probabilistic logic. Inductive inference. Statistical inference.
AMS, 1970. Subject classification.
62F99.
Comentarios