Ir al contenido principal

Inferencia Estadística e Inducción



ESTADÍSTICA ESPAÑOLA.
Número. 94, 1982, páginas. 53 a 66.



por: SEGUNDO GUTIÉRREZ CABRIA

Catedrático de estadística matemática.
Departamento de estadística e investigación operativa.
Universidad de Valencia.

RESUMEN.

Se estudian las interrelaciones existentes entre inferencia estadística e inducción. Se examinan, en particular, las posibilidades que ofrece la estadística en relación con el problema de la inducción según la versión de Hume; se estudian los intentos llevados a cabo por Bernoulli y Laplace. Se concluye que las inferencias de la estadística son «secundarias» y, en consecuencia, no constituyen una respuesta al problema de la inducción.

Palabras clave: deducción, reducción, inducción. Lógica inductiva, lógica probabilística. Inferencia inductiva, inferencia estadística.

0. INTRODUCCIÓN.

El problema fundamental que tiene planteado el conocimiento científico puede formularse así: dado que las proposiciones de las ciencias experimentales no pueden deducirse de la lógica formal, por ser verdades de hecho y no verdades necesarias, ¿de dónde obtienen su justificación?. Las filosofías tradicionales de la inducción manifiestan claramente sus insuficiencias para contestar adecuadamente a esta cuestión. Quizá se les ha exigido demasiado. Se ha pedido la certeza de las conclusiones inductivas en tanto que se sabía que toda inducción, de por sí, es precaria. La situación sería posiblemente distinta si nos limitáramos a afirmar la «probabilidad de las conclusiones inductivas». ¿No podría, con este nuevo planteamiento, construirse una teoría lógica de la inducción?.

Esta idea iba a recibir un desarrollo sistemático cuando los filósofos de la escuela neopositivista se apropiaron de ella. Se han hecho diversos intentos de construir lógicas inductivas probabilistas y se ha pensado en que la inferencia estadística podría servir al menos de modelo para tales construcciones e, incluso, constituir ella misma una teoría general de la inducción.

En este trabajo se estudian las posibilidades que, desde nuestro punto de vista, ofrece la inferencia estadística en conexión con el histórico problema de la inducción.

En el primer párrafo se da la noción de inducción y sus diversas acepciones e interpretaciones en relación con los métodos reductivos y deductivos.

En el párrafo segundo se formula el llamado «problema de la inducción» y se exponen las distintas actitudes adoptadas frente a él por la ciencia y la filosofía y, principalmente, ante el desafío de Hume.

En el párrafo tercero se analizan las interrelaciones entre inferencia estadística e inducción. Se contempla, primero, la presencia de la inducción en los distintos argumentos de naturaleza estadística y se estudian, luego, las posibilidades de la inferencia estadística frente al problema de la inducción y las razones que hacen inviable su solución.

1. DEDUCCIÓN, REDUCCIÓN E INDUCCIÓN.

1. Nos abstenemos aquí de indagar acerca del conocimiento humano y partiremos de un estado de saber en el que ciertas proposiciones han sido previamente establecidas. Ésas proposiciones constituyen los juicios perceptivos que el sentido común tiene por ciertos, aunque la razón filosófica pueda ponerlos en duda. Lo que se pretende (y este es el objetivo de la lógica) es pasar de la aserción de ciertas proposiciones, llamadas premisas, a otras, llamadas conclusiones, que se deducen de ellas. A esta operación se la llama demostración y al sistema, argumento.

2. Hay dos formas esencialmente distintas de argumentar: por inducción y por reducción.

En la deducción se concluye su premisa menor de un enunciado condicional y de su premisa mayor: sí A, entonces, B; es así que A, luego B.

La reducción puede ser progresiva y regresiva. En ambas se conoce la premisa menor, pero no la mayor. En la reducción progresiva se comienza por la premisa mayor desconocida según su valor de verdad y se procede hacia la premisa menor conocida o comprobable. La reducción progresiva se llama también «verificación».

La reducción regresiva comienza en la premisa menor conocida y va hacia la mayor desconocida. La reducción regresiva se llama también «explicación».

En el llamado «método hipotético -deductivo» se dan las dos direcciones del procedimiento reductivo: es «hipotético» por cuanto en él se establecen hipótesis explicatorias (reducción regresiva) y es «deductivo» (esta palabra tiene aquí un sentido propio) porque de las hipótesis se «deducen» las premisas menores verificables (reducción progresiva).

3. Cuando la premisa mayor es una generalización de la premisa menor, la reducción se llama inducción.

Tal es el concepto tradicional de la inducción desde Aristóteles, quien empleó el vocablo «epagogue», que significa «llevar a», para designar el proceso de llevar, por la contemplación de casos particulares, al conocimiento de una verdad general.

En la actualidad no todos están de acuerdo con esta definición restrictiva de la inducción. Stuart Mill (Mill, S., 1843) observó ya que no es necesario que una inferencia inductiva lleve a una generalización sino que podemos extender la conclusión a un número limitado de miembros desconocidos de una clase al siguiente miembro que aparezca en la serie, por ejemplo. A este procedimiento de pasar de particulares a particulares lo denominó Johnson educción (Johnson, W. E., 1921) y Carnap (Carnap, R., 1952) señaló su importancia.

Max Black (Black, M., 1979) define la inducción como «argumento no demostrativo, en el que la verdad de las premisas, aunque no entraña la verdad de la conclusión, constituye una buena razón para aceptarla». A tales argumentaciones, para las que la conclusión puede presuponer la existencia de individuos no presupuestados por las premisas, son llamadas por Peirce «ampliativas» (Peirce, C. S., 1902). Este ir «más allá de las premisas», que son los hechos singulares de la experiencia (de ahí su carácter ampliativo), posibilita la inferencia de hechos observados ha hechos inobservados y, en particular, a la predicción del futuro. La esfera de ampliación más importante de esta inducción es la ciencia natural.

En los «Analíticos Posteriores», de Aristóteles, se lee: «El conocimiento de las premisas inmediatas es independiente de la demostración». Y esto, añade, «porque el regreso debe acabar en verdades inmediatas que debe ser indemostrables». Esto nos lleva a formular la siguiente pregunta: reducir la inducción a la operación que permite el paso de la percepción a las leyes experimentales y de éstas a los principios de las teorías científicas, ¿no es olvidar que el juicio más simple de percepción es el producto de una inducción? Por supuesto que toda subsunción de un dato sensible lo es. Admitimos, pues, que no hay pensamiento acerca del objeto sensible que no constituya una inducción. A este tipo de inducción se le denomina intuitiva o "abstractiva".

4. A estas instrucciones no demostrativas podemos añadir otras mal llamadas inducciones, o inducciones «impropias».

Tenemos, en primer lugar, la inducción «recursiva» o matemática, formulada explícitamente por Fermat del siglo XVII y empleada, de modo sistemático, por Jacobo Bernoulli, por lo que se la conoce también con el nombre de «inducción bernoulliana». Se puede expresar así: si el primer elemento de una sucesión posee una propiedad y la posee también el sucesor de todo elemento de la serie que tenga esa propiedad, todos los elementos de la sucesión poseen la propiedad en cuestión.. Aunque por este procedimiento se establecen proposiciones generales, a partir de casos particulares, se trata más bien de una deducción que de una reducción.

Aristóteles ofrece en los «Analíticos Primeros» el siguiente ejemplo de argumento inductivo: «El hombre, el caballo y el mulo son longevos; pero el hombre, el caballo y el mulo son todos los animales sin hiel; luego todos los animales sin hiel son longevos». A este tipo de inducción, en la que se enumeran todos los casos que caen bajo una generalización, se la llama «sumativas» o «completa», por oposición a la «matemática» en la que no se realiza una enumeración completa. También este argumento es una especie de deducción.

5. Es importante, a los fines de este trabajo, la distinción hecha por Nicod entre inducciones «primarias» y «secundarias». Las inducciones primarias son argumentaciones no demostrativas «cuyas premisas no obtienen su certeza o probabilidad a partir de ninguna inducción» (Nicod, J., 1961). Las secundarias son las que no cumplen ese requisito

2. EL PROBLEMA DE LA INDUCCIÓN.

1. El problema de la inducción, suscitado ya por Aristóteles, está en que los distintos argumentos inductivos no son conclusivos, esto es, no demostrativos. David Hume tiene el mérito incomparable de haber planteado el problema de la inducción en los términos más netos, si bien restringido a los casos de inferencia causal, ya que la única cuestión que plantea es la de saber con qué derecho concluimos que tal efecto seguirá necesariamente a tal causa. Pero los resultados que obtiene son aplicables a todos los tipos de inferencia inductiva (puede consultarse: Hume, D., 1888 y 1894).

El problema de la inducción comporta estas dos cuestiones fundamentales: análisis formal del pensamiento inductivo y justificación de la inducción.

El análisis formal se aplicará a la «reconstrucción racional» de los métodos inductivos cuya validez está reconocida por todas las mentes sanas y a la codificación de los principios en los que se apoyan. Por «reconstrucción racional» habrá que entenderse, no una simple descripción de esos métodos, sino la determinación de un «sustituto» lógico, en expresión de Reichenbach (Reichenbach, H. 1938); no su «representación con todas sus ambigüedades, sino una sistematización que comprenda la explicación de los conceptos y principios que utilizan y que no excluye la posibilidad de una crítica, en frase de Carnap (Carnap, R., 1962).

El problema crítico de la justificación consistirá en la legitimación del sistema formal constructivo. ¿Por qué es razonable aceptar las conclusiones de ciertos argumentos inductivos como verdaderas o probablemente verdaderas? ¿Por qué es razonable, si lo es, emplear ciertas reglas de inferencia inductiva?.

2. La contestación dada a lo largo de la historia al problema de la inducción ha hecho correr mucha tinta y ha seguido distintas vertientes que pueden resumirse así:

a). Al reto lanzado por Hume no se puede responder adecuadamente; en consecuencia, la inducción es insostenible y debe excluirse de todo razonamiento que pretenda ser racional. Tal es la postura de Whewel y Popper, entre otros.

b). A la luz de la crítica de Hume se observa que los argumentos inductivos, tal como se presentan de ordinario, necesitan de perfeccionamiento. Esto puede hacerse de dos modos: (i) con la adición de nuevas premisas; (ii) mediante la sustitución de las conclusiones por aserciones de probabilidad.

(i). Las premisas que se han añadido, en un intento de resolver el problema de la inducción mediante la construcción de una lógica inductiva, de corte análogo a la deductiva, son ciertos principios de inducción «suprema» como lo siguiente: «el futuro ha de asemejarse al pasado» (Hume); «el efecto de cualquier acontecimiento ha de tener una causa suficiente» (Mill).; «la variabilidad de los hechos es limitada e independiente» (Keynes); «existe homogeneidad en el curso de la naturaleza» (Mill). Estos principios permitirán dar base a las inducciones. Los esfuerzos llevados a cabo, en esta dirección, por Bacon y Mill han sido infructuosos.

(ii). La incorporación del concepto de probabilidad a la resolución del problema de la inducción ha dado lugar a las diversas lógicas inductivas probabilísticas, esto como consecuencia de la importancia de las clásicas. Éstas son de dos clases: las que pretenden asignar probabilidades a toda clase de hipótesis y justificar, tal como intenta Hans Reichenbach, los principios en los que se basa esta asignación, y las que se esfuerzan por construir parcelas limitadas de la lógica inductiva y definir la probabilidad de una hipótesis en condiciones muy restringidas. Éstas restricciones son debidas a la debilidad del sistema construido por Reichenbach y consisten en la debilitación del concepto matemático de probabilidad (para gozar de más libertad en la construcción) y limitación de fórmulas a probabilizar. Las lógicas que más éxito tienen en la actualidad son las comparativas, como las de Keynes y Koopman, que permiten discernir cuál de las hipótesis inductivas es más probable. Las pretensiones modestas de estas lógicas se limitan a determinar la medida de la confirmación que los datos experimentales aportan a una hipótesis. Tal en la posición de los que se sitúan en la óptica de Rudolf Carnap.

c). Aunque la argumentación inductiva no pueda justificarse, ajustada al modelo deductivo, esto no obsta para que las normas deducidas sean razonables. La racionalidad no tiene por qué estar ligada a la deducción ni a la justificación. Puede, pues, hablarse de justificación en el sentido de que se sabe que la afirmación de una conclusión se «sigue» (no en el sentido deductivo de seguirse) estrictamente de premisas que se saben verdaderas.

d). El problema de Hume es debido a confusiones conceptuales y lingüísticas estas confusiones y sus orígenes deben ser claramente expuestas, lo que debe conducir a la disolución del problema (a la no existencia) y no a su solución. Es el planteamiento lingüístico del problema, hoy tan en boga.

Se pretende aquí analizar el problema de la inducción a la luz de la estadística. Este análisis lleva implícita la «incorporación del concepto matemático de probabilidad». ¿Tiene sentido presentar la inferencia estadística como una teoría del razonamiento inductivo? ¿Son competencia de esta disciplina los problemas que se presentan en un contexto científico determinado o se extiende, por el contrario, su área al problema general de la inducción? Son estas cuestiones de suficiente entidad como para que se las preste la debida atención. Es lo que hacemos a continuación.

3. INFERENCIA ESTADÍSTICA DE INDUCCIÓN.

1. El «The logic of inductive inference» (Fisher, R. A, 1935), Fisher se refiere al conjunto del razonamiento inductivo como si todo él dependiera de la inferencia estadística. En «The design of experiment», después de discutir ciertas ideas de Bayes, cuyo mérito reconoce, atribuye a este autor el privilegio de ser «el primero en prever la importancia del desarrollo de una teoría exacta y cuantitativa del razonamiento inductivo, de la argumentación que conduce de los hechos observados a las teorías capaces de explicarlos» (Fisher, R. A., 1935).

El desarrollo de la inferencia estadística se ha producido no sin resonancia en el campo de la filosofía de la inducción. Las cuestiones que trata, el modo de tratarlas, los principios en que se apoya, nada es ajeno a la problemática tradicional de la inducción. Tanto en la conducción de experiencias como en la utilización de los datos obtenidos, la teoría de la inferencia estadística parece haberse responsabilizado, en parte por lo menos, con problemas que dependen de lógica inductiva clásica. ¿No se presenta acaso como un ejemplo de lógica probabilística de la inducción, construida por hombres de ciencia, al margen de los filósofos?.

Antes de entrar en el fondo de esta pregunta, vamos a intentar un análisis de la presencia de la inducción en la metodología estadística.

2. Un examen detallado de las distintas argumentaciones utilizadas por las diversas escuelas estadísticas, lleva a la conclusión de que todas son de naturaleza «reductiva». En consecuencia, caen dentro del ámbito de alguna de las definiciones de inducción que hemos dado. Las más usadas son las siguientes:

a). La inducción proporcional, que es una «reducción regresiva» que parte de la frecuencia de algún carácter en la muestra y concluye con la frecuencia del mismo carácter en la población. De la afirmación «m1 de los n1 elementos seleccionados en A son B» se concluye que « m de los n elementos seleccionados en A son B». Las estimaciones puntuales y por intervalo son inferencias de este tipo. La proporción establecida en la conclusión puede ser distinta de la establecida en la premisa.

b). La educción proporcional, que es la argumentación regresiva que parte de una muestra y «regresa» a otra muestra. La premisa es la misma de la inducción proporcional, pero la conclusión concierne a la frecuencia aproximada de una muestra ulterior, obtenida por el mismo procedimiento. Numerosos procesos de análisis estadístico basados en la comparación de muestras, como el control estadístico de la calidad, diseño de experimentos, etcétera., se basan en la educción.

c). La inducción progresiva, concebida como proceso reductivo que conduce del examen de una muestra aleatoria a la prueba de una hipótesis. Toda la teoría de decisión estadística bayesiana y de Wald, así como la teoría de contraste de hipótesis estadísticas de Neyman-Pearson, se inspiran en este proceso inductivo.

d). La deducción proporcional, llamada también «silogismo estadístico» o «deducción estadística» y que puede formularse así: «m de los n elementos de C son B para m/n > 1/2; A es un elemento C, luego A es un B». Por ejemplo: la mayor parte de los españoles saben leer; Juan es español, luego Juan sabe leer. La validez de la conclusión está en función, naturalmente, de la razón m/n.

e). La abducción, ha sido nominada por Peirce, formulación creativa de hipótesis y único modo de inferencia estadística que introduce nuevas ideas. Es una especie de inversión de la deducción estadística y no tiene apenas valor demostrativo. Sirve para obtener nuevas generalizaciones que precisan de verificación y que tiene alguna probabilidad de ser verdaderas.

Todas estas argumentaciones llevan en la conclusión algún grado de plausibilidad, fiabilidad o probabilidad.

4. LA INFERENCIA ESTADÍSTICA Y EL PROBLEMA DE LA INDUCCIÓN.

1. Estudiada la inducción en su sentido más amplio, como todo procedimiento que conduce de lo particular a lo más general o a «otro particular», como modo de pasar de un conocimiento a otro del que no se tenga certeza absoluta, parece claro que la inferencia estadística constituye una teoría de la inducción, lo cual no equivale a afirmar que constituye una lógica inductiva y, en consecuencia, que sea una solución del problema de la inducción. La razón está en que, cualquiera que sea la forma que adopte, siempre se referirá a inducciones secundarias y nunca a la inducción primaria.

La creencia de que en la estadística pudiera estar la clave para la solución del problema de la inducción proviene, sin duda, de la fe depositada, por los hombres de ciencia, en la verdad de las hipótesis contrastadas estadísticamente y de los éxitos cosechados durante estos últimos años, por la estadística, en el campo de la investigación científica. Pero no basta con el testimonio de la fe; es preciso un análisis de las razones en las que esa fe se asienta.

i) Toda inferencia estadística parte de algún supuesto que presupone, a su vez, un proceso inductivo. Si se trata de un problema de estimación, hay que presuponer la familia de distribuciones que lo soporta. Si se contrasta una hipótesis, se admite de antemano que la familia considerada es completa. Si se plantea un problema de decisión estadística, se fijan «a priori» los posibles estados de la naturaleza, la función de pérdida y hasta el conjunto de decisiones terminales. Si el proceso es secuencial, se predetermina la regla de parada. Todos estos presupuestos denuncian la presencia de inducción primaria, previamente asumidas, y, en consecuencia, ponen de manifiesto que todo lo que se hace en el terreno de la inferencia estadística se reduce a inferencias secundarias. El problema de la inducción cae así en un círculo vicioso.

ii) La inferencia estadística supone la existencia de una clase completa de hipótesis mutuamente excluyentes que pueden ser eliminadas paulatinamente, a partir de un número finito de experiencias, hasta quedarse con la más plausible. Admirablemente adaptada a problemas concretos, incluso a ciertos procedimientos que juegan papel preponderante en la investigación experimental, la inferencia estadística parte de una situación en la que está cerrado el campo de lo posible (por trabajar con un número limitado de hipótesis) y sus resultados son valiosos sólo a ese precio. Todo esto está en pugna con los postulados de la lógica que no admite limitación en sus posibilidades.

iii) Existen serias dificultades en la transposición de los conceptos y métodos de la inferencia estadística a una teoría general de la inducción. Tal ocurre con el principio de inferencia de Laplace, con los esquemas bayesianos, con la verosimilitud como medida de grado de creencia en una hipótesis, con la función de pérdida cuando se trata de decidir acerca de la admisión de un hipótesis estadística, etcétera.

Todos los intentos históricos de resolver el problema de la inducción, por vía estadística, han chocado con uno u otro de esos escollos. Como ejemplo representativo hemos elegido el problema de la inversión del teorema de Bernoulli y la regla de sucesión de Laplace.

4. 1. El Teorema de Bernoulli.

1. Durante 21 años estuvo Bernoulli, según su propia confesión, preocupado por obtener medidas de frecuencias a partir de probabilidades y recíprocamente. El resultado fue el teorema que lleva su nombre, que de modo muy simple puede enunciarse así: «Si la probabilidad de un suceso, bajo ciertas condiciones, es p, y si estas condiciones se presentan en n ocasiones, el número más probable, x, de ocurrencias del suceso es np». Es éste un ejemplo de «reducción regresiva» que conduce de la probabilidad p a la frecuencia x/n. La demostración de este enunciado puede verse en el «Ars conjectandi» de Bernoulli (Bernoulli, J., 1713). Hoy se obtiene fácilmente a partir de la desigualdad de Chebyschev.

Las condiciones a las que alude el teorema pueden compendiarse en ésta: la probabilidad del suceso en la (n + 1) ocasión no debe ser afectada por el conocimiento de la frecuencia de ocurrencias en las n precedentes y debe ser igual a la probabilidad «a priori» de la primera.

El enunciado de Bernoulli produjo tanto impacto que Ellis (Ellis , R. L., 1843) y Venn (Venn, J., 1866), lo utilizaron como base de la definición axioma de probabilidad y Laplace creyó que expresaba una ley natural de la naturaleza. Con todo, las condiciones que exigen lo hacen aplicable sólo a ciertas clases específicas de sucesos. Si la probabilidad inicial está basada en la experiencia, está claro que está ligada a la información de una nueva experiencia, lo que contradice las condiciones impuestas. Esta última indicación pone de manifiesto que estamos trabajando con inducciones secundarias. Además, del conocido experimento de Buffon, dirigido a la comprobación del teorema de Bernoulli, otros análogos, empleando monedas, bolas o dados, así como loterías y ruletas de Montecarlo, fueron diseñados, con el mismo fin, por De Morgan, Quetelet, Jevons, Weldon, Wolf, Czuber y Karl Pearson.

2. En carta dirigida por Jacobo Bernoulli a Leibniz (Leibniz, G., 1855), fechada en 1703, le dice: «Podemos determinar, por consideraciones "a priori", en qué cuantía es más probable obtener la suma siete, al lanzar dos dados, que la suma ocho; pero no podemos determinar, por tales procedimientos, la probabilidad de que un hombre de 20 años sobreviva a otro de 60. ¿No será posible aún obtener este conocimiento, "a posteriori", de haber observado un gran número de parejas de hombres análogas a la anterior?».

En la réplica del Leibniz se encuentra la raíz de la dificultad de la respuesta. «El cálculo de probabilidades -escribe- es del más alto valor, pero en investigaciones estadísticas es necesario, no tanto la sutileza matemática cuanto el enunciado preciso de todas las circunstancias. Las posibles contingencias son demasiado numerosas para ser cubiertas por un número finito de experiencias y el cálculo exacto está, en consecuencia, fuera de la cuestión. Aunque la naturaleza tiene sus hábitos, debido a la concurrencia de causas, no son generales, inmutables. Con todo, cálculos empíricos, aunque inexactos, pueden ser adecuados en asuntos prácticos».

Bernoulli volvió, en su respuesta, a insistir en la analogía con las bolas extraídas de urna y mantuvo que «sin estimar cada contingencia por separado, podemos determinar, dentro de estrechos límites, la proporción que ofrece cada alternativa». Y añadía su carta: «Esto es cierto, se acabó la controversia; te agradará la demostración que publicaré.».

Lo cierto es que la demostración no llegó. Después de tratar de algunas de las objeciones apuntadas por Leibniz, y prometer algún procedimiento para estimar probabilidades «a posteriori», mediante la inversión de su teorema, da la demostración directa y termina sin más el «Ars Conjectandi ».

Durante el siglo XVIII no hay ningún indicio de explicar el uso de la inversión del teorema de Bernoulli.. Las investigaciones de D'Alembert, Daniel Bernoulli y otros, se orientan al estudio de las condiciones de aplicabilidad del teorema directo. Laplace supone, sin prueba, una inversión del teorema.

El análisis bayesiano actual da la siguiente respuesta al problema de la inversión: si la probabilidad «a priori» de un suceso es p, su aparición x veces en n pruebas es

Que p, considerada como variable, adquiera un valor determinado, constituye una hipótesis cuya «verosimilitud» es 
Lo valores de p constituyen una clase completa de hipótesis. Se torna así el clásico problema de la «Probabilidad de las causas». Considerada p una variable aleatoria de densidad f(p), el teorema de Bayes de la probabilidad «a posteriori» de que p esté entre los números p' y p'' después de haber observado x veces el suceso en n pruebas:


Como f(p) está acotada, es f(p) = 0, para p fijo. Además,  
  por ser 0≤ p ≤ 1, luego la convergencia de las integrales de la expresión anterior queda asegurada lo cual permite calcular la probabilidad a partir de la frecuencia. Queda, naturalmente, abierto el problema de la determinación de f(p) al que intenta responder el análisis bayesiano.

A efectos de nuestra tesis, el punto esencial que hay que señalar es que las probabilidades «a posteriori» presuponen el conocimiento no sólo de las verosimilitudes, sino también de las probabilidades «a posteriori». Ambos conocimientos implican inducciones primarias, por lo que la inducción obtenida, al ser secundaria, no sirve a la solución del problema humeano.

En el caso en que la distribución «a priori» sea uniforme en [0, 1] es f(p) = 1 y la densidad «a posteriori» de p, después de n observaciones tiene un máximo de x/n. Es el caso aplicado por Laplace a la solución del problema de Hume.

4. 2. La regla de sucesión de Laplace.

Laplace toma como ejemplo, en su disertación, el mismo utilizado por Hume expresado por la ley: «El sol saldrá todas las mañanas». La argumentación empleada en el tipo "si B también A; si el sol ha salido todas las mañanas hasta ahora, seguirá saliendo en lo sucesivo"».

Según Laplace, se puede considerar la posición del atributo A por un objeto que es un B, como un suceso aleatorio. Se asimila así la ley a una serie de extracciones de bolas de una urna cuya composición será constante. En su «Essai philosophique sur les probabilités» (Laplace, P. 1814), capítulo III,, séptimo principio, enuncia: «la probabilidad de un suceso futuro es la suma de los productos de las probabilidades de cada causa extraída de suceso observado, por la probabilidad de que, existiendo esta causa, ocurra el suceso futuro». Pone a continuación un ejemplo que generalizado conduce a esta regla: si el suceso ha ocurrido siempre en n ocasiones, la probabilidad de que se verifique siempre en una nueva serie de m pruebas es (n +1) /(n +m +1). En caso m = 1, en que la probabilidad toma el valor (n +1)/(n +2), fue bautizado por Venn (Venn, J. 1889) con el nombre de «regla de sucesión de Laplace».


La prueba de esta sucesión puede hacerse brevemente así: Sea p la probabilidad «a priori» de un suceso en condiciones dadas. La probabilidad de que el suceso ocurra m veces en esas condiciones y falle en otras n ocasiones es

Luego la probabilidad «a posteriori» de p, tras m ocurrencias del suceso en m +n pruebas de que p está entre p y p + dp, es

.

Por lo tanto, la probabilidad de que el suceso ocurra en la (m +n +1)-ésima prueba, habiendo ocurrido m veces en m + n pruebas que es:
.


Para n = 0, esto es, cuando el suceso ha ocurrido invariablemente, la fórmula es (m + 1)/(m + 2). En el caso en que las condiciones del suceso no se han dado nunca, la probabilidad del suceso es 1/2 y en el caso en que las condiciones se dieran una sola vez y el suceso no ocurriera, la probabilidad sería 1/3 (resultados totalmente absurdos).

Aparte de estas absurdidades, la fórmula de Laplace involucra la teoría de «probabilidades desconocidas» introducidas por él como suplemento del principio de indiferencia, con toda la problemática que encierra. Las objeciones hechas a esta fórmula son muchas. Con respecto a la demostración anterior hay una que aparece enseguida: si p es la probabilidad «a priori» del suceso acaecido una vez, pn es la probabilidad «a priori» de haber acaecido n-veces sucesivamente. Ahora bien, del propio teorema se deduce que si ocurre una vez modifica la ocurrencia de la de siguiente, luego las sucesivas ocurrencias no son independientes. Así, si la probabilidad «a priori» es 1/2, la probabilidad de la segunda ocurrencia es 2/3, luego la probabilidad «a priori» de ocurrencia dos veces es no 1/2.1/2, sino 1/2.2/3 = 1/3; y, en general, la probabilidad «a priori» de su ocurrencia n-veces no es (1/2)n, sino 1/(n + 1).

Las primeras críticas a esta regla provinieron del propio Veen en la obra citada, por no estar de acuerdo, según él, con la experiencia. Pearson, que la acepta, resuelve estas discrepancias. Es rechazada también por Boole (Boole, G., 1854), que dice se basa en hipótesis arbitrarias; por Bertrand (Bertrand, J., 1889), que niega su aplicabilidad al caso de un número finito de alternativas y que la califica de ridícula, etcétera. En cambio, merece la aprobación, entre otros, aparte de Pearson, de De Morgan, Jevons, Lotzey y Czuber.

Con respecto a la materia que nos ocupa, la crítica ha de centrarse en si es o no coherente reducir el problema a la cuestión de determinar una probabilidad desconocida, aunque constante. Supuesto aceptable la introducción de probabilidades «a priori» se mantiene la hipótesis de que B da a la posesión de A una probabilidad determinada. Esto es, el razonamiento de Laplace supone que entre B y A existe una implicación probable: si x es una B hay una probabilidad de que x sea un A ahora bien, para que este razonamiento lleve a alguna conclusión con cierta validez es preciso que B determine A (al menos en términos probables) y que sea B el único factor determinante de A. Está claro que estas suposiciones implican una inducción previa, con lo que se vuelve a caer en un círculo vicioso.

Consideración final. Tanto en la regla de sucesión de Laplace como en el teorema de Bernoulli, como en cualquier investigación con base estadística, el uso de muestras aleatorias es imprescindible. Las diversas técnicas de selección de estas muestras por especial énfasis en eliminar todo factor de naturaleza causal que pueda dar lugar a algún sesgo. La carencia de todo sesgo en la elección es lo que garantiza el carácter aleatorio de la muestra. Los diversos procedimientos para la obtención de muestras aleatorias parte, pues, de la hipótesis de que eliminan todo factor causante de sesgo. ¿Hasta qué punto podemos estar ciertos de que estas hipótesis se cumplen? Aún en el caso de que se cumplan, ¿no están presuponiendo un conocimiento previo difícil de adquirir por la vía de inferencia estadística? Nuevamente no vemos recorriendo un camino que termina en el punto de salida.

REFERENCIA BIBLIOGRAFICA

BERNOUILLI. J.: Ars conjectandi. Basilea (1713).
BOOLE. G.: An investigation of the Laws of Thought. Londres (1854).
BERTRAND, J.: Calcul des probabilités. París (1889).
CARNAP, R.: The continuum of inductive methods. Chicago (1952).
- Logical Foundations of Probability. Chicago (19ó2).
ELLIS. R. L..: «On the Foundations of the Theory of Probability». Cmab. Phil. Soc., vol. VIII (1843).
FISHER, R. A.: «The Iogic of inductive inference», J. Royal Star. Soc., XCVIII. Pt. I (1935).
--The design of Experiments. Edimburgo y Londres (1935).
HUME, D.: «Treatise of Human Nature» . Oxford Univ. Press (1888).
---«An enquiry concerning Human Understanding». Oxford Univ. Press (1894).
JOHNSON. W. E.: Logic. Cambridge, III, iv. (1921-24).
LEIBNIZ, G.: «Correspondence between Leibniz and Jac. Bernouilli». L.'s Gesammelte Werk (ed. Pertz and Gerhart), vol. 3, Halle (1855).
LAPLACE, F.: «Essai philosophique sur les probabilités», en Oeuvres, tomo 7, París {1847).
MILL, J. S.: «System of Logic» . Book III, Chap. 18, 23 (1843).
NICOD, J.: « Le probleme logique de L'induction» . Paris (1961),
PEIRCE, C. S.: «Collected Papers of Charles Sanders Peirce», 8 vols. Cambridge, Mass. (1931-58).
REICHENBACH, H.: «Experience and Prediction». Chicago (1938).
VENN, J.: «The Logic of Chance» (1866).
BLACK, M.: «Inducción y probabilidad». Ediciones Cátedra, S. A. Madrid { 1975).
SUMMARY
The interrelations between statistical inference and induction are studied. In particular, the possibilities of Statistics for the Hume's problem of induction are examined; the trials implemented by Bernouilli and Laplace are studied. It is conclued that the inferences of Statistics are secondary and therefore they do not solvet the problem of induction.

Key words: Deduction, reduction, induction. Inductive logic, probabilistic logic. Inductive inference. Statistical inference.
AMS, 1970. Subject classification. 62F99.

Comentarios

Entradas populares de este blog

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti...

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen...

Notas sobre la acuracidad, precisión y fiabilidad de los datos estadísticos

Estadística Española, 1974 Jul-Dic; (64-65) Este artículo, con el título ‘Notes on the accuracy, precisión and reliability of the statistical data’, ha sido presentado por el autor a la 40 sesión del Instituto Internacional de Estadística, que tuvo lugar en Varsovia, septiembre de 1975). Por J. L. Sánchez-Crespo Instituto Nacional de Estadística ‘Por lo tanto, parece ser altamente apropiada la importancia que se ha dado en la presente conferencia al problema de la medida de la acuracidad.’ Eckler, 27 Sesión del ISI. Nueva Delhi, 1951. ‘La Conferencia también acordó mantener su programa de trabajo la cuestión de la acuracidad de las estadísticas.’ 22 Sesión Plenaria CES, Ginebra, 1974. INTRODUCCIÓN El problema de la medida de la acuracidad en las estadísticas se discutió en la 22 Sesión Plenaria de la Conferencia de Estadísticos Europeos, tomando como base un documento preparado por la Oficina de Estadística del Canadá. A la vista del interés que suscitó, la...