Ir al contenido principal

Probabilidad, posibilidad, verdad e incertidumbre

ESTADISTICA ESPAÑOLA

Núm. 144, 1984, págs. 5 a 22

Probabilidad, posibilidad, verdad e incertidumbre

por SEGUNDO GUTIÉRREZ CABRIA

Departamento de Estadística ®

Investigación Operativa. Universidad de Valencia.

Instituto Nacional de Estadística.

RESUMEN

EI concepto de probabilidad es sumamente complejo debido, en parte, a la falta de clarificación de otras nociones que lo presuponen o integran. En este trabajo se analizan tres de estos elementos constituyentes de la probabilidad, tal como aparecen a la luz del «común sentir de probabilidad», de las interpretaciones prácticas y del razonamiento inductivo. Posibilidad, verdad e incertidumbre son elementos que preceden o están más allá de la probabilidad de su correcta especificación depende la definición de ésta.

Palabras Claves: Determinismo; causalidad; inducción; grado de confianza; certeza; enunciados singulares; objetivo; subjetivo; positivismo; empirismo; lógica bivalente y trivalente; sintáctico; semántico; variables ocultas.

SUMMARY

PROBABILITY, POSIBILITY, TRUTH AND UNCERTAINITY

The concept of probability is extremely complex, partly owing to the lack of clarification of other concepts which presuppouse or integrate it. in this paper ^three of these constituent elements of probability are analyzed under several scopes, namely the «common sense of probability» , the practical interpretations, and the inductive reasoning. Possibility, truth and uncertainty are elements that precede or are beyond probability; the definition of the last relies on the correct specification of those.

Kev wors: Determinism, causality, induction, degrees of belief, certitude individual staments, objective, subjective, positivism, empirism, divalent and trivalent logic, syntatic, semantic, hidden variables.

AMS, 1980. Subject classification: 62-03.

1. INTRODUCCION

1. EI sentido de probabilidad es sumamente complejo debido al gran uso que de él se hace, tanto en el lenguaje común como en el de la ciencia natural y el de la técnica, así como en el campo de la filosofía y de la matemática.

Esta variedad de significados y de interpretaciones de la probabilidad ha llevado a algunos autores a considerar que se trata de conceptos distintos. . Así, Rudolf Carnap (1962) distingue dos tipos de probabilidad, una basada en el concepto de «credibilidad racional» y otra fundada en la frecuencia relativa de ocurrencias de un suceso que se repite. Mackey (1973) afirma que «hay al menos cinco conceptos de probabilidad claramente distinguibles, con subdivisiones entre ellos y eslabones que los unen». A esta variedad de conceptos se añaden infinidad de matices semánticos y disputas sin fin que han conducido, según Bruno de Finetti (1981), a una verdadera «torre de Babel».

2. En nuestro modo de pensar, esta «confusión babeliana» proviene, en la mayor parte de los casos, de la identificación de la cosa con la definición

Supongamos, por ejernplo, que alguien asigna la probabilidad de un sexto a que «salga As en el próximo lanzamiento de un dado». Si se le pide que justifique esta asignación, podemos oír una de estas explicaciones: está dispuesto a apostar 1.000 pesetas contra 6.000 a favor del As; considera seis caras con igual posibilidad de aparecer y una sola es un As; espera que en una serie larga de lanzamientos, cada cara aparecerá en torno a la sexta parte del número de lanzamientos; puede contestarnos que ha realizado varias veces esta experiencia y observado una .frecuencia relativa de un sexto que toma como probabilidad para la próxima prueba; podría darnos otras justificaciones más de su asignación.

No es difícil desenmascarar que estas simples deducciones se prestan a diversas interpretaciones de la probabilidad o quizá a ninguna, si no existe la debida especificaciòn. Pero lo que sí parece claro es que si el sujeto toma una de ellas como definición de «su probabilidad », las demás serían aceptadas por él como consecuencia de la definición o interpretaciones de la misma para casos particulares.

Caben, pues, diversas definiciones del mismo concepto de probabilidad, del mismo modo que se construye la misma geometría desde conjuntos equivalentes de axiomas con distintas elecciones de nociones primarias.

3. Un matemático no interesado en las interpretaciones de la probabilidad puede lograr una aceptación unánime de la teoría que elabora, partiendo de bases puramente axiomáticas. Nada cambia en la teoría matemática, y a menudo tampoco en las aplicaciones prácticas, donde los mismos argumentos son aceptados por los partidarios de distintas teorías y cuya validez nadie discute.

Pero sería minusvalorar los distintos enfoques de la probabilidad si se concluyera que son irrelevantes fuera del ámbito de la pura discusión bizantina. No sólo dotan la misma estructura formal de significados totalmente diversos, sino que cada interpretación particular reduce la validez de la teoría a los estrechos dominios en los que sus seguidores se encuentran más seguros y rechaza aquellos enunciados para los que no encuentra significación. Para llevar a cabo esta discriminación se inventan criterios que no suelen aceptar los partidarios de otras escuelas.

4. Las teorías matemáticas de la probabilidad superponen un sistema formal numérico a 1os juicios intuitivos de probabilidad del «sentido común». El peligro, y mucho del confusionismo ya mencionado, proviene sin duda de haberse alejado en muchas ocasiones, y olvidado totalmente en otras, de esas bases intuitivas. Ello equivale, como escribe De Fimetti (1981), a aceptar la noción de probabilidad como un deux ex machina, deducida de argumentos abstractos que evitan cuidadosamente explicar que el significado de la probabilidad es el que cada uno de nosotros (seres humanos y otros animales) utiliza para evaluar los peligros, riesgos y perspectivas, más o menos atrayentes. De hecho, la probabilidad es nuestra guía cuando reflexionamos y actuamos en caso de incertidumbre, la cual está por todas partes».

Y continúa: «La teoría de la probabilidad es la lógica más o menos instintiva y acabada, como un instinto y una facultad racional, que inconsciente u organizada y enraizada de modo más o menos científico, utilizamos para hacer nuestras elecciones con miras a aumentar al máximo nuestra suerte».

Analicemos, pues, ante todo, lo que el común sentir piensa y dice de la probabilidad, cuando la erige corno guía de su conducta.

2. ELEMENTOS INTEGRANTES DE LA PROBABILIDAD

l. En el lenguaje corriente empleamos el adverbio «probablemente», o las locuciones «es probable que», «es razonable pensar que», etc., para expresar el sentimiento de incertidumbre que experimentamos frente a algo exterior a nosotros. Cuando hablamos así, hacemos un intento de juicio: hay alguna razón, pero no conclusiva, de lo que opinamos; pero hay también otra contrarrazón, aunque no igualmente poderosa, que apoya la vía contraria. Así considerado, el concepto de probabilidad tiene un hábitat en argumentos no formalizados que se sitúa entre la aserción y la contraaserción, entre la aceptación y la refutación.

2. Tomemos como ejemplo ilustrativo el siguiente juicio de probabilidad: «Dadas las actuales circunstancias de temperatura, humedad y vientos reinantes, lloverá probablemente hoy» . No es difícil ver que hay tres elementos fundamentales que lo integran: la persona que emite el juicio, el juicio emitido y las condiciones iniciales en que se basa.

La persona que emite el juicio actúa racionalmente, después de contemplar las condiciones iniciales; suponemos que está incierta de lo que va a ocurrir y que en su decisión, por uno u otro resultado, pesan en su ánimo las condiciones psíquicas del momento, sus creencias personales, etc.

EI juicio emitido ha versado sobre uno de los dos resultados posibles e incompatibles entre sí y que considera como verdadero. Estos resultados posibles, llover y no llover, constituyen el espacio de referencia del fenómeno en cuestión, y la aparición de uno u otro es un suceso.

L.as condiciones iniciales forman lo que se suele llamar estado de la naturaleza. A condiciones iniciales distintas corresponde distinta probabilidad, lo que pone de manifiesto la correlación entre probabilidad e información, por un lado, y la relación causal de tipo determinista que se atribuye a estas condiciones, por otro.

Esta fe determinista del «pueblo» se manifiesta en el uso de expresiones como «es fuerza que», «es razonable», etc. Pero también se dice «es probable que no me toque la lotería», sin la menor alusión a condiciones iniciales, o, por mejor decir, con !a convicción de que mi .suerte está confiada dl azar, a la aleatoriedad del fenómeno.

3. Otros aspectos de la probabilidad aparecen claramente sugeridos por el lenguaje común. Así, cuando decimos «iré probablemente», formulamos la esperanza de que el suceso ocurrirá; es el aspecto dinámico de la probabilidad. Su carácter predictivo se encuentra implícito en expresiones como «probablemente lucirá el sol» y el inductivo, en juicios como «es probable que hable valenciano», basado en la evidencia de que vive en Valencia.

«Probablemente» admite adverbios de comparación. Así, decimos «bastante probable», «muy probable», «más o menos probable», etc. Se refleja de este modo la comparabilidad de la probabilidad, aun en casos meramente cualitativos.

4. La probabilidad, tal como aparece a través del sentido común del lenguaje popular, está exenta de ambigüedades, no se presenta como concepto equívoco. Se considera aplicada no sólo a situaciones singulares, sino también a universales, pero siempre reales.

Las situaciones contempladas son las que rodean al hombre, en su quehacer cotidiano, desde su cuerpo a la galaxia más lejana, desde sus vivencias psíquicas hasta el mundo histórico y social, en el que vive, desde sus propias ideas hasta las más exóticas culturas.

Las asignaciones de probabilidad del hombre de la calle se refieren siempre a algo exterior más bien que a relaciones lógicas entre proposiciones. Por ello se considera que el sentido común de probabilidad es eminentemente objetivo, si bien lleva frecuentemente implícito un grado de confianza pero la manifestación de esa confianza no suele ser la meta primordial de tales asignaciones.

Cabe, finalmente, señalar que la probabilidad que nace del sentido común no se alinea en ninguna escuela determinada ni sigue ninguna corriente de pensamiento. Se basa, generalmente, en la experiencia anterior, en la intuición o en el razonamiento inductivo, pero no calcula frecuencias, ni cuenta los casos favorables y posibles.

5. EI sentido común del lenguaje nos ha permitido detectar una serie de aspectos que comportan los elementos integrantes de la probabilidad, esto es, posibilidad, compatibilidad, veracidad, racionalidad, incertidumbre, credibilidad, esperanza, predicción, inducción, comparatividad, causalidad, información, determinismo, aleatoriedad, y a los que había que añadir otros como necesidad e independencia.

La sola enumeración es un exponente de la complejidad del concepto de probabilidad con el de que de un modo u otro se relacionan. E1 sentido de alguna de estas palabras y su uso no es uniforme en los diversos tratadistas de la probabilidad y muchas de las discusiones traten su origen en no haberlas comprendido debidamente.

Nuestra tarea, en los próximos párrafos, va a consistir en analizar el significado de algunos de estos vocablos en relación con la probabilidad. Esperamos que su clarificación ayude a comprender el «qué» de la probabilidad.

3. PROBABILIDAD, POSIBILIDAD Y NECESIDAD

1. E1 cauce de nuestra vida está definido por un horizonte de posibilidades. Cuando llevo a cabo un proyecto de vida, las facilidades y dificultades que impone su realización se convierten en posibilidades de las que soy autor. Pero las más de las posibilidades son ofrecidas por el entorno que me circunda y para hacerlas mías he de hacer una elección. Las posibilidades no están físicamente presentes sino las cosas a las que se refieren. Las posibilidades están en la imaginación y por ello un ser que carezca de ella no tendrá posibilidades, aunque posea capacidades o potencias que es algo distinto. Un nuevo rico puede ser colmado de recursos y carecer de posibilidades de empleo por falta de imaginación.

Las posibilidades suponen multiplicidad, a lo menos duplicidad. Una posibilidad única deja de ser posibilidad para transformarse en forzosidad o necesidad. Hay que distinguir entre necesidad física o natural y necesidad lógica. Será lógicamente necesario lo que es válido en cualquier mundo concebible. Los mundos están gobernados por leyes naturales que prohíben o prescriben determinados sucesos: esto nos autoriza a hablar de necesidad natural, de lo que es naturalmente necesario.

La existencia de una posibilidad o necesidad natural frente a otra de carácter lógico tiene grandes implicaciones a la hora de introducir la probabilidad. Por ello insistiremos en aclarar ambos conceptos. Las leyes naturales restringen la elección posible de hechos singulares. Son, pues, principios de imposibilidad con respecto a estos hechos que parecen enormemente contingentes comparados con las leyes naturales. Ahora bien, estas leyes que son necesarias cuando se las compara con los hechos singulares, son contingentes con respecto a las tautologías, ya que puede haber mundos diferentes, con leyes naturales diferentes.

La «posibilidad lógica», según esto, tiene como única restricción la que lleva a contradicción manifiesta en sí misma. La «posibilidad física» lo es siempre que no contradice a las leyes naturales. La «posibilidad técnica» consistirá en tener los medios para verificar la correspondiente proposición, etc.

Los probabilistas adoptan una u otra acepción de la posibilidad sin pararse a hacer distingos y de aquí nacen muchas confusiones que dan lugar a disputas entre sordos ya que cada parte denomina del mismo modo cosas distintas.

2. Los subjetivistas enarbolan claramente la bandera de la posibilidad lógica. De Finetti (1970) afirma categóricamente: «La lógica de la naturaleza nos proporciona el ámbito de la posibilidad (y lo posible no tiene graduación). La idea había sido ya expuesta por Keynes (1926): «Es a veces útil usar el término imposibilidad como correlativo en sentido negativo de certeza aunque el primero tiene algunas veces un conjunto distinto de asociaciones. Si a es cierto, lo contrario de a es imposible. Si un conocimiento de a hace cierto h, un conocimiento de a hace imposible lo contrario de h. Así, una proposición es imposible con respecto a una premisa dada si es desaprobada por la premisa, y la imposibilidad corresponde a mínima probabilidad. En nota aparte hace esta observación: «Necesidad e imposibilidad, en el sentido en que estos términos son usados en la teoría de la modalidad, parecen corresponder a las nociones de certeza e imposibilidad en la teoría de la probabilidad; los otros modales, que comprenden los grados intermedios de la posibilidad y contingencia, corresponden a los grados intermedios de la probabilidad». AI menos hasta finales del siglo xvii el tratamiento tradicional de los modales es, en efecto, un intento primitivo de llevar las nociones de probabilidad dentro de la lógica formal.

La tesis subjetivista relaciona el ámbito de posibilidades a la información del sujeto. «con respecto a una situación o problema cualquiera que Tú tengas que considerar, existirá siempre una inmensa multitud de alternativas imaginables; y tus informaciones y conocimientos te permitirán, en general, excluir una parte de ellas como imposibles (esto es, te consentirán --y esto se dice es función de la ciencia- una limitación de las expectativas). Todas las demás permanecerán, para Ti, posibles (o sea, ni ciertamente verdaderas, ni ciertamente falsas)» (De Finetti, 1970).

El ámbito de la elección más o menos particular de las alternativas queda al arbitrio del sujeto, siempre de acuerdo con la índole de los problemas o el grado de precisión en que deseemos o tengamos interés de considerarlas. Su restricción proviene de la falta de conocimiento o de capacidad de razonamiento.

De Finetti (1970) propone el siguiente ejemplo ilustrativo: «Si es N el número de baldosas que forman un cierto pavimento rectangular (que no recuerda haber visto, pero tiene una idea vaga de su dimensión y de la de las baldosas), los valores posibles que él asigna a N deberán excluir los número primos; pero si desconoce tales nociones no le vendrá a la mente hacer tal exclusión» .

3. El sentido común de probabilidad está semánticamente emparentado con el de posibilidad y con el de seguridad. «Probablemente» implica «posiblemente» y excluye «seguramente», lo que es probable ni es seguro ni imposible.

El tipo de posibilidad, contemplado en estos contextos, es el empírico, no el lógico; no sólo se considera que no existe inconsistencia lógica, sino que tal posibilidad está avalada por los hechos. Si alguien sabe que una urna contiene bolas negras y de otros colores y sabe que su extracción se hace por determinado procedimiento, su afirmación «es posible extraer la bola negra» es lógicamente consistente con dichas condiciones iniciales, pero además esa afirmación no está excluida por los hechos. En cambio, los hechos excluirán extraer otra cosa que bolas.

4. La posibilidad empírica, regulada por las llamadas leyes empíricas o naturales, difiere esencialmente de la posibilidad lógica y de otro tipo de posibilidades, como la moral o la histórica, en que admite «graduación». Esta cualidad es especialmente deseable por los partidarios de la posibilidad objetiva.

Lógicamente, una proposición o suceso, o es posible o no lo es; una acción es moralmente posible o no lo es; un acontecimiento histórico pudo ocurrir o no. En estos ejemplos no puede «haber más o menos».

Pero imaginemos ahora un niño, que apenas ha aprendido a andar, empeñado en pasar un puente de madera en el que hay una tabla rota. Existe posibilidad de que el niño ponga el pie en el agujero y caiga al vacío (a menos que, como hemos visto muchas veces pintado, el ángel de la guarda lo evite). Pensamos nosotros que la posibilidad de caída seria mayor si hubiera dos tablas rotas y hasta serìa segura si no hubiera ninguna buena.

Las expresiones corrientes «muy posible», «poco posible», «casi seguro», se refieren a este tipo de posibilidad empírica y se emparentan con la definición de probabilidad de Laplace o la frecuentista. La graduación de la posibilidad en los objetivistas está en la misma línea que la graduación de la probabilidad. Y aquí encontramos su máxima discrepancia con la tesis subjetivista formulada nítidamente por su máximo defensor Bruno De Finetti (1970) con estas palabras: «La probabilidad es una noción aditiva que se aplica en al ámbito de la posibilidad, haciendo aparecer aquella graduación (« más o menos probable» ) que no tiene sentido en la lógica de lo cierto» .

5. El conjunto de todas las alternativas posibles constituye el llamado espacio de referencia o espacio muestral, nombre popularizado por los empiristas. La realización u ocurrencia de una de estas manifestaciones posibles es un suceso. Un suceso sólo puede tener dos manifestaciones posibles: se realiza o no se realiza (llueve o no llueve, sale un seis en el dado o no sale). Corrientemente decimos, con abuso del lenguaje, que los sucesos sólo pueden tener dos valores, verdadero y falso, queriendo expresar la falsedad o verdad del enunciado singular que lo expresa. Por este motivo, los epistemólogos prefieren hablar de proposiciones. Con todo Popper (1967) no halla inconveniente en emplear la expresión suceso siempre que nos refiramos a«algunos de los enunciados singulares que le corresponden» . En esta última frase está sobreentendido que puede haber varios enunciados diferentes para un mismo suceso y diremos con Popper (1967) que «dos enunciados singulares que son lógicamente equivalentes (es decir, mutuamente deductibles) describen el mismo suceso. Si digo "llueve en el patio", "llueve en
el jardín", "está lloviendo en esta región" me estoy refiriendo al mismo suceso "llover"».

Sobre el uso de las palabras «suceso» y «proposición», Keynes (1921) es muy explícito: «Sobre el término suceso, que ha tenido hasta ahora tanta importancia en la fraseología sobre la materia, haré caso omiso. Escritores sobre probabilidad trataron sobre lo que ellas llaman sucesos o eventos. En los problemas primeramente estudiados no hubo inconveniente en su empleo corriente. Pero estas expresiones son usadas ahora de un modo vago y ambiguo, y discutir la verdad y probabilidad de proposiciones en vez de la ocurrencia y probabilidad de sucesos, será una mejora más que verbal».

En nota aparte Keynes atribuye a Ancillon la diferenciación entre suceso y proposición. En su obra «Doutes sour les bases du calcul des probabilités» (1794), Ancillon escribe: «Dire qu'un fait passé, présent ou a venir est probable, c'est dire qu'une proposition est probable». Cita también a Boole y a Czuber como partidarios de esta diferenciación.

6. Otra fuente de confusiones, al hablar de acontecimientos, provienen de no hacer la distinción debida entre lo singular y lo típico o universal.

De Finetti (1981) distingue claramente dos tipos de interpretación de la palabra suceso, un sentido especìfico y un sentido genérico que se refiere a un número finito o infinito de sucesos específicos, más o menos análogos y llamados pruebas del suceso. Tal seria, añade De Finetti, el suceso «empate en un partido de la Liga italiana de Primera División durante toda una competición».

Los subjetivistas, con De Fenetti a la cabeza, emplean el término suceso en sentido específico como manifestación de un fenómeno. Los objetivistas por el contrario se atienen al sentido genérico cuyas manifestaciones específicas son las pruebas. Es evidente la mayor claridad ofrecida por la nomenclatura subjetivista.

Los partidarios de la probabilidad lógica, como relación entre la verdad de una proposición y un cuerpo de evidencia, se encuentran con la misma necesidad de distinguir entre lo específico y lo genérico. «Poseer el color rojo» es una expresión genérica que puede aplicarse a todo lo que tiene el color rojo. Decir que «el sofá es rojo» es una proposición específica. La primera expresión cumple la misma misión que fenómeno entre los objetivistas y suceso entre los subjetivistas y se denomina función proposicional, la segunda corresponde a suceso y prueba respectivamente.

Formalmente podemos expresarnos así: Si F(a), F(b), etc., son proposiciones y x es una variable que puede tomar los valores a, b, etc., F(x) es una función proposicional, donde F es un predicado constante (ser rojo), y x, una variable que denota una situación u objeto (sofá) particular.

4. PROBABILIDAD Y VERDAD

1. La verdad es un universal y la palabra verdad es un nombre abstracto. Pero los enunciados que aparecen como universales pueden ser sustituidos por otros individuales, con nombres y adjetivos concretos. Así, no se pierde mucho si sustituimos «qué es la verdad?» por «qué debe ser algo para que sea verdadero?» . La primera pregunta exige, para su contestación, conocer todos los enunciados verdaderos, lo que exigiría, salvo contextos muy limitados, el tratar con una infinidad de enunciados que podrán formularse; con la segunda cuestión se evitan estos inconvenientes.

Este modo de tratar el problema lleva al estudio de la verdad en sí, al de «los portadores de verdad». Hemos de investigar qué clase de ente ha de ser x para que podamos escribir «x es verdadero».

En el párrafo anterior hemos visto que, dentro de las alternativas (o resultados) posibles, sólo «una» era verdadera y que la proposición que afirmaba la existencia u ocurrencia de uno de estos sucesos sólo podía ser verdadera o falsa. Esto nos da una orientación sobre los portadores de verdad en la teoría de la probabilidad.

Mackie (1973) ha demostrado que los portadores primarios de verdad son los enunciados o proposiciones, ya que otros posibles portadores, como las creencias, las noticias o comentarios, las descripciones de los objetos, se reducen a éstos. Las palabras «enunciado» y«proposición» son las adecuadas para poder hablar acerca de lo que se dice, es creíble o descriptible.

2. Debe diferenciarse con cuidado lo verdadero de lo real. Lo verdadero y falso se aplica, como hemos comentada, a enunciados y proposiciones; lo real se aplica a cosas y fenómenos; de la verdad se ocupa la epistemología y de lo real, la ontología. Diríamos, por ejemplo, «la blancura de la nieve es real», y que la afirmación «la nieve es blanca» es verdadera. Esto nos vuelve a aclarar que un suceso es algo real que ocurre o no ocurre y la proposición que lo expresa es verdadera, si ocurre, y falsa si no ocurre.

Podemos decir que el término «real» se usa en el lenguaje sobre las cosas, mientras que el término verdadero se emplea en el lenguaje sobre el lenguaje. Es decir, «verdadero» es un predicado metalingüístico, de conformidad con la definición semántica de Tarski (1935).

3. Podemos, pues, decir que «la palabra verdad significa una propiedad de una proposición o de un enunciado, que consiste en que su correspondiente contenido se da en la realidad». Es la definición de Bochenski (1969). Análogamente puede definirse el sentido de la palabra falsedad.

Esta es, naturalmente, una de las múltiples significaciones de la palabra «verdad» y nosotros nos acogemos a ella porque se da en toda ciencia (al menos al lado de otros significados) y porque, opinamos, todas las demás definiciones la presuponen de alguna manera. Es la concepción ontológica de la verdad por su correspondencia con la realidad y supone la dualidad pensamiento-mundo y una determinada relación entre ellos: cuando el pensamiento está de acuerdo con el mundo, es verdadero; en caso contrario, es falso.

Esta concepción se opone al idealismo subjetivo (lo único real es el pensamiento) y al agnosticismo (no puede haber correspondencia entre pensamiento y mundo). Si se interpreta la realidad como «realidad material», se cae en el materialismo y si se considera como conjunto de hechos, se desemboca en el positivismo.

Las tres principales lenguas de la cultura clásica contienen tres palabras con significados distintos, pero no separables, como lo muestra en que coexistan en la palabra castellana verdad. Estas palabras son: alethia, en griego; veritas, en latín, y emunah, en hebreo. «Aletiah» significa lo que esta patente, manifiesto o desvelado; se refiere, pues, a las cosas mismas, al desvelamiento o manifestación de lo que son. «Veritas» apunta más a la exactitud o precisión en el decir; verum es lo que es fiel, exacto, completo, sin omisiones; así, un relato puntual e íntegro de lo que fue; «veritas» envuelve una referencia al decir, a la veracidad. «Emunah^ encierra una referencia personal, en sentido de confianza; el Dios verdadero es el que inspira confianza, el que cumple lo que promete; el amigo verdadero es aquél con el que se puede contar.

EI sentido de alethia está próximo a la verdad postulada en la probabilidad frecuencial cuya idea germinal consiste en negar la existencia de toda laguna lógica entre frecuencias y razonamientos. Idea que ya había sido adelantada por Looke (1690) para quien el argurnen probable de las frecuencias constituye «prueba... tal que en su mayor parte comporta verdad ».

Veritas alude al sentido metalingüístico tarskiano de verdad. De algún modo se refiere también a enunciados o proposiciones que expresan una valoración de probabilidad en el sentido logicista de Keynes, Jeffreys o Carnap. Se formula un enunciado lógico de probabilidad cuando se valora la verdad de una proposición en relación a una segunda proposición que se supone contiene la evidencia.

Emunah se relaciona con las creencias como portadores de verdad, tales como son contempladas por las teorías subjetivistas de la probabilidad. Una forma extrema de interpretación subjetiva identificaría la probabilidad con la intensidad de la confianza de una persona en la verdad de una proposición.

4. Antes de cerrar este comentario acerca de la verdad, en sus conexiones con los diversos aspectos que ofrece la probabilidad, vamos a referirnos brevemente a sucesos de los que no podemos decir que son verdaderos o falsos por depender del futuro y no poder se controlados por las leyes físicas. De Finetti (1968) aludió a ellos con el nombre de sucesos indeterminados, pero esta expresión la hallamos ya en Lukasieviccz, el padre de las lógicas polivalentes. Lukasievicz (1975), después de comentar el principio de Bivalencia (toda proposición es, o bien verdadera, o bien falsa), formulado por Aristóteles y defendido por los estoicos frente a los epicúreos, escribe: «... como este principio yace en los fundamentos mismos de la lógica no puede ser demostrado. Sólo se puede creer en él, y sólo el que lo considera evidente cree en él. A mí, personalmente, el principio de bivalencia no me parece evidente. Por tanto, estoy en el derecho de no reconocerlo y de aceptar la idea de que, además de la verdad y la falsedad, existen otros valores de la verdad: como mínimo, uno más, un tercer valor de verdad.

¿Cuál es este valor de verdad? No tengo un nombre apropiado para él. Pero, después de las explicaciones precedentes, no será difícil entender cuál es mi idea. Sostengo que hay proposiciones que no son verdaderas ni falsas, sino indeterminadas.

Estas palabras están tomadas del escrito titulado «O Determinizmie», publicado por primera vez en 1961. En su trabajo «Sobre la lógica trivalente», editado en 1920, llama a este tercer valor de verdad «posibilidad».

El tratamiento probabilístico de los sucesos «indeterminados» es distinto desde la óptica objetiva o de la subjetiva.

Fijémonos en el suceso (proposición): «El Valencia gana la Copa en 1976». Para una persona situada temporalmente con anterioridad a esa fecha, ese suceso es indeterminado. Para esa misma persona (u otra), situada con posterioridad a la temporada futbolística de ese año, el suceso es verdadero. Objetivamente, en el sentido más estricto de la terminología lógica, el suceso es verdadero en sentido intemporal, fue y será siempre verdadero, al margen del punto espacio-tiempo en el que se halle el observador. Subjetivamente, esto es, para una persona dada en un momento dado, un suceso puede ser cierto, dudoso o imposible. Las equivocaciones o errores no son excluidas; la certeza a imposibilidad no implican necesariamente la verdad o falsedad.

5. PROBABILIDAD E INCERTIDUMBRE

1. La probabilidad, dijimos, implica siempre una situación de incertidumbre. La palabra «incertidumbre» y su opuesta «certidumbre» no son siempre adecuadamente empleadas y esto conduce a muchas confusiones en teoría de la probabilidad. A la certeza se la confunde frecuentemente con la seguridad y a la carencia absoluta de certeza, con la imposibilidad, como en el caso de Keynes, citada en el párrafo anterior. Jeffreys (1939) dice categóricamente: «Los grados extremos de la probabilidad son certeza e imposibilidad», y De Finetti (1970) se refiere a conclusiones que «resultan en base a los datos, respectivamente, o ciertas (ciertamente verdaderas), o imposibles (ciertamente falsas), o, también, posibles». Es evidente la confusión entre posibilidad e incertidumbre y es evidente también que confundir estos términos es un error. No es imposible, por ejemplo, que un daltónico diga que un objeto rojo es verde, con lo que tendríamos una «posibilidad ciertamente falsa».

A veces se confunde también con aquello que la produce, falta de conocimientos, ignorancia, y la certeza, con aquello que se persigue, la verdad. Esto último es debido quizá a que la certeza en forma de evidencia plena o «patencia» es un modo de verdad y quizá también porque verdad es aquello que nos hace recobrar la seguridad y certidumbre perdidas.

2. El sistema de vigencias que constituye el mundo, «nuestro mundo», es lo que hace que «sepamos a qué atenernos respecto a lo que las situaciones tienen de estable. Cualquier rotura, cualquier fisura en el sistema de creencias vigente, da lugar a la incertidumbre. «La incertidumbre no es, pues --como escribe Julián Marías (1947)--, la ignorancia. Más aún, la ignorancia total descarta la incertidumbre. La incertidumbre no es simplemente no saber, en el sentido de ignorar, sino un concreto no saber a qué atenerse».

Cuando el hombre no sabe a qué atenerse, piensa, se informa, actúa, y si tiene éxito en este proceso, el resultado es un «saber a qué atenerse» o certidumbre. Hay, pues, dos clases de certidumbre: una en la que «se estaba» ya, quizá inadvertidamente , sin tener conciencia de ella, y otra a la que «se llega» tras un estado consciente de incertidumbre del que se sale, superándole, mediante un proceso que comprende toda vía de conocimiento. No olvidemos que el conocimiento emerge de toda situación en que las cosas le han fallado al hombre; al llegar a la nueva situación, indaga cómo se ha llegado y cómo es la cosa para que se haya producido ese fallo.

3. Supongamos, por ejemplo, que hay incertidumbre acerca de la composición de una urna que contiene bolas negras y blancas. Un procedimiento para resolver esta perplejidad es sacar las bolas una por una sin devolución, hasta agotarlas todas; se obtendría la evidencia. Otro procedimiento consistiría en extraer las bolas, con devolución, de modo indefinido. El proceso conduciría a una medida de la incertidumbre de tipo frecuencualista, frente al frecuentista del caso anterior (en el primer caso se obtiene una frecuencia y en el segundo, un límite frecuencial). En ambos casos, la información, por sí sola, ha servido para sacarnos de la incertidumbre.

Pero como dice Savage (1961), «una vez es adoptada una posición frecuencial, las incertidumbres más importantes que afectan la ciencia y otros dominios de aplicación de la estadística no pueden ser ya medidos por probabilidades». Un frecuentista no puede, por ejemplo, utilizar la información que posee de una investigación para medir la incertidumbre de una proposición que está aún bajo investigación. Todo el proceso, conducente a obtener probabilidades, por el teorema de Bayes, de una proposición, se apoya en una probabilidad inicial de naturaleza psicológica, y en una nueva evidencia de naturaleza informativa. Se trata de superponer a la información la opinión, según el sentir objetivista.

Otro camino para llegar a «saber a qué atenerse» es el behaviorista: frente a la inferencia inductiva, la conducta inductiva que preside muchas decisiones, sobre problemas económicos principalmente, más que sobre los científicos. Aquí el valor predomina sobre la opinión

4. Hemos detectado tres componentes principales de un estado de incertidumbre: la información que poseemos, nuestras opiniones o creencias y nuestras valoraciones de la utilidad que comporta la situación. Está claro que la posibilidad es insuficiente para evaluar una situación de incertidumbre un tanto compleja. Otra cosa son la mayoría de las situaciones puramente empíricas, que comportan la mayor parte de análisis estadísticos, en los que las probabilidades tipo Von Mises bastan para resolver los problemas que se presentan.

Pero insistimos, una vez más, contra los que opinan que la probabilidad no debe rebasar el marco empírico, ¿cómo medir probabilidades de éxito o fracaso en la empresa emprendida o que vamos a emprender? Una investigación sobre esta cuestión nos lleva, de modo natural, al dominio de la psicología. Nuestras acciones se basan en el cálculo particular de nuestras posibilidades y este cálculo depende, a su vez, de nuestra experiencia y de nuestra madurez de pensamiento.

5. De acuerda con nuestras anteriores consideraciones, cualquiera que sea la incertidumbre que envuelve una situación dada, siempre es posible definir una probabilidad que mida su intensidad o grado. Otra cuestión no menos relevante es la relativa a la posibilidad de un conocimiento cierto. Desde Descartes hasta Russell, el tema central de la moderna filosofía ha sido el de encontrar una base de conocimiento, que sea, por un lado, cierta, y por otro, adecuada a una superestructura permanente.

Entendemos por conocer todo proceso psíquico cuyo resultado es el saber. Nos referimos al saber humano, como algo psíquica que se halla en el alma y sólo en ella. E1 conocer en su pleno sentido culmina en el juicio, que afirma o niega una proposición objetiva. Conocer es, pues, algo más que pensar es un pensar que persigue como fin el saber. Hay otros modos de pensar que son meros movimientos espirituales que van de un objeto a otro, como aquellos con las que nos recreamos en momentos de ocio al recordar cosas diferentes.

Dentro de la predicción filosófica ha habido dos modos de conocer, o, si se quiere, dos tipos de conocimiento, cuyas aseveraciones de certeza han dominado la metodología científica. Uno de ellos es el empírico, que es de carácter inmediato, suministrado por la percepción de los sentidos. El otro es el conocimiento, «a priori», de naturaleza lógica, como el que se obtiene por las matemáticas.

Graves críticas se han hecho a la certeza obtenida por ambos modos de conocer. En primer lugar, se dice que en la percepción no existe conocimiento inmediato. La literatura psicológica general sobre la percepción tiende a mantener la tesis que afirma que el conocimiento perceptual no es nunca inmediato, sino que depende de un sistema conceptual de interpretación. En segundo lugar, la esperanza de obtener alguna sutil distinción entre verdades empíricas y lógicas ha sido sometida estos últimos años a un severo reto y, en consecuencia, el especial status otorgado tradicionalmente al conocimiento lógico o matemático, es hoy de carácter dudoso.

Patrick Suppes (1974) señala la prevalencia que tienen las correcciones en los trabajos sobre matemáticas. «Si las verdades de la matemática son conocidas "a priori" --dice--, parece absurdo encontrar que las correcciones en artículos de matemáticas sean más prevalentes que las correcciones de artículos de otro dominio cualquiera de la ciencia.» La razón, según dicho autor, está en que el criterio rector para juzgar un texto matemático es realmente un criterio radicalmente empírico, pues es «juzgado empíricamente por la evidencia presentada en los hechos de los matemáticos y, consecuentemente, es la razón para etiquetar las matemáticas como radicalmente empíricas. Puesto que la evidencia es presentada con una completitud no característica de ninguna otra área de la ciencia empírica, es posible "detectar errores" y llevar estos errores vigorosamente a la atención del autor».

Cualquiera que sea la aseveración acerca de la intuición matemática, la correspondencia entre la noción de consecuencia lógica y la noción de deducción sintáctica es la que se utiliza para cubrir el criterio de corrección de pruebas, desde una noción general intuitiva y semántica a una noción empírica y sintáctica, controlable, finalmente, de modo completamente empírico. La certeza que encontramos en matemáticas no nace de la consideración intuitiva o "a priori", sino del carácter de la evidencia ofrecida como soporte de una particular (empírica) aseveración.

6. Según Euler (1761), podemos distinguir tres tipos de certeza: la certeza física, que es la que tiene como base el conocimiento perceptual; la certeza lógica o demostrativa, de la que Euler toma como ejemplo las verdades de la geometría demostradas a partir de los axiomas de Euclides y, finalmente, la certeza moral basada en lo que nos cuentan los demás, como, por ejemplo, que existía Julio César o Jesucristo.

Estos tres sentidos de la certeza tienen una fuerte base racional. A pesar de los razonamientos de Suppes, existe una distinción entre la certeza física y la demostrativa, aunque no sea más que por el hecho de que las pruebas matemáticas se publican como un todo y sin recurrir a descripciones empíricas de datos y que el criterio para la corrección depende en última instancia del criterio sintáctico aplicado a las palabras y símbolos de las pruebas. La distinción es la que existe entre lo que hemos llamado empirismo radical y empirismo de las ciencias experimentales

Ahora bien, cuando leemos el informe hecho por un científico acerca de un experimento llevado a cabo por él, hemos de confesar que la certeza que obtenemos acerca de las resultados de dicho experimento es del tipo moral según la calificación de Euler. Podemos, pues afirmar, sin gran riesgo, que todo conocimiento científico, al ser de algún modo empírico, posee una certeza que no pasa de ser moral y, en consecuencia, falible. De aquí nace la necesidad de sustituir, en cuanto al conocimiento científico se refiere, la lógica de lo cierto por la lógica de lo probable.

Durante todo el siglo xviii hubo un gran movimiento en torno al análisis de los errores de observación y son famosas, a este respecto las Memorias publicadas por Simpson, Lagrange, Laplace y el propio Euler, entre otros. En todas estas Memorias hay una cosa que llama la atención: se reconoce la posible existencia de errores en la medida y su estudio sistemático, pero no se examina, ni se plantea siquiera la existencia o no existencia de un valor exacto de la magnitud de medida. La filosofía determinista de Laplace dominaba de tal modo el ambiente de la época, que las condiciones probabilísticas, incluidos errores, eran atribuidas a la ignorancia de las verdaderas causas, y se tenía el conocimiento de que el universo físico de la naturaleza, que en principio, somos capaces de lograr los valores exactos de las cantidades físicas que deseamos medir.

Esta misma aptitud fue observada durante el siglo xix. En toda la ciencia de este siglo estuvo constantemente implícita la idea, de que con esfuerzo suficiente, siempre es posible lograr una cifra exacta más en la medida. Que sepamos, nadie planteó la tesis de que esto era un error, que existían continuas fluctuaciones aleatorias y que el concepto de valor exacto no tiene sentido claro.

Durante el siglo xx siguió creyéndose en la posibilidad de alcanzar la certeza en la ciencia, hasta que el desarrollo de la mecánica cuántica empezó a agrietar la que parecía inconmovible roca de la fe científica. Empezó a reconocerse que no tiene sentido afirmar que puede medirse una cantidad física determinada, con precisión arbitraria, en conjunción con la medida simultánea de otras cantidades físicas relacionadas con la primera. Pues en el estricto sentido determinista de Laplace, para predecir el curso de los acontecimientos se requiere la medida exacta y simultánea del movimiento y posición de cada partícula, y tal medida simultánea y precisa de posición y momento no es posible en virtud del principio de incertidumbre, enunciado, por primera vez, por Heisenberg hacia l925.

7. El primer intento de Heisenberg fue dirigido a liberar la teoría atómica de «inobservables», es decir, de magnitudes inaccesibles a la observación experimental. Estas magnitudes, por ejemplo, aparecían en la teoría de Bohr, ya que no hay nada observable de tipo experimental que corresponda a las órbitas de electrones. Heisenberg creía que al liberar la teoría de Bohr de estas magnitudes inobservables constreñía sus limitaciones.

Aunque la teoría de Heisenberg es racional y congruente con la experiencia, dada la importancia que tiene en el tema que nos ocupa, creemos oportuno dedicarle un breve comentario.

Hay diversos modos de establecer el principio de Heisenberg. Creemos que el más sencillo consiste en explotar la idea de que pares de variables, como por ejemplo, el momento y posición de las partículas deben tener un producto de varianzas superior a cierta constante positiva. Hablar de varianzas en el sentido de la estadística, implica suponer que estas variables son aleatorias. Intuitivamente, esto no parece tener nada de anormal. Si medimos los pesos y las estaturas de la población española y calculamos las varianzas correspondientes a esas dos magnitudes, parece lógico esperar que el producto de esas varianzas superará cierta cantidad positiva, cosa que avala, por otra parte, el resultado de la experiencia.

Pero la diferencia entre estos hechos y lo que ocurre en la mecánica cuántica está en que en esta última se ha encontrado una variación análoga en partículas sometidas a idénticas pruebas experimentales. Por pruebas idénticas quiere decirse aquéllas que se realizan con el mismo equipo, de tal suerte que cuando las partículas están preparadas para pasar por el equipo de medida, lo único que las puede diferenciar es su número de orden. Así, dos electrones que pasan por el mismo equipo tienen la misma masa y carga; sólo se distinguen por su número de identificación. Deteminísticamente, se debiera esperar el mismo fenómeno como resultado de repeticiones idénticas del mismo experimento, pero esto no es lo que ocurre.

Una primera explicación o, si se quiere, hipótesis de trabajo, fue la concepción de que en los fenómenos de mecánica cuántica existen variables ocultas. Si electrones, diferenciados sólo por su número de identificación, al pasar por el mismo aparato dan resultados diferentes, debe haber causas ocultas que expliquen estas diferencias. Los trabajos se dirigieron en esta dirección y hasta la fecha, la detectación de estas causas ocultas ha sido infructuosa. Estamos, pues, frente a una situación que replantea los postulados hasta ahora aceptados acerca de la certeza. En situaciones experimentales, distintas de aquellas que han conducido a la clara extensión de un estricto determinismo, se reflejan fenómenos que nos mueven a aceptar una aptitud distinta acerca de la certeza: partículas idénticas, salvo el número de identificación, que se comportan distintamente en relación con un mismo equipo de medida, nos dan pie para argumentar contra el determinismo estricto, causalidad estricta y certeza estricta. Esto es el gran reto lanzado por la mecánica cuántica a la ciencia y filosofía actuales.

REFERENCIA BIBLIOGRAFICA

D'ALEMBERT, J. R. (1954): «Croix ou File», en Enciclopedie on Dictionaire raisonné. Paris.

ANCILLON (1974): «Doutes sur les bases du calcul des probabilités». Mem. Ac., pp. 3-32. Berlin.

BELL, J. S. (1964): «On the Einstein Podolsky Rosen paradox». Physics, l, pp. 195-200.

__________ (1966): «On the problem of Hidden Variables in quantum mechanics» . Rev of Modern Physics, 38, pp. 447-452.

BOCHENSKI (19ó9): Los métodos actuales del pensamiento. Ed. Rialp, S. A. Madrid.

CARNAPS, R. (1962): Logical .foundations of Probability. Chicago.

FlNETT1, B.de (1970): Teoría de la probabilitá. Giulio Einaudi edt. (2 vol.). Turín.

__________ (1981): «Probabilité: Attention aux falsifications». Rev. d'Econ. Pol., 91, an. 2, pp. 129-162.

GLEASON, A. M. (1957): «Measure on the closed subspaces of Hilbert space» . Jour. Math. Mechac 6, Pp. 885-893.

HUME, D. (1739): Treatise on human Nature, Part. III, Book l.

J EFFREYS (1939}: Theory of' Probability. Clarendon Press. Oxford.

KEYNES, J. M. (1921): A treatise on probability. MacMillan. Londres.

KOHLRAUSCH, K. W. F. (192b): «Der experimentelle Beweis fur den statischen Charrkter des radioaktiven Zerfalls gesetzes. Ergebnisse der der Exakten Nuturwissenschaften, 5, pp. 192-212.

LAPI.ACE, S. (1812): Thorie analitique des probabilitiés. Paris.

LOCKE, J. (1690): Essay concening human undestandink. Londres.

LUKASIEWICZ, J, (1975): «Estudios de lógica y filosofía» Rev. de Occidente. Madrid.

MACKIE, J. L. (1793): Truth. Prohabitity and Parudox, Oxford Univ. Press.

PONCARE, H. (1896): Calcul des probabilités. París.

POPEER, K. R. (1967): La lógica de la investigación científica. Tecnos. Madrid.

RUTHERFORD, E., y GEIGER, H. (1910): The Probability variations in the distribution of particle Philosophical Mag. Londres, Edimburgo y Dublín.

SAVAGE, J. L. (1961): The foundations of Statistic Reconsidered. Stud. in Subjective Probability, N. Kyburg y H. Smokler. J. Wiley. Londres.

SPINOZA, B. (1675): Ethices, 1,p. 33.

SUPPES, P. (1974): Probabilistic Methapysic. Upsala.

TARSKY (1935): «Grundzuge des Systemenkalkuls» . Fund. Math., 25

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería