Ir al contenido principal

Consideraciones en torno al concepto de probabilidad e incertidumbre

Estadística Española, 1968

Consideraciones en torno al concepto de probabilidad e incertidumbre

Por Segundo GUTIERREZ CABRIA
Estadístico Facultativo.

l. INTRODUCCIÓN

La discusión en torno al concepto de probabilidad ha ocupado gran parte del pensamiento humano durante los últimos cincuenta años. En ella han tornado parte, con los probabilistas y estadísticos, filósofos y aun cultivadores de otras ramas del saber. Esto explica la gran variedad de palabras, usadas en los tratados, que pretenden expresar el concepto de probabilidad. Fisburn -ver ref. 1, página 134- relaciona las siguientes: frecuencia relativa, grado de creencia, grado de convicción, grado de creencia racional, probabilidad empírica, probabilidad estadística, probabilidad física, probabilidad impersonal, probabilidad inductiva, probabilidad intuitiva, probabilidad de juicio, probabilidad lógica, probabilidad matemática, probabilidad objetiva, probabilidad personal, probabilidad psicológica, probabilidad subjetiva, suerte de azar. En este trabajo se introducirán otras denominaciones que guardan estrecha relación con estos conceptos.
Esta diversidad de acepciones proviene de que, en el lenguaje, se confunde, a veces, el concepto abstracto de probabilidad con sus interpretaciones del mundo real, con los modos de definición y hasta con los procesos operativos.

«Tomar la probabilidad como una función matemática de una cierta clase -escribe Kyburg- es tomarla como un término independiente en un sistema formal; pero cuando intentamos aplicar el sistema formal al mundo real, cuando empezamos a tratar de la probabilidad de algunos sucesos específicos o aun con ciertas clases de sucesos, o cuando tomamos la probabilidad como guía en la vida, estamos impelidos a afirmar más acerca de la noción de probabilidad. Debemos, pues, encontrar alguna conexión entre este ente abstracto que satisface ciertas estipulaciones matemáticas y el contenido pragmático, el significado real, de las importantes aserciones, de tipo científico y social, que contiene la palabra probabilidad o alguno de sus sinónimos.» (Ver ref. 2, pág. 3.)

La probabilidad objetiva, la lógica y la subjetiva, por no decir más que a las tres más importantes, no son otra cosa que interpretaciones del concepto de probabilidad; conexiones, como dice Kyburg, entre el ente: abstracto y el mundo real de las aplicaciones.

La diversidad proviene también de los distintos modos de definición: razón de dos números (como sucede en la definición de Laplace), límite de una sucesión bajo determinadas condiciones (caso frecuencialista), método axiomático, etc. Es de advertir que el método axiomático no va asociado indisolublemente a la idea de frecuencia relativa, ni a la medida, ni siquiera a los nombres de Kolmogoroff, Cramér, Frechet y demás patrocinadores de la probabilidad matemática. La teoría frecuentista de von Mises no es axiomática, pero él mismo confiesa que admite una formulación axiomática del tipo de la de Tornier. Bruno de Finetti da una axiomática de su concepto subjetivo de probabilidad (ver ref. 3, cap. I), y Koopman (ver ref. 4, párrafo 1) da otra de naturaleza más bien logicista.

En cuanto a los procesos operativos, la aditividad no negativa exigida por cualquier noción de probabilidad ha conducido, entre otros extremos, a identificar la teoría de la probabilidad con la de la medida. Es el concepto matemático de la probabilidad. Así lo proclaman probabilistas eminentes. Halmos escribe, por ejemplo: «La probabilidad es una rama de las matemáticas. La probabilidad numérica es una función de medida, esto es, una función P, finita, no negativa y aditiva numerable, cuyos elementos pertenecen a una σ-álgebra». (Ver ref. 5.).

Doob, en el prefacio de su libro -ver ref. 6-, dice: «No ha habido ningún compromiso con los matemáticos de la probabilidad. La probabilidad es sencillamente una rama de la teoría de la medida, con su propio énfasis y campo de aplicaciones, y no se ha realizado ningún intento para endulzar este hecho>>.

En términos análogos se expresa Loéve en su Probability Teory, pág. 149. Referencia 6.

Von Mises protesta contra esta excesiva matematización de la probabilidad: «Distribuciones de masa, de densidad, de carga eléctrica –escribe- , son, asimismo, funciones aditivas de conjunto». Si no hay nada específico en probabilidad, por qué definir la independencia en las distribuciones de probabilidad y no en las de masa? ¿Por qué considerar variables aleatorias, convoluciones, cadenas y otros conceptos específicos y problemas del cálculo de probabilidades?

La definición matemática de la probabilidad es clara y precisa, sin ambigüedades. De ella se dice, con ironía, que no entraña dificultades: una función de conjunto aditiva y no negativa, cuyo valor máximo es la unidad. ¿Se puede pedir algo más neto y preciso? En cambio, no dice nada del modo con que las ciencias particulares utilizan la probabilidad. Tampoco nos dice nada sobre Io que es más probable dentro de los conocimientos empíricos de la investigación y de la técnica, ni nos permite hacer ninguna predicción sobre el rumbo que seguirá nuestra sociedad cuando se guíe por taIes y tales máximas.

Están, pues, no sólo explicadas, sino aún justificadas, esas diversas acepciones dadas a la probabilidad.

La Teoría de la decisión, por ejemplo, creemos que ha de apoyarse en la interpretación subjetiva de la probabilidad, en el sentido de Ramsey, De Finetti y Savage.

2. PRINCIPIOS PÁSICOS.

Empeñados en ver los árboles, en este bosque de teorías, y escuelas, creemos, fundamental fijar algunas de las premisas en las que debe basarse todo estudio de probabilidad. Se nos ocurren las siguientes:

1. Lo primero que postulamos, como Ramsey, es la necesidad de admitir hipótesis o ficciones, como ocurre siempre que se trata de establecer relaciones en una ciencia, y que estas hipótesis o relaciones pueden variar con el tiempo.

2. A un juicio enunciado por una persona, en dos momentos distintos corresponden distintas probabilidades.

3. Pero confesamos, con Bruno de Finetti, que la coincidencia de opiniones puede considerarse como un hecho psicológico. Este hecho explica el éxito logrado tradicionalmente por la definición clásica de Laplace.

4. La noción de probabilidad cae dentro de lo prescriptivo y no de lo descriptivo. No se trata de describir la conducta actual del sujeto, sino una conducta a observar, por el mismo, que sea coherente, entendida la coherencia en el sentido de Kemeny o de De Finetti.

5. Las observaciones proporcionan una información que puede influir en las opiniones, pero no las confirman ni las refutan, por ser anteriores a ellas. El cambio de opinión se debe a nuevas observaciones u otros factores.

6. Hay que distinguir entre los valores observados y su interpretación; los primeros tienen un valor objetivo y la segunda un valor subjetivo.

7. Una aserción o suceso ofrece motivos de credibilidad; es lo objetivo de la probabilidad, basado en la estabilidad de las frecuencias. Los grados de creencia constituyen la parte subjetiva. El que no se crea en un suceso no quiere decir que no exista.

8. La elección de una opinión, entre varias admisibles, dice De Finetti, no es totalmente objetivo, ni entra dentro de la lógica de lo probable (ref. 3, cap. I).

9. Las verdaderas realidades en la teoría de la probabilidad -escribe Emile de Borel son las aplicaciones: las realidades son pólizas de seguros, muestras obtenidas por los biólogos y agrónomos, fenómenos observados y predichos por los físicos (ref. 7, 1).

10. Todo lo que no caiga bajo las leyes implacables de la macrofísica constituye un juicio de probabilidad, entendiendo por macrofísica aquella parte de la física que excluye la existencia de átomos y saltos cuánticos.

11. En probabilidad, lo mismo que en otros muchos conceptos científicos, no puede infravalorarse lo operativo. Desde este punto de vista, la probabilidad es la teoría de las funciones de conjunto aditivas y no negativas. Puede haber discusión sobre si estas funciones son simplemente aditivas o completamente aditivas, pero, en lo demás, todas las escuelas están de acuerdo. La discrepancia principal está en el significado y valor de la noción de probabilidad.

12. Las probabilidades son simplemente eso, probabilidades, independientemente de la interpretación que se les dé. Una probabilidad subjetiva puede intercambiarse con otra frecuencial. Esto es lógico y necesario, ya que, en muchos problemas de decisión, es preciso utilizar mezclas de ambas.

Puede observarse, en la lista anterior, que se han introducido varios elementos subjetivos. La razón es que en el estado actual de los estudios de la probabilidad no pueden ser ignorados.

Según Good -ver ref. 8, pág. 1- hay cuatro criterios principales para clasificar las teorías sobre la probabilidad:

a) La teoría puede depender o no de un sistema axiomático.

b) La probabilidad puede ser o no «objetiva», en el sentido de que puede suponerse o no la existencia de la probabilidad con independencia de las apreciaciones particulares de los individuos.

c) La teoría puede apoyarse en la noción de frecuencia o en la de los grados de creencia.

d) La probabilidad puede ir asociada o no a la idea de número.

3. EL CONCEPTO DE INCERTIDUMBRE.

EI concepto de incertidumbre suele considerarse como una de esas verdades primarias que se introducen por vía axiomática. Así lo reconoce Hadley ( ver referencia 10, pág. 1} cuando escribe: «La noción de azar o incertidumbre es tan fundamental que es dificultoso explicar lo que significa en términos de ideas más primitivas».

En esta frase de Hadley se observa, con todo, una identificación entre incertidumbre y azar que no nos parece adecuada, como tendremos ocasión de analizar. Ya en 1921, Frank Knight, en su libro Risk Uncertainty and Profit (ver ref. 11), distingue entre problemas de riesgo, cuando les son aplicables probabilidades frecuenciales y problemas de incertidumbre cuando no les son aplicables dichas probabilidades. Los problemas sobre beneficios y decisiones empresariales pertenecen, según él, a la teoría de la incertidumbre y no a la de riesgo. EI análisis realizado por Knight deja en el lector la impresión de que, caso de poder desarrollar una teoría de la incertidumbre, ésta debe ser distinta de la de la probabilidad en el sentido objetivista.

El profesor Ríos hace una distinción clara entre riesgo e incertidumbre, cuando escríbe:

«Ambiente de riesgo: Cada decisión puede dar lugar a una serie de consecuencias con una distribución de probabilidad conocida por el decisor, Por ejemplo, la cantidad de agua que recogerá el año próximo una presa es una variable aleatoria de ley conocida a través de los estudios meteorológicos.

Ambiente de incertidumbre: Cada decisión puede dar lugar a una serie de consecuencias y no tiene sentido hablar de ley de probabilidad, o tal ley es desconocida. Tal es el caso en que los distintos estados se producen como consecuencia de un hecho aislado imprevisible; por ejemplo, un nuevo descubrimiento científico, una guerra, etc.» (Ref. 14, pág. 10.)

«En el lenguaje corriente, los términos 'suerte' o 'mala suerte' son empleados por todo el mundo -como escribe Shackle- (ref. 9, pág. 73), y conviene admitir que estas expresiones son utilizadas cuando se quiere significar de modo preciso el estado de ánimo frente a una situación incierta: lo propio ocurre con las frases “no me sorprendería si...” o “estaría muy sorprendido si...”.» Según dicho profesor (ref .^, pág. 8^ ), con la palabra incertidumbre definimos algo que está en los pensamientos o en los sentimientos de una persona, algo subjetivo. «Ella da dimensión y facultad de ordenar, en algún sentido, las respuestas sugeridas por cualquier cuestión propuesta, o para asignar una cierta posición.»

Estas ideas del profesor Shackle rompen completamente con el pensamiento tradicional y, a nuestro modo de ver, pueden señalar un punto nuevo de arranque para intentar una sistemática de las diversas teorías de la probabilidad, al propio tiempo que una nueva filosofía de la teoría de la decisión.

Shackle no solo separa el campo de la probabilidad del de la incertidumbre, sino que los contrapone: «Es difícil sobreponerse a la idea de que los resultados previstos son ficticios e imaginarios y deducir de ello todas las consecuencias. Estas ideas y sus implicaciones están en la raíz de la tesis que mantengo. Esta consiste en la afirmación formal de que todas las comparaciones establecidas por el decisor son ficciones contenidas en el pensamiento del sujeto, y lo decimos aun cuando la observación parezca enseñar lo contrario; en lo que puede llamarse una decisión nacida de una inspiración; la decisión no es engendrada totalmente por el pasado. Un universo cuyos resultados estuvieran sometidos a leyes de probabilidad calculables, y que los hombres intentaran descubrir, y según el cual ellos se condujeran sería un universo en el que reinaría la certeza y no la incertidumbre; en tal universo, las consecuencias de un acto previsto podrán ser enumeradas en una lista, y esta lista considerada como completa; no hay lugar aquí para la decisión, la cual debe ser, a la vez, no arbitraria y no previsible». (Ref . 9, pág. 8.)

¿Qué pensar entonces de toda la doctrina entrópica como medida de la incertidumbre? Pues de sobra es conocido que la función de entropía se define como una función de probabilidad.
La contestación completa a esta pregunta no puede ser satisfecha hasta que demos la noción de «variable asignada a la incertidumbre» dentro del encuadre del profesor Shackle. Pero ciñéndonos al caso en que esta variable se reduce a la probabilidad, el profesor Vegas explica así la aparente contradicción: “Todo fenómeno aleatorio, precisamente por la incertidumbre que entraña, lleva consigo una determinada información en el momento en que se presenta. Es decir, la realización concreta del fenómeno en su suceso comporta una cierta cantidad de información. El fenómeno aleatorio considerado a priori supone incertidumbre, ya que puede presentar diversos resultados, y, a posteriori, una vez realizado un suceso desaparece la incertidumbre y surge la información que proporciona. De acuerdo con esto, se trata de medir la cantidad de información que lleva consigo la presencia de un suceso determinado”. (Ref. 12, pág. 3).

En la página 8 del mismo estudio leemos: «Si queremos medir la información que corresponde a cualquier suceso o fenómeno, calcularemos el valor medio de -log. pi, en ruyo caso tendremos H= - ∑i(log. p; )pi . Esta expresión nos da la cantidad de información que, en término medio, corresponde a un suceso cualquiera. Esto, considerado ex-post, es decir, cuando se ha realizado el fenómeno. Cuando se considera ex-ante es, como sabemos, la medida de la incertidumbre del fenómeno».

En todo caso, la explicación anterior carecería de significado si no se diera a las posibilidades que figuran en la función entrópica una interpretación subjetiva, de acuerdo con su origen bayesiano. Así, y sólo así, puede introducirse dicha función en la valoración de dos magnitudes tan contrapuestas como la información y la incertidumbre.

Como aclaración a esta aparente paradoja, recordaremos algo de la que, en nuestro trabajo «La teoría de la información y sus fundamentos estadísticos», escribíamos: «Desde el momento en que hagamos esta distinción entre lo anímico y lo meramente corpóreo nos encontramos con que la información tiene mucho de misterioso, o, por lo menos, de difícil esclarecimiento. Si, por el contrario, admitimos que en una comunicación no hay más que máquinas de información es preciso investigar sobre la naturaleza y origen de la información. En el caso en que se llegara a identificar la máquina con el cerebro se habría llegado a una estructura perfectamente científica de la teoría de la información.

La cibernética parece haber aclarado un poco las cosas. La paradoja del famoso diablillo de Maxwel desaparece desde el momento en que interviene una voluntad que realiza una previa selección de velocidades. La presencia de esta voluntad conduce a un aumento del orden y, por consiguiente, a una disminución de la entropía del sistema. Los sistemas orgánicos, en los que el hombre es un componente, están sometidos a un aumento de entropía; pero cuando interviene la voluntad ordenadora disminuye esta entropía». (Ref. 13).

El desorden es aquí sinónimo de incertidumbre. La voluntad ordenadora arroja luz sobre el caos al asignar un valor a la información en forma de probabilidad subjetiva. «La ciencia -terminábamos en nuestro trabajo- se pronuncia, una vez más, en favor de ese YO que todos llevamos dentro y que se resiste a confundir la sociedad humana con un simple sistema de comunicación.»

Algo de esto parece querer decir Shackle cuando escribe: «... tratar la incertidumbre como un desanclaje de la imaginación, como un reservorio positivo, neutro en sí, pero que el espíritu humano puede domesticar según sus designios, anticipando una experiencia». ( Op. cit., pág. 81.)
La entropía crece con la incertidumbre y ésta con el alejamiento en el tiempo. A medida que se observa una serie de momentos que se alejan del actual, la incertidumbre se hace menos limitada. Por otra parte, la limitación en la incertidumbre es fundamental para la elección de las decisiones, ya que la decisión es una elección en presencia de una incertidumbre limitada.

La elevación del tanto de interés, al pasar de un plazo corto o medio a un plazo largo está justificada en esta caracterización de la incertidumbre, ya que una mayor incertidumbre implica un mayor riesgo y éste merece siempre una consideración de tipo económico.

4. PROBABILIDAD Y VARIABLES DE INCERTIDUMBRE.

De acuerdo con los principios del párrafo 2 supondremos que, con respecto a una cuestión o suceso, hay respuestas o hipótesis generalmente admitidas y otras rechazables. Una hipótesis rechazada por el asenso general debe poseer una característica que la distinga de las demás relativas a la misma cuestión. Tomando como base la hipótesis o respuesta rechazada se puede establecer una comparación entre todas las hipótesis relativas a una misma cuestión, según su mayor o menor admisibilidad. Esta comparación puede ir desde la simple ordenación parcial a las distintas clases de medidas, como puede verse en Fishburn (ref. 1, cap. IV).

Con el fin de expresar tales comparaciones, el profesor Shackle (ref. 9, página 39) asigna a cada respuesta o hipótesis un valor de una cierta variable. El problema está en saber si esta variable asignada a la incertidumbre ha de ser distributiva o no distributiva.

El razonamiento de Shackle es como sigue:

“Si un individuo piensa que la respuesta a cierta cuestión es justa, admite que responde totalmente a esta cuestión y no da lugar a ninguna otra respuesta. Podrá representarse por el número 1. Si ahora esta respuesta se puede descomponer en diferentes respuestas, tales que juntas conduzcan al mismo resultado, deseará aplicar, a cada una de ellas, una cota tal que, juntas, representen la sucesión entera de respuestas parciales: él las dotará, pues, de una fracción tal que, en total, representen la unidad. Designando estas cotas por p y poniendo 0 ≤ p ≤ 1; aplicada a un conjunto de respuestas relativas a una misma cuestión, la fracción p será una variable asignada a la incertidumbre distributiva.”

La respuesta a ciertas cuestiones constituye, en muchos casos, una sucesión discreta, pero en otros dará lugar a una sucesión continua. Cuando, en la práctica, suceda esto última Shackle supone que la hipótesis cae dentro de cierto intervalo preciso y reduce así toda variable continua al caso discreto.

Para que una variable sea medible, Shackle exige que la lista de respuestas posibles a una cuestión sea específica y completa, es decir, exhaustiva. En caso contrario, existen hipótesis cuya naturaleza y número no puede determinarse, a las que llama hipótesis residuales, como las definidas por la cláusula «otras respuestas». La variable distributiva corresponde, pues, en su esquema, a una lista completa sin elemento residual; en el caso contrario, tenemos una variable no distributiva.

Estos dos tipos de variables corresponden a dos modalidades distintas de incertidumbre que pueden presentarse en el espíritu del sujeto decisor: por un lado, la incertidumbre se le planteará al tomar conciencia de su ignorancia sobre la cuestión planteada y, en consecuencia, se verá obligado a admitir una diversidad de respuestas a la misma; por otro, surgirá al considerar cada respuesta en particular y verse obligado a no poder aceptarla o rechazarla totalmente. En el primer caso se encuentra ante una pluralidad de hipótesis, y en el segundo ante la falta de plausibilidad de cada una de ellas.

Cuando la variable distributiva, «además de asignar un grado de incertidumbre a cada hipótesis, o circunstancia aplicada a un caso particular, permite también responder válidamente a una cuestión formulada en términos generales, hay que abandonar el término impropio de variable distributiva de incertidumbre y hablar de probabilidad». (Ibíd.)

La utilización de la noción de probabilidad como variable asignada a la incertidumbre queda fijada por Shackle en estos términos:

«Cuando la probabilidad es objetiva y se basa en la observación se reduce a frecuencias relativas. Y estas frecuencias relativas representan un conocimiento. Pero el conocimiento y la incertidumbre se excluyen mutuamente, y cuando hablamos de incertidumbre no podemos calificar ni precisar sus grados mediante una variable cuyos valores representarían un conocimiento de tal naturaleza que podría responder a la cuestión misma sobre la que existe incertidumbre. Esto es fundamental. El cálculo actuarial se aplica a una experiencia divisible, y el caso individual no se introduce sino mediante la asociación con un conjunto que forma él mismo una experiencia divisible. Para responder a la cuestión, ¿cuál será el resultado de tal experiencia?, no hay necesidad de variables de incertidumbre, ni de considerar hipótesis incompatibles, hay conocimiento cierto. Ante una experiencia no divisible ni seriable, el decisor sólo puede responder apelando a una probabilidad subjetiva, la cual no se apoya en ningún conocimiento ni en ninguna base matemática, ni en ninguna ponderación, salvo si la cuestión es puramente formal y se refiere a sus cesiones aritméticas. Estamos ahora en el nudo de la cuestión: si la hipótesis es no divisible y la experiencia única, las hipótesis relativas a los casos posibles rigurosamente incompatibles, ¿Qué significa la expresión: repartir los coeficientes de ponderación?» (Op. cit., pág. 44.)

Tanto en el caso divisible y seriable corno en el no divisible ni seriable, Shackle se niega a admitir que las situaciones de un mismo individuo se repitan en dos instantes diferentes, ni que los puntos de vista que le determinan a obrar sean distintos y diferentemente ordenados. Esto implica renunciar a toda «idea constructiva de tablas de frecuencias». Lo más que admite Shackle es que estas «experiencias, que en sentido estricto son diferentes, puedan, por razones prácticas, ser confrontadas. Pero, para muchas otras experiencias, las confrontaciones y clasificaciones son ilógicas y completamente imposibles». Son las experiencias que él llama irreversibles, en las que, al realizarse cada acto, destruye las condiciones en las que ellas se producen. Estas experiencias suelen tener el carácter de unicidad y son de gran interés en la teoría de la decisión. Hay, como puede observarse, un cierto paralelismo entre estas ideas y nuestros «principios» 2, 5 y 6, pero sólo una cierta concesión a los 3 y 7, razón por la cual consideramos la concepción de Shackle, en general, como no probabilística. El mismo afirma categóricamente: «La probabilidad está ligada a un conocimiento actuarial, y de ninguna manera conviene al papel de variable asignada a la incertidumbre».

5. GRADO DE CREENCIA Y GRADO DE SORPRESA POTENCIAL


Hay dos conceptos que pretenden subrogarse en el lugar de la probabilidad matemática, ambos de carácter intuitivo y de difícil definición. Nos referimos al «grado de creencia» y al «grado de sorpresa potencial». Shackle contrapone el segundo al primero, o mejor, pretende, con el segundo, representar la idea que corrientemente asignamos al primero. Por todo ello vamos a dedicar unas líneas al análisis de ambos.

Si repasamos la historia de la probabilidad encontraremos que a la expresión «grados de creencia» se le han asignado diversos significados. En el esquema de la filosofía y de la física clásica, donde todo se basaba en la idea de un universo determinista, la probabilidad presuponía una cierta ignorancia. Para Bernouilli y Laplace, la probabilidad expresaba un «grado de confianza» sobre la realización de un acontecimiento cualquiera. El «ars conjectandi », o arte de conjeturar, consistía, precisamente, en estimar los mejores valores de las probabilidades.

En 1847 escribe De Morgan su «Formal Logic», donde se lee: «No hay diferencia alguna entre el conocimiento que tenemos de nuestra propia existencia y el que dos y dos son cuatro. A este sentimiento absoluto e infalible le llamaremos ´certeza´. Poseemos grados menores de conocimiento que ordinariamente llamamos `grados de creencia´, pero, en realidad, son grados de conocimiento...

Puede parecer extraño tratar el «conocimiento» como una magnitud, lo mismo que la longitud, el peso o la superficie. Esto es lo que hacen todos los escritores que tratan de la probabilidad, y lo que han hecho sus lectores siempre que han leído un libro sobre la materia. Pero no es habitual hacer una manifestación tan clara como la que yo hago ahora y, por ello, considero que es necesario dar alguna justificación.

Por grado de probabilidad significamos realmente, o debemos significar, grado de creencia... Probabilidad, entonces, se refiere, e implica, creencia, más o menos, y creencia no es más que otro nombre del conocimiento imperfecto, o sea, una manifestación de la mente en un estado de conocimiento imperfecto», (Cit. por Kyburg, refer. 2, pág. 9.)

Vemos aquí que De Morgan identifica la probabilidad con los grados de creencia, a los que considera como una magnitud medible.

Para Keynes, por el contrario, los grados de creencia «racional» vienen asociados a la relación lógica entre dos conjuntos de proposiciones que se quiere comparar y a la que se asigna el concepto de probabilidad. De él son estas palabras; «Consten nuestras premisas de un conjunto de proposiciones h y nuestras conclusiones de un conjunto de proposiciones a; si un conocimiento de h justifica un grado de creencia racional en a, de grado A, podemos decir que hay una probabilidad-relación de grado A entre a y h». (Refer. 16, pág. 4.)

Keynes niega que todos los grados de creencia sean medibles y aun comparables. Esto mismo sostiene John Venn, para quien los grados de creencia son de origen psicológico y no lógico. En el capítulo VI de su libro Logic of Chance, después de arremeter duramente contra De Morgan, a causa de las ideas emitidas por éste en su Formal Logic y hacer una defensa cerrada del punto de vista frecuentista, concluye: «Nos hemos limitado a explicar ´la medida de nuestra creencia´ cuando ocurre un suceso simple y juzgamos únicamente por las frecuencias estadísticas con que tales sucesos ocurren, ya que tales series de sucesos constituyen nuestro punta de partida; pero no nos limitamos a inquirir si en cada caso en que las personas tienen, o afirman tener, una cierta medida de creencia, debe existir una tal serie de frecuencias a la cual referirla o por la cual justificarla. Aquellos que parten del aspecto subjetivo y miran la probabilidad como la ciencia de la creencia cuantitativa están obligados a hacerlo, pero nosotros estamos libres de esta obligación».

Para Ramsey la noción de grados de creencia está relacionada con la de utilidad. «Podemos suponer -dice- (ver refer. 15, pág. 169) que el grado de creencia es algo preceptivo por si mismo;... que las creencias difieren en la intensidad de un sentimiento que suele acompañarlas, el cual puede llamarse sentimiento de convicción, y que por grado de creencia nosotros entendemos la intensidad de este sentimiento. Esta interpretación será muy perjudicial y a mí me parece observablemente faIsa...

Estamos, por tanto, conducidos a la segunda suposición; esto es, que el grado de creencia es una proposición causal que podemos expresar vagamente como la meta por la que estamos dispuestos a actuar; no se afirma que una creencia es una idea que debe conducir actualmente a la acción, sino que conducirá a ella en circunstancias deseables...

Se objetará, sin duda, que nosotros sabemos la fuerza con que creemos algo y que sólo podemos llegar a este conocimiento si medimos nuestras creencias por introspección. Esto no me parece a mi necesariamente cierto; en muchas casos, creo, nuestro juicio con respecto a la fuerza de nuestras creencias se refiere, más bien, al modo como actuaríamos en hipotéticas circunstancias.
De este mismo parecer es Borel, quien afirma que el único procedimiento correcto para medir los grados de creencia de una persona es analizar su conducta. La doctrina «behaviorista» de Ramsey y Borel ha ganado a la mayor parte de los probabilistas subjetivistas y dado lugar al conocido método de la subasta o apuesta.

A Koopman se le puede situar dentro de la línea logicista. Como Keynes, asigna a los grados de creencia una interpretación intuitiva y distingue entre grados de creencia que pueden ser valorados, mediante el examen de la conducta del sujeto, y otros que no pueden compararse en orden y magnitud.

La posición de las tres escuelas que pretenden interpretar los grados de creencia, en relación con la probabilidad, puede resumirse así:

Dada una proposición S y un cuerpo de evidencia E, dicen los logicistas, hay un número real, y sólo uno, p, tal que puede decirse correctamente que la probabilidad de S, con respecto a E, es p.
Los subjetivistas niegan que esta relación, entre una proposición y un cuerpo de doctrina, sea puramente lógica. Se trata, según ellos, de una relación «casi lógica» y el valor numérico, asignado a ella, representa un grado de creencia. Este valor no está unívocamente determinado. Una proposición dada puede tener cualquier probabilidad entre 0 y 1 con respecto a un cuerpo de evidencia dada, según la inclinación de la persona cuyo grado de creencia representa aquella probabilidad.

En cuanto a los frecuentistas, como hemos podido ver en venn, toda creencia ha de arrancar de la consideración de una serie de frecuencias.

De Finetti puntualiza que la teoría de la probabilidad subjetiva no es una teoría psicológico-empírica de los grados de creencia. «No puede decirse –escribe- que las gentes calculen según la aritmética o piensen según la lógica, a menos que se entienda que las equivocaciones en aritmética o en lógica son cosa natural para todos nosotros. Es todavía más natural que las equivocaciones sean corrientes en los dominios más complejos de la probabilidad; no obstante, parece correcto decir que, fundamentalmente, las gentes se conducen según reglas de coherencia, aunque frecuentemente las violen ( lo mismo que puede decirse que aceptan la aritmética y la lógica). Pero, a fin de evitar frecuentes malentendidos, es esencial puntualizar que la teoría de la probabilidad no es un intento de describir la conducta actual; su objeto es una conducta general coherente, y el hecho de que las gentes se porten individualmente con más o menos coherencia no es esencial.» (Refer. 3, cap. II.)

Tras esta breve excursión a través del campo cultivado por los más representativos tratadistas en la materia, en el que hemos espigado diversas interpretaciones de los grados de creencia, volvemos a la interesante y delicada cuestión surgida de la consideración de aserciones o sucesos con hipótesis residuales

En estos casos es preciso asignar a la incertidumbre, variables no distributivas. Shackle propone para tal fin la sorpresa potencial.

Entre lo falso con certeza, a lo que se puede asignar el valor 0 y la verdadera con certeza, a lo que se puede asignar el valor 1, cabe atribuir un sin fin de valores de una variable distributiva. En la práctica, según Shackle, el único ejemplo de variable de incertidumbre distributiva que puede darse es el de las probabilidades subjetivas a priori.

«Quizá sea posible, se pregunta dicho autor, descubrir numerosas clases de variables de incertidumbre no distributivas. Una, al menos, nos parece poseer ciertas ventajas. Contrariamente a lo que sucede en el casa distributivo, el extremo superior de esta variable es proporcionado por la idea de `falso con certeza´. Su extremo inferior, por el contrario, no corresponde a la idea de verdadero 'con certeza', sino a la de perfectamente posible.» (Óp. cít., pág. 87.)

Si a alguien no le sorprende un acontecimiento es porque lo considera perfectamente posible. La certeza de la falsedad de una proposición corresponde a un estado del espíritu que no exige definición. El rechazo de la proposición «tal hecho sucederá» equivale a considerar el hecho como imposible. A la posibilidad perfecta asigna Shackle una sorpresa nula, y a la imposibilidad el máximo absoluto de sorpresa. En contra de muchos autores, como Jerzy, Shackle distingue grados de posibilidad a los que hace corresponder grados de sorpresa potencial.

No se trata de una sorpresa real, sentida, sino de una sorpresa potencial, es decir, de la que sentiríamos si supiéramos que el hecho hubiera ocurrido. La idea de sorpresa viene de la duda ex-ante de la posibilidad de un suceso o de un resultado. Es la extrañeza anticipada, «un estimador de la sorpresa efectiva», en el análisis de Shackle, para quien esta última admite grados, mientras la primera no.

Debemos insistir en el hecho de que «cuando la incertidumbre surge en el espíritu de una persona, debido a la pluralidad de respuestas que se le presentan como contestación a una cuestión cualquiera, esas respuestas son alternativas y se excluyen mutuamente. Conceder crédito a una de ellas es arrojar el descrédito sobre las demás. Recíprocamente, no conceder crédito a una de ellas no quiere decir que se le conceda a las demás. De este hecho se deduce, como cosa natural, que se necesita una noción de variable asignada a la incertidumbre, a fin de dar una etiqueta a las diferentes respuestas, más o menos ligadas a la idea de `verdad con certeza´ o `falsedad con certeza`, que utilice más bien la idea de descrédito. El descrédito nulo es representado por la sorpresa nula». (Op. cit., pág. 55.)

Vemos, pues, que, según Shackle, el grado de creencia concedido a una hipótesis puede ser debido y exactamente representado por medio de la sorpresa potencial... Al proceder así hemos conferido a los grados de creencia una interpretación que «no será aceptada por aquellos que piensan que se puede tener una creencia positiva en cada una de las hipótesis alternativas mutuamente opuestas». (C}p. cit., pág. 53 ).

Cuando uno está completamente cierto de que una hipótesis se verificará, esto implica que las demás hipótesis alternativas no se verificarán. Será atribuida sorpresa cero a la primera, y grado máximo absoluto a las contrarias. Esto indica, según Shackle, que la sorpresa potencial «puede representar la certeza perfecta y, al mismo tiempo, expresar algo sobre la estructura del estado del espíritu que ello implica... Si queremos expresar el grado de creencia en una hipótesis de un individuo, representaremos este grado de creencia por medio de dos grados de sorpresa: uno asociado a la hipótesis considerada, y el otro a su contraria. Ciertamente, esto es un poco más complicado que decir que este grado de creencia está representado directamente por una probabilidad subjetiva, pero es mucho más explicito; pues así se informa sobre los grados de posibilidad subyacentes al grado de creencia y que le proporcionan una estructura... Gracias a esta estructura, concluye Shackle, los grados de creencia en una hipótesis no son solamente grados, sin más, sino que dan una explicación de naturaleza cualitativa». (Pág. 54.)

En cuanto a las frecuencias observadas, nada se opone, según él, a que una sorpresa potencial sea influida por ellas. «Si se sabe que en una sucesión de n pruebas el suceso A ha sucedido n veces, habrá un cierto valor numérico del cociente m/n por debajo del cual el resultado A aparecerá, en nuestra lengua, algo sorprendente, es decir, menos que perfectamente posible. Este nivel crítico variará con los individuos y las circunstancia.» (Pág. 53.)

Shackle ha sistematizado su teoría en una serie de 17 proposiciones, de las cuales las nueve primeras tienen carácter de axiomas.

6. LAS IDEAS DE SHACKLE DE CARA A LA TEORÍA DE LA DECISIÓN.

La originalidad de las ideas del profesor Shackle han despertado la curiosidad de filósofos, probabilistas, economistas, psicólogos, etc. Pero su máximo interés está en su entronque con la teoría de la decisión.

Como elemento original y primario de la toma de decisión sitúa Shackle la inspiración, en vez del encadenamiento necesario de consecuencias originado en las conductas humanas previsibles y calculables. Resulta así la decisión como una especie de creación continua a través de la historia. Hay, en esta concepción, una preponderancia de lo humano sobre el azar y sobre el cálculo de la máquina, una reivindicación de ese YO en cuya defensa, hemos echado nosotros también nuestro cuarto a espadas. La decisión es pensamiento y no un simple reflejo determinado por el azar.

La aparente oposición entre libertad y decisión queda bastante dilucidada en la teoría de Shackle. Si a cada acto considerado se le puede asignar una sola sucesión de consecuencias, las cuales sobrevienen necesariamente, el decisor podrá ordenarlas de acuerdo con la atracción o deseabilidad que sobre él ejerzan, y entonces, dice Shackle, ya no habrá decisión, sino selección automática entre varios objetos. Para él la decisión se sitúa frente a la incertidumbre limitada, entre la ignorancia absoluta y el conocimiento perfecto.

El profesor Shackle pone su acento principalmente en las decisiones únicas, aisladas, que realiza el individuo, más que en los encadenamientos ciertos de situaciones globales sucesivas. El profesor Jurg Niehans defiende esta posición, cuando escribe: «Lógicamente, cada decisión es necesariamente única; siempre que se aplican experiencias similares a un grupo de fenómenos no puede hablarse de decisiones individuales. Que la aplicación de probabilidades resulta inadecuada para la medida de la incertidumbre se desprende del hecho de no ajustarse a decisiones únicas». (Refer. 18.) Entra así Niehans en el debate iniciado más atrás a propósito de la función de entropía como medida de la incertidumbre.

En cambio, Niehans no sigue a Shackle en la elección de los criterios de elección en las decisiones. «Lo que hace cada uno depende ampliamente, dice, de las consecuencias que espera de sus actos. De varias hipótesis consideradas, la más que puede decirse es que el resultado estará de acuerdo con una de ellas, pero no puede pretenderse conocer con cuál. Cada hipótesis inicial es, pues, guiada por un juego de posibles resultados y su rango, en el orden de preferencias, cambiará naturalmente a medida que se afirmen posibilidades nuevas a las que puedan adaptarse. Es, pues, imposible elegir la iniciativa preferida al principio, buscando únicamente la sucesión más deseable; es preciso disponer de otro elemento para definir la elección.»

Y continúa: «El profesor Shackle traza una línea divisoria que separa, por un lado, la decisión única, y, por otro, las decisiones repetidas. Esta interpretación parece conducir a la idea falsa de que el uso de las probabilidades se justifica solo para el caso de una sucesión de decisiones, comparables entre sí dentro de un lapso de tiempo suficiente. Será, por el contrario, criticable muy a menudo en el caso de una decisión única. El problema de las probabilidades amenazaría entonces con perderse en una discusión estéril sobre el número de veces que podría repetirse una decisión en condiciones análogas. Es un callejón sin salida en el que no hay interés en meterse; parece preferible, en lugar de distinguir dos tipos de decisiones, hablar de tipos diferentes de probabilidades». (Refr. 18.)

Consecuente con esta idea, considera un primer tipo de probabilidades, que llama probabilidades-incertidumbre, para describir la incertidumbre de los posibles estados de la naturaleza, y un segundo tipo que no tiene nada que ver con la incertidumbre y que especifica las frecuencias con que tal estado puede aparecer, dentro del grupo de los valores que constituyen todos los estados posibles. A éstas las llama probabilidades-frecuencias .

El segundo problema serio que plantea Shackle se refiere al uso que haya de hacerse de la probabilidad en teoría de la decisión. ¿Qué tipo de probabilidad adoptar en un problema determinado de decisión? ¿Podrá adoptarse alguno en aquellos casos en que la única actitud que puede tomarse respecto al suceso es la posibilidad de que ocurra? ¿Qué hacer cuando existe un número de hipótesis que tiende al infinito? ¿Qué hacer cuando no se puede medir la confianza de que el suceso ocurra, medida que es la base de la probabilidad? Por otra parte, la noción frecuencialista de probabilidad no puede aplicarse a casos aislados, y esto implica, como ya hemos visto, una grave restricción.

A todos estos interrogantes pretende contestar Shackle anteponiendo posibilidad a probabilidad. Hamblin prefiere la palabra «plausibilidad» que, según él, se incluye en la sorpresa potencial. Veamos cómo se expresa este autor con respecto al tema que nos ocupa: «La métrica de la teoría probabilista está bien establecida, es importante en las ciencias y sin reparos de lógica. Pero si decimos `va a llover mañana', o bien `iré esta tarde a casa del librero', ¿Es esto, aun vagamente, usar de probabilidades? ¿Hay alguna relación entre lo que decimos aquí y una interpretación de estados medibles de probabilidad, de modo que un grado de probabilidad pueda aplicarse a los hechos `lloverá' o `saldré', con todo lo que esto comporta de cálculos y desarrollos? Contrariamente al uso corriente, yo propongo responder no. Yo me coloco, pues, dentro de las concepciones propuestas por el profesor Shackle y le apoyo en ciertos problemas económicos: Hay que decir `plausibilidad´. La idea de plausibilidad está desarrollada en términos de lógica y en armonía con un sistema de índices numéricos. Con todo, estos índices numéricos no son métricas, no puede aplicárseles ninguna forma normal de cálculo. Esto significa decir que `P es plausible' será equivalente a decir que `P no dará lugar a sorpresa´; reducción que no se puede hacer si se emplea lógicamente el término `probable´». (Refer. 19, pág. 237.)

Otro problema que pretende resolver la teoría de Shackle es el que acontece frecuentemente en teoría de la decisión y de modo especial en teoría de juegos, cuando no se pueden enumerar las hipótesis posibles. Esto sucede con frecuencia en economía política. En estos casos cada jugar podría, a su aire y sin previsión alguna, inventar por si mismo una nueva regla de juego apropiada. Si una posición comporta elementos desconocidos, si no poseemos como base un conocimiento exacto para guiar nuestros actos, no podemos apoyarnos en la probabilidad. La mayor parte de los fracasos cosechados por la teoría de juegos, en el campo económico, provienen de la creencia de que existe una lista completa y conocida de todos los estados posibles y resultadas posibles. Esta posibilidad de elaborar una lista completa de casos posibles existe en los juegos de azar, a causa de la naturaleza misma de dichos juegos y de las reglas que los rigen. Pero en los problemas que plantea, de ordinario, el mundo de los negocios esto es poco frecuente.

7. LAS INTERPRETACIONES DE LA PROBABILIDAD Y EL ANÁLISIS ESTADÍSTICO.

Las diversas interpretaciones de la probabilidad deben afectar, lo mismo que a la teoría de la decisión, a todo el análisis estadístico que, al fin y al cabo, está, o debe estar, inmerso en ella.
La estadística, según unos, es la ciencia que nos permite rechazar o aceptar una hipótesis basados en los dictados de la experiencia. Por experiencia, hemos de entender aquellas observaciones, en forma de proposiciones protocolarias que, recogidas, clasificadas y reducidas a categorías, aspiran a ser utilizadas en los modelos.

Otros replican: ¿Puede la experiencia confirmar o desmentir algo que no sea la pura constatación de los hechos observados? ¿Puede la observación hacer otra cosa que no sea la simple modificación de una opinión, sobre los hechos futuros concebidos inicialmente? Esta modificación se llevaría a cabo precisamente mediante la aplicación del teorema de Bayes.

La primera tesis se aviene a conceder que no se trata de someter a la experiencia una hipótesis aislada, sino la elección entre dos hipótesis o entre un conjunto de hipótesis todas posibles y sólo ellas.

La segunda tesis elimina toda dificultad inherente a la concepción de una hipótesis inicial supuesta objetivamente cierta, cuando se adopta el punto de vista subjetivista, en el que las opiniones corresponden a juicios personales.

¿Hay diferencia esencial entre ambas tesis desde el punto de vista práctico? Creemos que no, y esto es fundamental en el análisis estadístico. De esta opinión parecen ser Blackel y Girshick (ver Refer. 24).

La parte débil de la primera quizá esté en que estamos constreñidos a considerar sólo las hipótesis posibles, y quedan excluidas aquellas que pueden aparecer como probables antes de la experiencia. La parte débil de la segunda estará precisamente en apoyarse en una opinión inicial, basada en un juicio personal, sin valor objetivo. Ambas implican la restricción, largamente comentada en este trabajo, de reducir el análisis a una serie distributiva y completa de hipótesis, esto es, sin hipótesis residual.

La segunda tesis no puede negarse a admitir que la hipótesis inicial variará con el criterio de cada individuo y que las conclusiones estadísticas deben ser aceptadas por todo el mundo, por lo que el punto de arranque inicial habrá de gozar del asenso universal. La tesis primera, que pretende eliminar el razonamiento inductivo para acogerse al comportamiento inductivo, tampoco se puede negar a reconocer que elegir entre un conjunto de hipótesis posibles equivale, en cierto modo, a partir de una opinión inicial o, por lo menos, de un asenso general entre diversas opiniones iniciales.

Esta tesis, basada en una común aceptación de la hipótesis inicial, es propugnada por De Finetti con eI nombre de «multisubjetiva» y, con ligeras variantes, por Savage, que la llama «multipersonal». Evitaría los fallos observados en las dos primeras y daría un mayor realismo a todo el análisis estadístico.

La tendencia más acusada hoy consiste en admitir sólo definiciones basadas sobre experiencias interpretadas desde el punto de vista behaviorista; a tener en cuenta el comportamiento de las gentes, pero no un comportamiento individual, sino un comportamiento medio. Tendencia a decidir como lo haría una persona ficticia que se inspirase en la opinión de la generalidad. Volvemos a entrar así dentro de la línea de una de las concepciones más calurosamente defendida por Shackle.

REFERENCIAS

1. FISHBURN, P. C.: “Decision and Value Theory”. John Wiley, 1964.
2. KYBURG, H. E., y SMOKLER, H. E.: “«Studies in Subjetive Probability”. John Wiley, 1963.
3. FINETTI, B. De:”La Prévision: Ses lois, ses sources subjetives”. Annales de L´Institut Poincaré, Vol. 7, 1937.
4. KOOPMAN, B. O.: “The bases of Probability”. Bulletin of the Amer. Mathe. society, vol. 46, 1940.
5. HALMOS, P. R.:”The Foundations of Probability”. Amer. Mathe. Monthly , 51 1944.
6. LOÉVF, M.: “Probability Theory”. D Van Nodtrand Comp, Inc., 1963.
7. BOREL, E.: “Valeur practique et philosophique des probabilities”. Gauthiers-Villars, París, 1939.
8. GOOD, I. J.: “Probability and the Weighing of Evidence”. Hafner, New York, 1950.
9. SHACKLE, G. L. S.: “Décision, déterminisme et temps”. Dunod, Paris, 1967.
10. HADLEY, G.:”Introduction to Probability and Statistical Decision on Theory”, Holden Day, Inc., 1967.
11. KNIGHT, F.H.: “Risk, Uncertainty and Profit”. Houghton Mifflin C°, Boston-New York, 1921.
12. VEGAS PÉREZ, A.: “Consideraciones sobre la Teoría de la información”. Servicio de Estudios del Banco de España, abril, 1966.
13. GUTIERREZ CABRIA, S.: “La Teoría de la información y sus fundamentos estadísticos». Estadística Española, núm. 27, abril-junio, 1965.
14. RIOS GARCÍA, S.: “Procesos dinámicos de decisión en concurrencia”. Real Academia de Ciencias Exactas Fisicas y Naturales. Madrid, 1967.
15. RAMSEY, F. P.: “The Foundations of Mathematics and other Logical Essays». The Humanities Press, New York, 1950.
16. KEYNES, J. M.: “A Treatise on Probability». Mac Millan, London, 1928.
17. VENN, J.: “The Logic of Chance”. Mac Millan, London, 1858. (Reimpreso por Chelsea, 1963.)
18. NIEHANS, J.: “Reflections on Shackle, Probability and our Uncertainty about Uncertainty”. Metroeconomica, XI, 1959, págs. 74-88.
19. HAMBLIN, C. L.: “The Modal Probability”. Mind., vol. LXVIII, núm. 270.
20. BLACKWEL, D.; GIRSHICK, M.A.: “Theory of Games and Statistical Decision”. John Wiley, New York, 1954.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería