ENRAHONAR 17,
1991.55-61.
F. Walter Meyerstein
Apoyándonos en algunos desarrollos recientes
de la Teoría de la Información, pretendemos en este ensayo efectuar un breve
examen a la eterna y enojosa pregunta: ¿qué podemos conocer?.
Seguramente deben existir numerosos y
diversos métodos para acceder al conocimiento o, lo que viene a ser lo mismo,
podemos definir «El» conocimiento de muy diversas maneras. Aquí nos referiremos
exclusivamente a un determinado tipo de conocimiento: aquel que se conoce con
el nombre de «científico» y que, en nuestros tiempos, ha ocupado algo así como
la última instancia del saber, aquel cuyos dictados acaban con cualquier
discusión. En efecto, si alguien triunfalmente nos espeta: «¡esto está
científicamente probado!» Ha decidido la disputa a su favor. Pero ¿qué es
verdaderamente ese saber, esa apodíctica prueba «científica»?.
En primer lugar, destaquemos un aspecto
claro: el saber científico se refiere al mundo material, al que accedemos
mediante la percepción sensible, o sea, a aquello que podemos ver, oír, tocar,
etcétera. Y el primer paso del método científico consiste en transformar
esas sensaciones en valores cuantitativos, en medidas. «¡Qué calor!» Es
reemplazado por «hace 35 °C a la sombra»; en vez de decir «¡cuánto trabajo
cuesta esto!», decimos «se requieren tantos kilowatt», etcétera. Éste proceso
de crecientes abstracciones termina en que los científicos logran expresar del
mundo sensible de una manera puramente simbólica, reemplazando los
nombres y los conceptos con que el lenguaje hablado designa y relaciona
lógicamente los objetos del mundo físico, por símbolos abstractos. La
única función de tales signos es exclusivamente la de significar, y en dichos
formulismos ya no es posible discernir relación alguna con los objetos físicos
que, por otra parte, constituyen justamente la finalidad del estudio
científico. Piénsese como ejemplo el carácter puramente abstracto de la
entropía, de un grupo de simetría se describe ciertas invariancias, etcétera.
La gran utilidad de esta transformación de la
realidad sensible en símbolos abstractos estriba en el hecho de que estos
símbolos pueden ser manipulados matemáticamente. Esta manipulación matemática
de los símbolos que re-presentan la realidad -son algo así como un mapa,
un plano de la realidad, y la re-presentan del mismo modo como un abstracto
mapa de calles re-presenta la infinita complejidad de una ciudad- permite a su
vez encontrar y especificar de modo preciso las relaciones lógicas que en
ciertos casos se pueden determinar entre estos símbolos. Así, unas líneas más o
menos paralelas del mapa de calles y re-presenta una avenida, lo que nos puede
permitir calcular el tiempo que
tardaremos en ir de un lugar a otro. O, tomando otro ejemplo, la tierra y la
luna se re-presentan matemáticamente como puntos sin dimensión provistos de
algo que llamamos masa y se mide en gramos. Y Newton encontró una relación
que dice, expresada verbalmente, que estos «puntos masa» se «atraen» mutuamente
con una «fuerza» inversamente proporcional al cuadrado de su distancia. Dado
que otra relación newtoniana define «fuerza» como algo proporcional a la
segunda derivada respecto al tiempo de precisamente esa distancia, encontramos
pues que entre estos símbolos re-presentativos hay una relación formulada
matemáticamente como una ecuación diferencial.
Lo que hemos descrito hasta aquí es una
ciencia que no pasa de ser una pura especulación intelectual. Falta ahora
establecer su indispensable conexión con la realidad que se desea
estudiar, falta volver, de los símbolos re-presentativos, a los objetos
físicos. Esto sólo se logra si se encuentran soluciones a la ecuación
diferencial. Soluciones que permitan hacer predicciones del siguiente
tipo: «si se observó una situación física (directamente en la naturaleza o en
el laboratorio) y se mide un cierto parámetro, la solución de la ecuación
diferencial determina el valor numérico de ese parámetro será de x más/menos un
error experimental considerado aceptable».
Sin embargo, una ecuación no es un ente
aislado. Una ecuación forma parte de una teoría científica. Esta a su
vez se presenta en general como un sistema formal axiomatizado. Un
sistema formal axiomatizado consta de un grupo de proposiciones que se aceptan -en
dicho sistema- sin pruebas o demostraciones de tipo alguno. Y, son las llamadas
suposiciones previas o axiomas. Además, el sistema formal cuenta con un
grupo preciso de reglas que permiten deducir teoremas a partir de sus
axiomas, y con los algoritmos necesarios para probar en cada caso si un teorema
es verdadero o falso. La ecuación de Newton es así un teorema del sistema
formal axiomatizado del que forma parte: la física clásica. Como es evidente a
simple vista, toda la teoría depende de los axiomas que arbitrariamente se
eligen como sus proposiciones fundamentales. Si los resultados de las medidas
efectuadas en un laboratorio o como consecuencia de observaciones directas de
la naturaleza (con un telescopio, por ejemplo), concuerdan razonablemente con
los teoremas deducidos, esto es, con las soluciones de las ecuaciones
diferenciales que en general constituyen esos teoremas, decimos que los
axiomas de la teoría no han sido (aún) falsados. En caso contrario, procede
modificar dichos axiomas, reemplazándolos por otros o, más frecuentemente,
añadiéndoles otro grupo de axiomas adicional, e intentarlo de nuevo, ¡a ver si
esta vez hay más suerte!.
Nótese que una teoría, entendida como los
axiomas más las reglas de inferencia, contiene en potencia -como decía
Aristóteles- todos los teoremas que de esa teoría son deducibles. Así,
por ejemplo, las definiciones («axiomas») y las reglas de juego de ajedrez
contienen en potencia absolutamente todas las partidas de ajedrez que es
posible jugar en forma correcta (sin trampas). En efecto, si a un ordenador le
damos como programa de entrada estas definiciones y reglas, más unas pocas
instrucciones adicionales, que dependerán del tipo de ordenador, etc., dicha
máquina imprimirá en una enorme hoja, y durante un inmenso plazo de tiempo,
todas las partidas que son posibles de ser jugadas.
De exactamente de la misma manera podemos
considerar una teoría científica -digamos la mecánica cuántica- como un
programa de ordenador, y esperar que el output generado por ese
ordenador nos de todos los teoremas -y en consecuencia todas las
predicciones físicas- que son deducibles del grupo de axiomas, y las reglas de
inferencia -que constituyen dicha inferencia- que componen dicha teoría. Para
tomar un ejemplo, la mecánica cuántica en tanto sistema formal axiomatizado
seguramente estará contenida en su totalidad en unos -digamos- 5000 libros de
texto. Nada nos impide codificar estos textos en un lenguaje binario de 0s
(ceros) y 1s (unos); la salida (ouput) del ordenador será a su vez una
inmensa secuencia de 0s y 1s que constituyen absolutamente todo lo que la
mecánica cuántica puede demostrar y predecir.
Ningún ordenador, incluso los más potentes
que se conocen en la actualidad, tiene la capacidad y la rapidez suficientes
para una tarea de este tipo. Pero una máquina imaginaria, llamada ordenador
universal de Turing -en honor al matemático inglés Alan Turing, en los años 30
fue uno de sus principales investigadores-, es en principio capaz de realizar
cualquier cálculo que pueda ser descrito. Por lo tanto, es perfectamente capaz
de realizar esta faena. Lo que hace «imaginario» al ordenador universal de
Turing -llamémosle OUT- es el hecho de que el OUT ha de poseer una capacidad de
memoria infinita.
¿Qué es entonces «conocer científicamente»?
Si para hacer ciencia resulta indispensable re-presentar la realidad de manera
simbólica, podemos partir de esta premisa y plantearnos el problema del
conocimiento científico al revés. Partamos directamente de la realidad y
re-presentemos esa realidad como una (¿infinita?) Secuencia de 0s y 1s. La
posibilidad de tal re-presentación es una condición sine qua non del
quehacer científico: si no nos es posible esta operación nos es igualmente
imposible el análisis matemático y, dado que la formulación y consiguiente
manipulación matemática se ha postulado como la característica esencial del
método científico, o aceptamos la posibilidad de una tal simbolización de la
realidad o necesariamente hemos de renunciar a su conocimiento científico.
Ahora bien, dada esta larguísima secuencia de
0s y 1s que simbólicamente -en el sentido expuesto más arriba- re-presenta la
realidad, se puede derivar en forma inmediata la definición del método científico:
hacer ciencia consiste en tratar de encontrar una secuencia -igualmente de 0s y
1s- substancialmente más corta, tal y que, dada esta secuencia más corta como
programa aún OUT, dicha maquila genere como resultado la secuencia original,
dentro de unos márgenes de aproximación razonables. La secuencia más corta, el
programa del OUT, no es otra cosa que la teoría científica que precisamente
constituye la meta del investigador, y si él output de la teoría se
corresponde razonablemente con la secuencia re-presentativa de la realidad,
daremos por «no falsificada» la teoría. En general, este output cubrirá
solamente una sección inicial de la gran secuencia «realidad», de ahí que todas
nuestras teorías científicas son inherentemente incompletas, ninguna -hasta
ahora- lo describe «todo».
Dicho de otro modo, de lo que se trata al
hacer ciencia es simplemente de esto: el investigador selecciona un segmento de
la inmensa secuencia «realidad» e intenta comprimir ese segmento en una
secuencia mucho más corta, tal que esta última, considerada como un programa de
entrada a un OUT, produzca como salida una aproximación razonable de la
secuencia sujeto de investigación. Que quede bien claro: hasta el momento, en
este ensayo no hemos hecho afirmación alguna cuyo carácter pueda calificarse de
especulativo o conjetural, al contrario, todo lo hasta aquí expuesto no es más
que reiterar antiquísimos conocimientos -ya platón en el Timeo lo decía
hace 2400 años- si bien aquí hemos empleado un lenguaje informático que nos ha
permitido introducir la noción de un OUT.
El acento del quehacer científico así
definido debemos situarlo en el predicado «mucho más corto» que se aplica a la
secuencia «teoría» que es a su vez el objetivo buscado por el investigador,
puesto que es obvio que no nos satisfacería una teoría que en esencia no
constituya otra cosa que una simple y llana descripción del fenómeno que se
estudia. Al contrario, buscamos una teoría simple (esto es: corta) la cual, a
pesar de su simplicidad, explique muchos fenómenos diferentes, y si son
fenómenos de diversa índole, tanto mejor. Una teoría científica exitosa ha de
ser necesariamente corta, lo que quiere decir que la comprensión que ha de
poder lograr ha de ser importante. Recalcamos: una teoría que sólo logre una
comprensión limitada no satisfactoria dado que su poder de predicción es
igualmente limitado: a mayor comprensión, mayor número de teoremas/predicciones
contiene la teoría en potencia.
Pues bien, repetimos la pregunta: ¿qué
podemos conocer científicamente? Para atacar este problema imaginemos una
secuencia cualquiera, constituida por n símbolos binarios, por una
sucesión de n 0s y 1s.
Esta secuencia re-presenta algún fenómeno físico para el cual buscamos una
teoría científica explicatoria, esto es, una secuencia más corta que sirve de
programa al OUT. Buscamos pues alguna secuencia más corta, y, una vez
encontrada, veremos si el output del OUT se corresponde razonablemente
con el fenómeno investigado. Ahora preguntamos: ¿es posible encontrar algún
criterio, algún método, que permita determinar de antemano, a la luz de cierta
secuencia de n símbolos dada, si -y cuanto- la secuencia es
«comprimible» en el sentido aquí descrito? Una rama reciente de la informática,
debida en gran parte a los trabajos de G. Chaitin de la IBM y llamada Teoría
Algorítmica de la Información, nos contesta: ¡Jamás! Nunca se puede saber si la
secuencia es de tal naturaleza, es tan desordenada, tan caótica, que resulta
imposible su compresión en un programa de un OUT más corto que la secuencia
(los n símbolos) misma.
Dicho de otro modo: las matemáticas son
esencialmente incapaces de dar una respuesta a la pregunta: ¿es
«Algorítmicamente comprimible» una secuencia de n 0s y 1s? La pregunta
es irreductiblemente indecidible, por lo que se estima en general que
esta limitación fundamental del poder de las matemáticas, que aquí aparece, no
es otra cosa que una manifestación de la «incompletitud» de las matemáticas,
tal como por primera vez la descubrió Gödel en 1931. Puestos a analizar una
secuencia de 0s y 1s, que puede haber sido generada por lanzamientos repetidos
de una moneda -cara es un 0 y Cruz un 1- pero que también puede ser la
representación simbólica de un fenómeno físico, nos enfrentamos a dos
posibilidades:
*Por habilidad, o por puro azar, encontramos
una secuencia sustancialmente más corta que permite comprimir la secuencia de
n símbolos binarios («bits») de n-k.
*Nuestros esfuerzos
son vanos.
En el primer caso
habremos encontrado una «teoría científica que explica el fenómeno simbolizado
por los n bits». El problema se presenta en el segundo caso, cuando la
comprensión algorítmica no ha tenido éxito. Ahí a su vez distinguimos los
casos:
*Aunque es imposible saberlo, la secuencia
puede ser comprimible después de todo; hay pues que continuar buscando.
*La secuencia es algorítmicamente
incompresible. ¿Qué significa esto? ¡Significa que la secuencia en cuestión
tiene un tal grado de falta de todo orden, de toda simetría, que nos resulta
imposible siquiera hablar de ella! La secuencia no es analizable, no es
reducible a elementos más primarios. Sólo se puede «hablar» de la secuencia si
ella se repite en su totalidad, ningún programa de OUT más corto que la
secuencia misma puede reproducirla.
En el caso de que un fenómeno, un segmento de
la realidad, resulta ser una tal secuencia, entonces, con los medios de que
disponemos en la actualidad -matemáticas, lenguaje, lógica- nos es radicalmente
imposible acceder a cualquier forma de conocimiento; este tipo de secuencias se
representan un absoluto límite al conocimiento científico, al menos tal como lo
entendemos en la actualidad.
Analicemos aún dos cuestiones de gran
interés: por una parte, queremos saber qué es en definitiva lo que sabemos de
una secuencia -de un segmento de la realidad- cuando hemos tenido éxito y hemos
logrado formular una teoría explicativa, esto es, cuando hemos podido comprimir
la secuencia. Por otra parte resulta de gran importancia tener un criterio
aproximado de cuál es la probabilidad de que una cierta secuencia de n bits pueda algorítmicamente
comprimirse en n-k bits. Veamos cada uno de estos puntos.
Supongamos que hemos logrado encontrar una
secuencia de n-k bits que,
introducida como programa en un OUT, tiene como salida de ese ordenador la
secuencia originaria de n bits. Decimos entonces que los n-k bits representan el sistema formal
axiomatizado -la «teoría»- que explica al fenómeno físico representado por los n bits. Supongamos además que ésta es la
reducción máxima factible: los n-k bits no pueden a su vez reducirse a
un programa que sea más corto. (Si ello fuese factible, elegiríamos esa nueva
teoría de n-k-k´ bits como «la» teoría). En consecuencia, si aceptamos
que la secuencia de n-k bits ya no admite una ulterior comprensión, ella
es por definición de un tal grado de desorden que escapa a cualquier forma de
conocimiento científico. O sea: sobre nuestras teorías científicas no podemos
siquiera hablar, ¡sólo podemos enunciarlas! A menos que encontremos teorías
científicas más sintéticas, más cortas. Pero entonces, a su vez, de esas
no podemos hablar: la teoría sentiría tan rica todo es inefable.
Finalmente, dirijamos nuestra atención al
último problema: dada una secuencia de n bits, ¿qué probabilidad hay de
reducir la algorítmicamente a n-k bits? Curiosamente, la respuesta es
muy fácil. Utilizando un código binario de 0s y 1s, es muy fácil demostrar que
de secuencias de n bits solamente hay 2n. Si deseamos reducir
algorítmicamente esa secuencia a n-10
bit, podemos preguntarnos cuántas secuencias (programas del OUT) posibles existen
que tengan menos de n-10 bits y que puedan generar los n bits
como output. Resulta que a lo más hay 2n-10. Puesto
que 2n-10/2n = 1/1024, deducimos que ¡alrededor de 999‰ de las
secuencias de los n bits, y la reducción a una teoría no es de (n) a (n-10), sino de (n) a (n-k), donde k es a su vez un número enorme. Esto significa que sólo habrá una
secuencia compresible de 2k secuencias, ¡una en millones!.
Conclusión.
Utilizando argumento matemáticos elementales
hemos llegado a estas conclusiones:
1. Supongamos que hemos elegido un segmento
de la realidad que se desea someter a un análisis científico con el objeto de
encontrar una teoría que explique ciertos fenómenos físicos y permita
establecer predicciones experimental u observacionalmente verificables.
Concluimos que es absolutamente imposible decidir si es factible encontrar tal
teoría, o si ella simplemente existe.
2. Si hemos tenido éxito, y la teoría más
sintéticas, más comprimida, ha sido hallada, entonces concluimos que sobre tal
teoría no es factible emitir un juicio científico. Sólo resta la posibilidad de
enunciar la teoría, podemos explicar un fenómeno con la teoría, pero no
podemos explicar la teoría.
3. De todos los segmento de la realidad
posibles, re-presentados por las 2n secuencias, solamente una ínfima
parte presenta la propiedad de ser explicable científicamente, por la simple
razón de que no existen suficientes secuencias/teorías sustancialmente más
cortas. Seguramente refleja algo muy importante sobre la estructura del rincón
del universo en que vivimos el hecho de que hayamos sido capaces de formular un
número no despreciable de teorías explicativas cuya concordancia con la
observación experimental sea aceptable. Pero es lo más probable que la enorme
cantidad de aspectos de la realidad para los cuales carecemos de teoría -piénsese
solamente en todos los fenómenos de qué trata la biología- no permitan jamás
una reducción sustancial a sistemas explicativos simples, si los raciocinios
aquí expuestos son correctos. Por el contrario, podría ser el caso de que
alguna entidad meta-física haya seleccionado el universo de tal manera que la
mayoría de las secuencias a nuestro alcance resulten algorítmicamente
comprimibles, pero eso ya es otra historia.
Comentarios