Ir al contenido principal

El conocimiento científico



ENRAHONAR 17, 1991.55-61.

F. Walter Meyerstein

Apoyándonos en algunos desarrollos recientes de la Teoría de la Información, pretendemos en este ensayo efectuar un breve examen a la eterna y enojosa pregunta: ¿qué podemos conocer?.

Seguramente deben existir numerosos y diversos métodos para acceder al conocimiento o, lo que viene a ser lo mismo, podemos definir «El» conocimiento de muy diversas maneras. Aquí nos referiremos exclusivamente a un determinado tipo de conocimiento: aquel que se conoce con el nombre de «científico» y que, en nuestros tiempos, ha ocupado algo así como la última instancia del saber, aquel cuyos dictados acaban con cualquier discusión. En efecto, si alguien triunfalmente nos espeta: «¡esto está científicamente probado!» Ha decidido la disputa a su favor. Pero ¿qué es verdaderamente ese saber, esa apodíctica prueba «científica»?.

En primer lugar, destaquemos un aspecto claro: el saber científico se refiere al mundo material, al que accedemos mediante la percepción sensible, o sea, a aquello que podemos ver, oír, tocar, etcétera. Y el primer paso del método científico consiste en transformar esas sensaciones en valores cuantitativos, en medidas. «¡Qué calor!» Es reemplazado por «hace 35 °C a la sombra»; en vez de decir «¡cuánto trabajo cuesta esto!», decimos «se requieren tantos kilowatt», etcétera. Éste proceso de crecientes abstracciones termina en que los científicos logran expresar del mundo sensible de una manera puramente simbólica, reemplazando los nombres y los conceptos con que el lenguaje hablado designa y relaciona lógicamente los objetos del mundo físico, por símbolos abstractos. La única función de tales signos es exclusivamente la de significar, y en dichos formulismos ya no es posible discernir relación alguna con los objetos físicos que, por otra parte, constituyen justamente la finalidad del estudio científico. Piénsese como ejemplo el carácter puramente abstracto de la entropía, de un grupo de simetría se describe ciertas invariancias, etcétera.

La gran utilidad de esta transformación de la realidad sensible en símbolos abstractos estriba en el hecho de que estos símbolos pueden ser manipulados matemáticamente. Esta manipulación matemática de los símbolos que re-presentan la realidad -son algo así como un mapa, un plano de la realidad, y la re-presentan del mismo modo como un abstracto mapa de calles re-presenta la infinita complejidad de una ciudad- permite a su vez encontrar y especificar de modo preciso las relaciones lógicas que en ciertos casos se pueden determinar entre estos símbolos. Así, unas líneas más o menos paralelas del mapa de calles y re-presenta una avenida, lo que nos puede permitir  calcular el tiempo que tardaremos en ir de un lugar a otro. O, tomando otro ejemplo, la tierra y la luna se re-presentan matemáticamente como puntos sin dimensión provistos de algo que llamamos masa y se mide en gramos. Y Newton encontró una relación que dice, expresada verbalmente, que estos «puntos masa» se «atraen» mutuamente con una «fuerza» inversamente proporcional al cuadrado de su distancia. Dado que otra relación newtoniana define «fuerza» como algo proporcional a la segunda derivada respecto al tiempo de precisamente esa distancia, encontramos pues que entre estos símbolos re-presentativos hay una relación formulada matemáticamente como una ecuación diferencial.

Lo que hemos descrito hasta aquí es una ciencia que no pasa de ser una pura especulación intelectual. Falta ahora establecer su indispensable conexión con la realidad que se desea estudiar, falta volver, de los símbolos re-presentativos, a los objetos físicos. Esto sólo se logra si se encuentran soluciones a la ecuación diferencial. Soluciones que permitan hacer predicciones del siguiente tipo: «si se observó una situación física (directamente en la naturaleza o en el laboratorio) y se mide un cierto parámetro, la solución de la ecuación diferencial determina el valor numérico de ese parámetro será de x más/menos un error experimental considerado aceptable».

Sin embargo, una ecuación no es un ente aislado. Una ecuación forma parte de una teoría científica. Esta a su vez se presenta en general como un sistema formal axiomatizado. Un sistema formal axiomatizado consta de un grupo de proposiciones que se aceptan -en dicho sistema- sin pruebas o demostraciones de tipo alguno. Y, son las llamadas suposiciones previas o axiomas. Además, el sistema formal cuenta con un grupo preciso de reglas que permiten deducir teoremas a partir de sus axiomas, y con los algoritmos necesarios para probar en cada caso si un teorema es verdadero o falso. La ecuación de Newton es así un teorema del sistema formal axiomatizado del que forma parte: la física clásica. Como es evidente a simple vista, toda la teoría depende de los axiomas que arbitrariamente se eligen como sus proposiciones fundamentales. Si los resultados de las medidas efectuadas en un laboratorio o como consecuencia de observaciones directas de la naturaleza (con un telescopio, por ejemplo), concuerdan razonablemente con los teoremas deducidos, esto es, con las soluciones de las ecuaciones diferenciales que en general constituyen esos teoremas, decimos que los axiomas de la teoría no han sido (aún) falsados. En caso contrario, procede modificar dichos axiomas, reemplazándolos por otros o, más frecuentemente, añadiéndoles otro grupo de axiomas adicional, e intentarlo de nuevo, ¡a ver si esta vez hay más suerte!.

Nótese que una teoría, entendida como los axiomas más las reglas de inferencia, contiene en potencia -como decía Aristóteles- todos los teoremas que de esa teoría son deducibles. Así, por ejemplo, las definiciones («axiomas») y las reglas de juego de ajedrez contienen en potencia absolutamente todas las partidas de ajedrez que es posible jugar en forma correcta (sin trampas). En efecto, si a un ordenador le damos como programa de entrada estas definiciones y reglas, más unas pocas instrucciones adicionales, que dependerán del tipo de ordenador, etc., dicha máquina imprimirá en una enorme hoja, y durante un inmenso plazo de tiempo, todas las partidas que son posibles de ser jugadas.

De exactamente de la misma manera podemos considerar una teoría científica -digamos la mecánica cuántica- como un programa de ordenador, y esperar que el output generado por ese ordenador nos de todos los teoremas -y en consecuencia todas las predicciones físicas- que son deducibles del grupo de axiomas, y las reglas de inferencia -que constituyen dicha inferencia- que componen dicha teoría. Para tomar un ejemplo, la mecánica cuántica en tanto sistema formal axiomatizado seguramente estará contenida en su totalidad en unos -digamos- 5000 libros de texto. Nada nos impide codificar estos textos en un lenguaje binario de 0s (ceros) y 1s (unos); la salida (ouput) del ordenador será a su vez una inmensa secuencia de 0s y 1s que constituyen absolutamente todo lo que la mecánica cuántica puede demostrar y predecir.

Ningún ordenador, incluso los más potentes que se conocen en la actualidad, tiene la capacidad y la rapidez suficientes para una tarea de este tipo. Pero una máquina imaginaria, llamada ordenador universal de Turing -en honor al matemático inglés Alan Turing, en los años 30 fue uno de sus principales investigadores-, es en principio capaz de realizar cualquier cálculo que pueda ser descrito. Por lo tanto, es perfectamente capaz de realizar esta faena. Lo que hace «imaginario» al ordenador universal de Turing -llamémosle OUT- es el hecho de que el OUT ha de poseer una capacidad de memoria infinita.

¿Qué es entonces «conocer científicamente»? Si para hacer ciencia resulta indispensable re-presentar la realidad de manera simbólica, podemos partir de esta premisa y plantearnos el problema del conocimiento científico al revés. Partamos directamente de la realidad y re-presentemos esa realidad como una (¿infinita?) Secuencia de 0s y 1s. La posibilidad de tal re-presentación es una condición sine qua non del quehacer científico: si no nos es posible esta operación nos es igualmente imposible el análisis matemático y, dado que la formulación y consiguiente manipulación matemática se ha postulado como la característica esencial del método científico, o aceptamos la posibilidad de una tal simbolización de la realidad o necesariamente hemos de renunciar a su conocimiento científico.

Ahora bien, dada esta larguísima secuencia de 0s y 1s que simbólicamente -en el sentido expuesto más arriba- re-presenta la realidad, se puede derivar en forma inmediata la definición del método científico: hacer ciencia consiste en tratar de encontrar una secuencia -igualmente de 0s y 1s- substancialmente más corta, tal y que, dada esta secuencia más corta como programa aún OUT, dicha maquila genere como resultado la secuencia original, dentro de unos márgenes de aproximación razonables. La secuencia más corta, el programa del OUT, no es otra cosa que la teoría científica que precisamente constituye la meta del investigador, y si él output de la teoría se corresponde razonablemente con la secuencia re-presentativa de la realidad, daremos por «no falsificada» la teoría. En general, este output cubrirá solamente una sección inicial de la gran secuencia «realidad», de ahí que todas nuestras teorías científicas son inherentemente incompletas, ninguna -hasta ahora- lo describe «todo».

Dicho de otro modo, de lo que se trata al hacer ciencia es simplemente de esto: el investigador selecciona un segmento de la inmensa secuencia «realidad» e intenta comprimir ese segmento en una secuencia mucho más corta, tal que esta última, considerada como un programa de entrada a un OUT, produzca como salida una aproximación razonable de la secuencia sujeto de investigación. Que quede bien claro: hasta el momento, en este ensayo no hemos hecho afirmación alguna cuyo carácter pueda calificarse de especulativo o conjetural, al contrario, todo lo hasta aquí expuesto no es más que reiterar antiquísimos conocimientos -ya platón en el Timeo lo decía hace 2400 años- si bien aquí hemos empleado un lenguaje informático que nos ha permitido introducir la noción de un OUT.

El acento del quehacer científico así definido debemos situarlo en el predicado «mucho más corto» que se aplica a la secuencia «teoría» que es a su vez el objetivo buscado por el investigador, puesto que es obvio que no nos satisfacería una teoría que en esencia no constituya otra cosa que una simple y llana descripción del fenómeno que se estudia. Al contrario, buscamos una teoría simple (esto es: corta) la cual, a pesar de su simplicidad, explique muchos fenómenos diferentes, y si son fenómenos de diversa índole, tanto mejor. Una teoría científica exitosa ha de ser necesariamente corta, lo que quiere decir que la comprensión que ha de poder lograr ha de ser importante. Recalcamos: una teoría que sólo logre una comprensión limitada no satisfactoria dado que su poder de predicción es igualmente limitado: a mayor comprensión, mayor número de teoremas/predicciones contiene la teoría en potencia.

Pues bien, repetimos la pregunta: ¿qué podemos conocer científicamente? Para atacar este problema imaginemos una secuencia cualquiera, constituida por n símbolos binarios, por una sucesión de n 0s y 1s. Esta secuencia re-presenta algún fenómeno físico para el cual buscamos una teoría científica explicatoria, esto es, una secuencia más corta que sirve de programa al OUT. Buscamos pues alguna secuencia más corta, y, una vez encontrada, veremos si el output del OUT se corresponde razonablemente con el fenómeno investigado. Ahora preguntamos: ¿es posible encontrar algún criterio, algún método, que permita determinar de antemano, a la luz de cierta secuencia de n símbolos dada, si -y cuanto- la secuencia es «comprimible» en el sentido aquí descrito? Una rama reciente de la informática, debida en gran parte a los trabajos de G. Chaitin de la IBM y llamada Teoría Algorítmica de la Información, nos contesta: ¡Jamás! Nunca se puede saber si la secuencia es de tal naturaleza, es tan desordenada, tan caótica, que resulta imposible su compresión en un programa de un OUT más corto que la secuencia (los n símbolos) misma.

Dicho de otro modo: las matemáticas son esencialmente incapaces de dar una respuesta a la pregunta: ¿es «Algorítmicamente comprimible» una secuencia de n 0s y 1s? La pregunta es irreductiblemente indecidible, por lo que se estima en general que esta limitación fundamental del poder de las matemáticas, que aquí aparece, no es otra cosa que una manifestación de la «incompletitud» de las matemáticas, tal como por primera vez la descubrió Gödel en 1931. Puestos a analizar una secuencia de 0s y 1s, que puede haber sido generada por lanzamientos repetidos de una moneda -cara es un 0 y Cruz un 1- pero que también puede ser la representación simbólica de un fenómeno físico, nos enfrentamos a dos posibilidades:

*Por habilidad, o por puro azar, encontramos una secuencia sustancialmente más corta que permite comprimir la secuencia de n símbolos binarios («bits») de n-k.
*Nuestros esfuerzos son vanos.

En el primer caso habremos encontrado una «teoría científica que explica el fenómeno simbolizado por los n bits». El problema se presenta en el segundo caso, cuando la comprensión algorítmica no ha tenido éxito. Ahí a su vez distinguimos los casos:

*Aunque es imposible saberlo, la secuencia puede ser comprimible después de todo; hay pues que continuar buscando.
*La secuencia es algorítmicamente incompresible. ¿Qué significa esto? ¡Significa que la secuencia en cuestión tiene un tal grado de falta de todo orden, de toda simetría, que nos resulta imposible siquiera hablar de ella! La secuencia no es analizable, no es reducible a elementos más primarios. Sólo se puede «hablar» de la secuencia si ella se repite en su totalidad, ningún programa de OUT más corto que la secuencia misma puede reproducirla.

En el caso de que un fenómeno, un segmento de la realidad, resulta ser una tal secuencia, entonces, con los medios de que disponemos en la actualidad -matemáticas, lenguaje, lógica- nos es radicalmente imposible acceder a cualquier forma de conocimiento; este tipo de secuencias se representan un absoluto límite al conocimiento científico, al menos tal como lo entendemos en la actualidad.

Analicemos aún dos cuestiones de gran interés: por una parte, queremos saber qué es en definitiva lo que sabemos de una secuencia -de un segmento de la realidad- cuando hemos tenido éxito y hemos logrado formular una teoría explicativa, esto es, cuando hemos podido comprimir la secuencia. Por otra parte resulta de gran importancia tener un criterio aproximado de cuál es la probabilidad de que una cierta secuencia de n bits pueda algorítmicamente comprimirse en n-k bits. Veamos cada uno de estos puntos.

Supongamos que hemos logrado encontrar una secuencia de n-k bits que, introducida como programa en un OUT, tiene como salida de ese ordenador la secuencia originaria de n bits. Decimos entonces que los n-k bits representan el sistema formal axiomatizado -la «teoría»- que explica al fenómeno físico representado por los n bits. Supongamos además que ésta es la reducción máxima factible: los n-k bits no pueden a su vez reducirse a un programa que sea más corto. (Si ello fuese factible, elegiríamos esa nueva teoría de n-k-k´ bits como «la» teoría). En consecuencia, si aceptamos que la secuencia de n-k bits ya no admite una ulterior comprensión, ella es por definición de un tal grado de desorden que escapa a cualquier forma de conocimiento científico. O sea: sobre nuestras teorías científicas no podemos siquiera hablar, ¡sólo podemos enunciarlas! A menos que encontremos teorías científicas más sintéticas, más cortas. Pero entonces, a su vez, de esas no podemos hablar: la teoría sentiría tan rica todo es inefable.

Finalmente, dirijamos nuestra atención al último problema: dada una secuencia de n bits, ¿qué probabilidad hay de reducir la algorítmicamente a n-k bits? Curiosamente, la respuesta es muy fácil. Utilizando un código binario de 0s y 1s, es muy fácil demostrar que de secuencias de n bits solamente hay 2n. Si deseamos reducir algorítmicamente esa secuencia a n-10 bit, podemos preguntarnos cuántas secuencias (programas del OUT) posibles existen que tengan menos de n-10 bits y que puedan generar los n bits como output. Resulta que a lo más hay 2n-10. Puesto que 2n-10/2n = 1/1024, deducimos que ¡alrededor de 999‰ de las secuencias de los n bits, y la reducción a una teoría no es de (n) a (n-10), sino de (n) a (n-k), donde k es a su vez un número enorme. Esto significa que sólo habrá una secuencia compresible de 2k secuencias, ¡una en millones!.

Conclusión.

Utilizando argumento matemáticos elementales hemos llegado a estas conclusiones:

1. Supongamos que hemos elegido un segmento de la realidad que se desea someter a un análisis científico con el objeto de encontrar una teoría que explique ciertos fenómenos físicos y permita establecer predicciones experimental u observacionalmente verificables. Concluimos que es absolutamente imposible decidir si es factible encontrar tal teoría, o si ella simplemente existe.

2. Si hemos tenido éxito, y la teoría más sintéticas, más comprimida, ha sido hallada, entonces concluimos que sobre tal teoría no es factible emitir un juicio científico. Sólo resta la posibilidad de enunciar la teoría, podemos explicar un fenómeno con la teoría, pero no podemos explicar la teoría.

3. De todos los segmento de la realidad posibles, re-presentados por las 2n secuencias, solamente una ínfima parte presenta la propiedad de ser explicable científicamente, por la simple razón de que no existen suficientes secuencias/teorías sustancialmente más cortas. Seguramente refleja algo muy importante sobre la estructura del rincón del universo en que vivimos el hecho de que hayamos sido capaces de formular un número no despreciable de teorías explicativas cuya concordancia con la observación experimental sea aceptable. Pero es lo más probable que la enorme cantidad de aspectos de la realidad para los cuales carecemos de teoría -piénsese solamente en todos los fenómenos de qué trata la biología- no permitan jamás una reducción sustancial a sistemas explicativos simples, si los raciocinios aquí expuestos son correctos. Por el contrario, podría ser el caso de que alguna entidad meta-física haya seleccionado el universo de tal manera que la mayoría de las secuencias a nuestro alcance resulten algorítmicamente comprimibles, pero eso ya es otra historia.

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería