Ir al contenido principal

Discurso Honoris Causa de Sixto Rios (Modelización, Simulación y Decisión)

SEIO (Sociedad de Estadística e investigación Operativa)
BOLETIN
Volumen 16, número 1
Marzo 2000
Hortaleza, 104 – 2º Izda 28004 Madrid
Tel: 91308 24 74 - Fax: 9130812 38
E-mail:seio01@retemail.es

En honor a quien es llamado el Padre de la Estadística Española y uno de los fundadores de la Escuela de Estadística de la Universidad Central de Venezuela (entre muchas otras actividades que realizara en vida. Ver Wikipedia). Fallecido el 8 de Julio de 2008 a la edad de 95años. Estadisticamigable le rinde homenaje a este insigne investigador y formador de profesionales publicando su extraordinario discurso de Doctorando Honoris Causa por la Universidad de Oviedo sobre Modelización, Simulación y Decisión. Luego publicamos una entrevista posterior hecha por su hijo..


DISCURSO DEL DOCTORANDO:
SIXTO RÍOS GARCÍA

1. Introducción:

Magnifico y Excelentísimo Sr. Rector, dignísimas Autoridades, queridos compañeros y estudiantes, señoras señores.

Sean mis primeras palabras de profunda gratitud para el Excelentísimo Sr. Rector y Claustro de esta admirable Universidad de Oviedo y el Departamento de Estadística, I.O. y Didáctica Matemática, cuyo Director, mi querido y preclaro discípulo Pedro Gil, presentó mi propuesta de Doctor Honoris causa, honrosa y preciada distinción

Esta ocasión me va a permitir reanudar y reforzar mi antigua y preciada colaboración científica, con este brillante grupo de investigadores de la Universidad de Oviedo, cultivadores de la Teoría de la Decisión.
En su obra "Vidas Paralelas" dice Plutarco (50-120) refiriéndose a los trabajos matemáticos de Arquímedes (287-212 a.C.) "No se había dedicado a ellos ex-profeso, sino que le entretenían y eran como juegos de la Geometría a que era dado. En principio fue el Tirano Hierón II quien estimuló hacia ellos su ambición, persuadiéndole de que convirtiera alguna parte de aquella ciencia de las cosas intelectuales a las sensibles y que, aplicando sus conocimientos a los usos de la vida, hiciera que le entrasen por los ojos a la muchedumbre". En la respuesta de Arquímedes, uno de los más importantes matemáticos de todos los tiempos, decía a su pariente y amigo Hierón "que con una potencia dada se puede mover un peso igualmente dado, y jugando, como suele decirse, con la fuerza de la demostración, le aseguró que si le diera otra Tierra, movería ésta después de pasar a aquella”.
No es fácil saber si en la respuesta del matemático entraba tanto la ironía natural de contestar al Tirano Hierón con una indicación sutil y paradójica, como la enseñanza política que podía liberarle de una situación inestable por, otra también problemática, pero al menos más deseable.
Casi 2000 años después, en 1992, la Unión Matemática Internacional (IMU) declaró el esperado año 2000, "Año Mundial de las Matemáticas", con los objetivos de abordar y concretar los desafíos matemáticos del siglo XXI, proclamando como una de las claves fundamentales para el desarrollo social el impulso de la presencia de las matemáticas necesarias en nuestra sociedad de la información.
La Unión Matemática Internacional pretende con esta declaración promocionar el conocimiento y uso de las matemáticas, pilar fundamental de nuestra cultura, no solo por ser el lenguaje natural de la ciencia sino para comprender el complejo mundo en que vivimos. Posteriormente, en 1997, la UNESCO acordó el patrocinio a la idea de considerar el año 2000 como Año Mundial de las Matemáticas.
España ha creado un comité español del Año Mundial de las Matemáticas (CEAMM 2000), constituido por personalidades representativas de diversas sociedades y sectores de la Matemática para cumplir los objetivos señalados por la IMU y la UNESCO, centrando tales objetivos en dos fines de especial importancia:
a) acercar la Matemática a la sociedad y
b) fomentar una educación matemática adecuada para toda la población.
Suele decirse que este proceso secular de crecimiento y penetración de la matemática en la cultura se refuerza de un modo ostensible, coincidiendo con la aparición de los ordenadores en 1950 y el matemático, que hasta entonces era una planta rara de la sociedad, pasa a ser la mente rectora de los procesos de modelización y simulación, que permiten convertir cada problema opaco de la realidad en un problema matemático clarificado de modo que resolviendo éste se tenga una buena solución y conocimiento del primero.
Sentado esto consideramos oportuno en este año 2000, que la UNESCO ha elegido para subrayar el hecho de la influencia de la matemática en el desarrollo cultural, científico y social actual, reiterar algunas afirmaciones sobre la influencia de los procesos básicos de modelización y simulación como una fase obligada, absolutamente necesaria en la enseñanza actual de la matemática en todos los niveles del sistema educativo.
Se considera actualmente que la forma tradicional de enseñar las matemáticas como un edificio acabado en que se parte de unos axiomas y se demuestran lemas, teoremas y corolarios en una sucesión interminablemente aburrida (para el 95% de los alumnos), finalizando con unos ejercicios que oscilan entre lo trivial y lo ingenioso; pero que están siempre tan lejos de las aplicaciones reales como la teoría descarnadamente expuesta, es totalmente inadecuada y deformante para el que aspira a conocer las realidades corrientes de nuestra actividad, como el que trata de aplicar la matemática, llámese físico, economista, biólogo o matemático aplicado. Los problemas de la realidad no se presentan nunca como los ejercicios de fin del capítulo de un libro tradicional de matemáticas, que comienzan con frases como las siguientes: "Demostrar que en todo triángulo isósceles...", "Probar que la suma...",... Son contrariamente del tipo: "Cómo evolucionará una población de 100.000 truchas, que se colocan en un vivero con una cierta cantidad de alimentos...", "Cómo podemos encontrar la relación entre el consumo de tabaco y...".
Si se ha de preparar a economistas, ingenieros, biólogos, matemáticos,... para la modelización de este tipo de problemas complejos en que una masa de información irrelevante oscurece el objetivo central y en que precisamente la habilidad consiste en destacar dicho objetivo y seleccionar la información necesaria, la formación debe diferir claramente de la tradicional en las clases de matemáticas dirigidas a comprender conceptos abstractos, demostrar teoremas, resolver ecuaciones, muy convenientes para la formación de matemáticos puros (que serán siempre una bajísima proporción de la población estudiantil); pero insuficientes e inadecuados para el que va a aplicar la matemática o para la formación matemática del hombre medio. Pena da recordar el caso del niño de doce años, conocedor superficial de unas cuantas definiciones de la teoría de conjuntos, que al presentarle un problema real de los que su madre debe resolver a diario, pregunta si es de sumar o de multiplicar. Justamente porque no le han enseñado la manera de modelizar el problemita real. Se admite hoy generalmente que si desde la enseñanza elemental se llegara al conocimiento matemático resolviendo problemas en íntima conexión con la vida diaria, las ciencias humanas, la Física,..., y se educara al alumno en la modelización de tales problemas, el hombre medio tendría un concepto sobre la necesidad, el interés y el poder de las matemáticas muy superior al que tiene en la actualidad y, por ejemplo, los directores de las empresas y administraciones, si hubieran recibido tal formación, comprenderían mas fácilmente que tipo de ayuda le pueden prestar los matemáticos, colaborando en la resolución de sus problemas y logrando un avance importante en las relaciones entre la universidad, la industria y la sociedad de gran valor para nuestro progreso.
Podemos decir que el ser humano tiene el instinto de teorizar o modelizar. Nuestros cerebros nos permiten recoger y ordenar impresiones con las que vamos construyendo nuestro mundo interior con espacio para las teorías filosóficas, las científicas, sus aplicaciones, el sentimiento religioso, ético, ... .Bertrand Russell dijo que "nada hay más práctico que una buena teoría" y de aquí que este paso de la realidad al modelo, y de éste al mundo real debe ser convertido en una actividad diaria consciente, pero adecuadamente diseñada, desde la infancia si queremos contribuir a una mejora natural y progresiva del ambiente y la cultura general y matemática en el hombre de la calle, del siglo XXI.
Fieles a estas ideas desarrollamos en nuestra conferencia de investidura el tema: Modelización, simulación y decisión.

2. Modelización y simulación

Llegamos a los umbrales del siglo XXI en que los problemas científicos son casi siempre multidisciplinarios y se hace necesaria una gran flexibilidad para comprender a científicos de otras áreas, hacer incursiones en sus campos y colaborar en equipo eficazmente. Por mi parte quiero confesar que, tras trabajar durante quince años (del 36 al 50) en funciones de variable compleja y teoría de integración de funciones reales, salté, por necesidades profesionales, al Cálculo de Probabilidades. Después tomé contacto con la Estadística que empezaba a constituir una disciplina unificada con el Cálculo de probabilidades, gracias especialmente a los trabajos de Cramer. Muy pocos años después conocí las importantes aplicaciones multidisciplinarias hechas por equipos de científicos eminentes en los problemas militares de la II Guerra Mundial y que pronto trascendieron, con el nombre ya de Investigación Operativa (I.O.), al tratamiento de los procesos de decisión de los sistemas organizativos que se presentan en la empresa, la administración, etc., es decir, en los grandes sistemas que implican hombres, máquinas, energía, información, incertidumbres,...
A partir de entonces y durante bastantes años mis trabajos y los de mis discípulos y colaboradores se han propuesto introducir en la enseñanza universitaria y en la realidad de las actividades de empresarios y decidores en distintos campos, la metodología de la I.O. y la decisión, que es especialmente modelización de sistemas aplicada a la mejora de las estructuras productivas.
Este ha sido, brevemente relatado, mi equipaje acumulado en el camino que he seguido para asomarme hoy a los conceptos fundamentales de la Modelización y la Simulación y su aplicación fecunda y recíproca a la Toma de decisiones.
También en los seres de nivel inferior se registran intercambios de información con su ambiente exterior y constituyen la base del control del comportamiento de los mismos; pero aquí nos vamos a referir a las modelizaciones altamente especializadas que utilizan símbolos (lenguaje, matemáticas, lógica, probabilidad,...) y que se emplean continuamente por el hombre en el estudio de sus estructuras superiores, fenómenos naturales, etc. Podemos decir que la modelización auxiliada con la simulación por ordenador se encuentran hoy en la base de cualquier trabajo científico serio, en todos los campos de la ciencia y la tecnología, e incluso en las humanidades.
Como prueba del reconocimiento a nivel internacional de la importancia de la modelización y su aplicación al estudio de importantes problemas de la sociedad actual, podemos citar la creación, en 1972, del Instituto Internacional de Sistemas Aplicados (I.I.A.S.A.) patrocinado y sostenido por EE.UU., la U.R.S.S., Japón y otros doce países europeos (entre los que no se encuentra España, a pesar de lo cual un matemático español recibió en 1991 el Premio Peccei). En el IIASA se vienen investigando, realizando y aplicando con éxito creciente modelos de: 1) desarrollo macroeconómico, 2) demanda y oferta de energía, 3) producción regional en agricultura, 4) planificación de la sanidad, 5) dinámica urbana, cambio de empleo, migraciones, etc., 6) innovaciones tecnológicas, 7) control de la calidad ambiental...
Señalemos también que en 1989 el Dept. de Defensa y Energía (U.S.A.) especificaba que la tecnología de la Simulación y Modelización es una de las 22 consideradas fundamentales en U.S.A. (Council of competitivenes (1989) Vol 1. Nº 6)
Y en 1995 tiene lugar la 2ª Conferencia Internacional de Búsqueda de Conocimientos y Minería de Datos (KDD) que publica a partir de 1997 su revista Data Mining and Knowledge Discovery.
Desde mi iniciación (1950) en la Cátedra de Estadística e I.O. comprendí lo fundamental que resultaba para la eficacia docente practicar simultáneamente y con un peso similar los tres aspectos de enseñanza, investigación y consulta.
Las consultas vivificaban nuestra enseñanza con temas entonces de actualidad y despertaban la necesidad de investigaciones más serias que los ejercicios corrientes en las clases tradicionales, contribuyendo así este trípode a una formación profunda de discípulos y doctorandos lográndose al par formar una escuela de nivel internacional como puede comprobarse con la lectura de la Revista Trabajos de Estadística e Investigación Operativa fundada en 1950, que hoy continúa publicándose con los nombres de TEST y TOP, (a la vez que suprimían el Instituto que la publicaba), pero que, mantenida durante medio siglo, garantiza el éxito alcanzado por los españoles en este área científica.

3. Sistemas y Modelos

Un sistema o conjunto de elementos que actúan con un objetivo global, puede estudiarse por experimentación directa con prototipos, pero por la dificultad y elevado coste de este enfoque, la tendencia actual es la construcción de modelos lógico matemáticos en forma de sistemas de relaciones o ecuaciones que logran imitar algunos aspectos principales del comportamiento del sistema real. Si además el modelo se ha realizado por este camino, o bien directamente, mediante un programa de ordenador se denominará un modelo de simulación. Tal programa permitirá experimentar con el sistema y sacar conclusiones válidas para diferentes problemas.
La idea de simulación con el nombre de experimentación artificial es conocida y practicada habitualmente desde hace bastantes años por los estadísticos matemáticos. Puede decirse que aparece ya en el Cálculo de Probabilidades cuando el Caballero de Meré presentaba a Pascal frecuencias de sucesos en el juego de dados cuya probabilidad calculaba mal de Meré, pero que al ser modelizada correctamente por Pascal, e identificada con la frecuencia en las largas series de pruebas, le conducía a la primera simulación consciente y exitosa de un juego aleatorio, en definitiva, a la creación del Cálculo de Probabilidades.
Este es realmente el origen del llamado método de Montecarlo introducido por Ulam y Von Neumann, bajo el estimulo de Fermi para resolver problemas derivados del estudio de la energía atómica.
Si se trata de resolver problemas de transferencia de neutrones,..., relativos a regiones regulares son útiles los métodos de ecuaciones integrales clásicos; pero para regiones complicadas resultó difícil tal solución y Von Neumann reinventó la simulación.
Pero había que jugar muchas partidas y con rapidez para resolver las simulaciones lo que llevó a la creación del ordenador, aunque una anécdota cuenta que en la primera prueba con un problema, planteado por Fermi, Von Neumann con papel, lápiz y sustancia gris, terminó antes que el ordenador. Lo que nos lleva a otra anécdota del Princeton de los 50 en que al clasificar a los sabios matemáticos ponían a Von Neumann por delante de Gödel y Einstein, situándole "a medio camino entre los hombres y los dioses".
Establecido que el método Montecarlo da aproximaciones en sentido probabilístico que requieren un número de observaciones independiente de la dimensión de los conjuntos, trabajos durante medio siglo han ampliado las ideas germinales, conduciendo a la nueva disciplina de Computación aleatoria con gran horizonte en las aplicaciones. Esto ha contribuido ha considerar la simulación Montecarlo como algo más que un simple complemento de la modelización, por las ventajas básicas sobre comprensión, implementación, requisitos de ejecución y memoria, etc.

4. Técnicas y Metodologías

La tarea de modelización debe comenzar una vez que el investigador ha estudiado suficientemente el sistema real y sabe para qué debe servir el modelo. Casi diríamos que tiene en su cabeza el modelo. En este momento es cuando se inicia la etapa de análisis de datos del sistema. Se comprende en ella el conocimiento del mínimo de variables que permiten describir adecuadamente el mismo, sus relaciones y comportamiento interactivo, distinguiendo las deterministas de las que requieren un tratamiento de la incertidumbre, caos, etc., para pasar a la etapa de síntesis cuya finalidad es situar los resultados de la etapa anterior en una estructura lógica organizada, que es lo que se llama modelo formalizado del sistema. Una cuestión importante relacionada con esta etapa es la validación del modelo, que se refiere a su comparación con el sistema original, para comprobar si es una representación suficientemente aproximada del mismo.
Es importante la elección de ordenador y lenguajes para llegar a un programa de simulación y realizar la etapa de verificación que tiende a detectar los errores cometidos al pasar de la estructura lógica del modelo al programa de ordenador, errores de algoritmos, etc.
Finalmente las respuestas del modelo verificado se comparan con las del sistema real y si el grado de ajuste es inaceptable se ha de proceder a una nueva serie de etapas que modifiquen el primer modelo en vista de la nueva información adquirida. Tras estas etapas se llega a la implantación del modelo con fines explicativos, de predicción, control, etc. Las bases de estos procesos se encuentran en los métodos de refutación o falsación de los filósofos Popper, Kuhn, Feyerabend,.que se relacionan con los métodos estadísticos de contrastes de hipótesis (Fisher, Neyman, Pearson,...)
Pero en este camino de matematización del conocimiento plausible que, como dice Pólya, abarca la evidencia inductiva del médico, del abogado, del economista, del historiador,..., el punto de salida histórico es el redescubrimiento por Laplace del teorema de Bayes, que ha permitido la construcción de la lógica inductiva y la teoría de la decisión, en competencia con otros caminos más o menos convergentes, siempre a la espera de un consenso general. Pero no hay que olvidar que a veces problemas importantes se resistirán a las metodologías existentes y será necesario aportar una gran dosis de creatividad (que no es modelizable) para llegar al éxito final del modelo, como veremos a continuación con la creación de la teoría de patrones para resolver el problema de la percepción sensorial.

5. Teoría de Patrones

Una serie de clasificaciones en que entran características del sistema (experimentable, observable, diseñable), las ciencias básicas (duras, como la Física, Química,... o blandas: Sociología, Historia, Geografía, etc.) o tipos del modelo: el tipo lógico (causal o descriptivo), el tipo interpretativo (determinista, incierto, caótico,...), el propósito (explicativo, de predicción, de escenario, de optimización) dan lugar a una enorme variedad de posibilidades de ataque a estos problemas y a una doctrina metodológica difícil, como la Ciencia viva misma, con cuya construcción y arquitectura se identifica el proceso de modelización.
Cuatro son los aspectos fundamentales que aparecen en la modelización de un sistema complejo y de los que depende que el modelo pueda ser adecuadamente validado y útil como representación del sistema: a) estructura del sistema, b) patrones que se integran en el sistema, c) incertidumbre y d) valoración de resultados.
Estos son los conceptos iniciales relativos a la modelización, también conocida, al pasar los años, como descubrimiento de conocimientos, minería de datos, Inteligencia artificial, análisis exploratorio de datos, análisis de decisiones, ..., que constituyen, al lado de las correspondientes técnicas informáticas de simulación, aportaciones novedosas, que también podrían considerarse como capítulos de la Estadística, tal como la entendemos "los mas viejos del lugar", y algunos clásicos como Kepler, Gauss y otros más jóvenes como Grenander, introductor de la teoría de patrones en los años 70 (cuyos primeros atisbos se encuentran en el libro clásico de H. Weyl, Simmetry (1952)).
Como un nuevo campo de matemática experimental aplicada a la modelización de problemas como la visión asistida con ordenador, reconocimiento del lenguaje, redes neuronales, inteligencia artificial... podría definirse de un modo abarcativo, siguiendo a Munford ,como el análisis de patrones engendrados en el mundo en cualquier modalidad, con toda su complejidad natural y ambigüedad y con el objetivo de reconstruir el proceso, objetos y sucesos que se producen en el mundo y a la previsión de estos patrones en situaciones posteriores.
Múltiples ejemplos podrían servir como estímulo e ilustración: los sistemas expertos médicos, que se refieren a los patrones que se presentan en los síntomas, historia clínica y otras pruebas realizadas, mediante las cuales el médico trata de encontrar procesos resueltos y enfermedades a diagnosticar en un paciente; la visión que va asociada al análisis de patrones de señales electromagnéticas de ciertas longitudes de onda incidentes en un punto del espacio desde distintas direcciones; etc. Si se considera p.e. el gráfico a lo largo del tiempo de la presión mientras un sujeto habla se trata de caracterizar tales gráficos por su forma a lo largo del tiempo distinguiendo los tipos de onda que se producen y relacionándolos con las diferentes configuraciones del tracto vocal del parlante, identificarlos como una parte de un fonema, tratando además de describir las cualidades de la voz del parlante, etc.
Pronto se advierte la importancia de la consideración de los procesos de análisis y de síntesis a partir de los elementos básicos, que son los que Grenander llama generadores (g) considerados como imágenes abstractas de los patrones; pero la regularidad en su teoría es muy relajada de acuerdo con las necesidades de las aplicaciones biológicas en que hay que incluir también la conexión con el observador a través de la percepción visual, sensorial,...
Más concretamente, la teoría de patrones se construye mediante conjuntos (G) de objetos gєG entre los que se definen ciertas relaciones. Objetos o generadores organizados en una jerarquía de niveles, mientras las operaciones se relacionan a un álgebra universal definida en el conjunto G y además álgebras parciales universales en que algunas relaciones quedan parcialmente no definidas. Los elementos comportan ciertas restricciones de modo que para completar el formalismo considera también relaciones de conexión entre elementos gєG mediante grafos bayesianos, markovianos,...
Además del Algebra y Análisis, la probabilidad juega un papel fundamental en la teoría de patrones, concretamente la medida de probabilidad sobre el espacio de configuraciones regulares sirve para descubrir la frecuencia relativa de algunos tipos y lo que llama variabilidad biológica (p.e. de manos, estómagos, mitocondria, caras humanas en dos y tres dimensiones,...).

6. El Problema de la Percepción

De un modo genérico se puede decir que el problema perceptual que se le presenta a un observador se caracteriza por a) las inferencias que el observador hace de las formas del mundo exterior a partir de sus observaciones y b) la información que tales imágenes dan respecto de aquellas propiedades, que están determinadas por la estructura a priori del mundo.
La idea básica de la modelización bayesiana del problema de la percepción visual es caracterizar, como una distribución de probabilidad, la información relativa a una imagen de una escena susceptible de diferentes estados, dados los datos correspondientes a las diferentes imágenes. La forma de la distribución a posteriori, está producida en parte por el proceso de formación de la imagen, y en parte por la estructura estadística del mundo. Entonces el teorema de Bayes suministra la herramienta fundamental para calcular a partir de estos dos factores la distribución a posteriori, regulándose finalmente para la reconstrucción del estado del mundo por el valor que hace máxima la moda de tal distribución a posteriori. Y éste es esencialmente el esquema básico del enfoque del importante problema de la percepción, cuya solución tanto interesa a la humanidad. Hay otro enfoque de estos problemas íntimamente relacionado con el anterior, debido a Rissanen (1993), que utiliza la teoría de la información, la cual según su autor, conduce automáticamente, sin conocimiento a priori del mundo, a las mismas variables en que se basa la teoría de Bayes. Se designa con el nombre de "reconstrucción del mundo con mínima longitud de descripción”.
El autor hace observar que, en oposición al enfoque bayesiano, el suyo no requiere conocimiento a priori de la física, química, biología, sociología,... del mundo del sistema que se considera para establecer el modelo.
Y esto justifica que leamos la opinión de Munford "En resumen, creo que la teoría de patrones contiene el germen de una teoría universal del pensamiento, que se sostiene como alternativa al análisis de pensamiento en términos de lógica. La extraordinaria semejanza de la estructura de todas las partes del cortex humano con otros humanos entre sí y con los más primitivos mamíferos sugiere que un principio universal relativamente simple gobierna su operatividad".
Valga este ejemplo final para subrayar que el enfoque nuevo de la percepción como inferencia bayesiana, origen histórico de la gran teoría de la decisión, ha influido de modo muy importante en los cultivadores de este tema difícil, que, al capturar la esencia común de los diferentes enfoques conocidos del mismo, permite acercarse a la esperada solución dentro de un consenso científico que lo hace por esto más plausible.
Como breve referencia histórica al problema de la percepción visual podemos decir que, al final de los ochenta, el enfoque computacional a la percepción visual propuesto por Marr, (Visión, 1982) se consideró bien establecido.
Pero a pesar de los progresos en robótica y prótesis en los ochenta y noventa, en el campo de la percepción, se consideraba que existía una enorme laguna entre los nuevos sistemas artificiales y los sistemas biológicos. No se lograba la inteligencia inductiva y el conocimiento que se encuentra en los sistemas biológicos y les permite operar en una extensa gama de situaciones posibles.
Pero en el curso de la redacción de nuestro discurso, hoy 4-12-99, leemos en un diario con la natural emoción que el compositor, cantante y pianista americano Stevie Wonder de 49 años, que perdió la vista pocas horas después de nacer, va a intentar recuperarla gracias a un revolucionario chip, desarrollado por el Instituto oftálmico de Wilmer de la Universidad John Hopkins (U.S.A.).
Wonder había anunciado que se sometería a la operación en una iglesia de Detroit, quizá como un mensaje de reconocimiento de la posible comunión del espíritu científico y el sentimiento religioso. Al menos así lo confirmó el aplauso con que fue subrayado el final de la exitosa operación por los 400 fieles que asistieron a la realización de la misma, caracterizados por las más variadas formas de pensar y trabajar.
Valga esta noticia reciente para que veamos con optimismo el final de esta sucesión de relaciones inductivas validas en nuestra época: Sucesos reales → Modelización → Ciencia → Tecnología → Bienestar humano espiritual y material → Bienestar social Esperemos que todas las culturas modernas crean en este esquema.

Muchas gracias.

Comentarios

Entradas populares de este blog

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

LA ESTADÍSTICA Y LOS DIFERENTES PARADIGMAS DE INVESTIGACIÓN EDUCATIVA.

Educar, 10 (1986). 79-101.   F. Javier Tejedor Profesor Catedrático del Área de Métodos de Investigación y Diagnóstico en Educación. Universidad de Santiago de Compostela. RESUMEN. En este trabajo el autor asocia el término paradigma a la perspectiva científica que predomina en un campo determinado y aboga por mantener la denominación «paradigmas racionalista y naturalista» y evitar el planteamiento del problema en términos de «cuantitativo y cualitativo». Analiza las diferencias entre ambos paradigmas y asocia la dicotomía entre los métodos cuantitativos y cualitativos al pensamiento de que existe una vinculación única e inequívoca entre método y paradigma justificando que no existe una relación exclusiva entre método y paradigma. Se define el método como el conjunto de procedimientos a seguir por toda actividad que aspire a ser científica cuya misión es aportar pruebas empíricas verificables aunque, una vez observado el hecho, el investigador puede afrontar e