Ir al contenido principal

INFERENCIA ESTADÍSTICA Y MÉTODO CIENTÍFICO

TRABAJOS DE ESTADÍSTICA Y DE INVESTIGACIÓN OPERATIVA
VOLUMEN 32, NUMERO 2, 1981, pp. 37 a 54


Segundo Gutiérrez Cabría
Departamento de Estadística E Investigación Operativa
Facultad de Matemática. Valencia

RESUMEN

Un estudio en profundidad sobre la moderna metodología en general, y sobre los métodos reductivos, en particular, arroja luz sobre algunos problemas de inferencia estadística, objeto hoy de grandes discusiones. Se observa, de modo especial que las contribuciones de la estadística a la metodología científica no son propias de ninguna escuela, lo que contribuye a la creencia de que lejos de excluirse, las tales escuelas se complementan.

1. Introducción

El sentido del azar ha abierto brecha en los cánones de la metodología científica. Si el saber no es patrimonio del conocimiento cierto, si en las leyes naturales existe un ingrediente ineliminable de probabilidad, toda interpretación de la naturaleza implica un riesgo de error y toda decisión, un riesgo de pérdida de utilidad. Pero, así como ante un juego de azar toda persona inteligente intuye fácilmente aquellas estrategias que le pueden proporcionar máxima ganancia o mínima pérdida, cuando se trata de inferir la verdad en base a contenidos estadísticos, la distribución entre principios buenos y malos, de los que se deducen leyes y generalizaciones, no es clara, si no llena de zozobras, frustraciones y desacuerdos. Estos desacuerdos no debe sorprendernos el que se hallen a nivel teórico y filosófico, pero cabe esperar que no conduzcan a diferencias sustanciales en las conclusiones que deben aceptarse en la práctica científica y los asuntos públicos y en los negocios.

De hecho las distintas escuelas que comparten hoy el dominio de la estadística, difieren más en los principios que en los resultados prácticos. Así, en el problema clásico de elegir entre dos hipótesis simples, en un cuerpo de evidencia dado, se ve una clara conexión entre la solución Bayes, la mínimax, la clásica de Neyman-Pearson y las fiducial de Fischer, con resultados bastante parecidos. Estas analogías hicieron pensar en si existía conflicto entre dichas teorías o si eran meras interpretaciones de una teoría más general. Indagaciones más precisas han llevado a la conclusión de que existe verdadero conflicto entre ellas, nacido fundamentalmente de las distintas interpretaciones del concepto de probabilidad.

Hay varios modos, si no de resolver, al menos de soslayar este conflicto. Uno sería aplicar a cada problema la técnica más adecuada, tomada de la correspondiente teoría, lo cual supone considerar el conflicto sólo como aparente. Otra, será pensar que el conflicto existente entre diversas teorías estadísticas, se resolverá a medida que progrese la ciencia estadística, como ha ocurrido con otras ramas del saber en que temporalmente han coexistido teorías antagónicas hasta su final esclarecimiento. Finalmente, se ha intentado -véase H. E.Kyburg (6)-crear una estructura lógica y formal, basada en el concepto de la "probabilidad lógica", según Carnap, que resuelva los conflictos mencionados. Estos intentos, hasta la fecha, han sido fallidos.

Lo más sensato, en tales circunstancias, parece ser seguir el consejo de Edwards, cuando dice: "no creo que la aceptación de algún punto de vista particular se deduzca de la creación de un conjunto de axiomas, lo más alto evidentes que puedan ser a sus creadores, sino que la más apropiada base axiomática se conseguirá una vez que haya general acuerdo sobre los procedimientos prácticos lo mismo que ocurrió con la probabilidad" (3). Y este consejo es tanto más digno de atención cuanto que hoy, como lo denuncia Kempthorne, "los varios grupos parecen incapaces de comunicarse unos con otros y se está llegando a una situación en que cada uno el sacerdote con la propia religión privada" (5).

Mirar atentamente los cimientos de la metodología científica, donde la inferencia estadística aporta sus instrumentos, donde encuentra su natural aplicación y dónde están sus raíces, parece, no sólo sensato, sino necesario. Y no nos escandalicemos de cismas dentro de la estadística, cuando la metodología general tiene también los suyos: mencionaremos el problema de la inducción y la constatación de la probabilidad de las hipótesis. Pero la propia metodología moderna nos advierte que las distintas tendencias metodológicas no son, en general, alternativas exclusivistas, sin aspectos complementarios del pensamiento.

Es este aspecto de complementaridad y subsidiariedad de las distintas escuelas estadísticas, el que pretendemos subrayar a lo largo de este trabajo.

Para ello, veamos cómo nace y se desarrolla el conocimiento humano y como asiste la estadística a este nacimiento y progreso

2. La reducción científica

Si el conocimiento científico no está dado inmediatamente, es preciso llegar a él por otro, mediatamente. Ya que el objeto de este conocimiento es un contenido y este es captado, a su vez, por una proposición, resulta que en todo conocimiento mediato hay que concluir una proposición de otra o un deducir la segunda de la primera. Hablaremos en adelante de enunciados con sentido, más bien que de proposiciones, ya que la verdad de toda proposición ha de ser intuible directa o indirectamente. Los enunciados supuestos son las "premisas" y el deducido, la "conclusión". La regla de conclusión se llama "demostración".

Lukasiewicz (7) divide todos los procedimientos de conclusión en dos clases: 1) Deducción: si A, también B; así que A; luego B (es la regla "modus ponendo ponens" que no presenta dificultades en la conclusión). 2) Reducción: si A también B; es así que B; luego A. Este concluir la premisa mayor desde la consecuencia de una condicionalidad es una regla sospechosa y un procedimiento no válido según las leyes de la lógica. Con todo es una regla frecuentemente usada en la ciencia. Un caso particular de la reducción es la inducción, como demostró Lukasiewicz y es fácil de ver. No vamos a entrar, por ahora al menos, en el largo "problema de la inducción" planteado ya por Aristóteles. La inducción corresponde a una reducción en la que la premisa "mayor" es una generalización de la "menor"; en caso contrario tenemos la "reducción no inductiva".

Aparte de esta matización, la reducción (al igual que la deducción) puede ser progresiva y regresiva. Esta distinción es importante desde el punto de vista de la inferencia estadística. En ambas reducciones se conoce la premisa menor pero no la mayor. En la reducción progresiva se empieza por la premisa mayor, desconocida, y se procede hacia la menor conocida o comprobable. A esta reducción se le llama también verificación. La reducción regresiva empieza por el contrario, en la premisa menor, conocida, y se va hacia la mayor, desconocida. A la reducción regresiva se le llama también explicación.

En el método clásico llamado hipotético- deductivo se alude a estas dos direcciones de la reducción: es "hipotético" por cuanto se construyen hipótesis " explicatorías" de unos hechos observados; es "deductivo" por cuanto se "deducen" de las hipótesis unos hechos, premisas menores, verificables. La palabra deducción, tiene aquí, un sentido especial de reducción progresiva. La mala inteligencia de esta palabra ha conducido a muchos confusionismos por parte de estadísticos empeñados en explicar la lógica de la estadística a la luz del método deductivo.

Dentro de la reducción regresiva estamos interesados en la explicación de enunciados ya conocidos (menor) en su sentido a partir de otros explicatorios (mayor) no conocidos en su valor de verdad. Explicar, en este sentido, consiste en construir un sistema axiomático en el que se deduzca el enunciado que se quiere explicar

Formulado un enunciado explicatorio reductivamente, se procede, de ordinario, a su verificación (comprobación o rechace) mediante la reducción progresiva. Esto sucede así, del enunciado reductivo (mayor), ya formulado, se deducen nuevos enunciados (menor), a base de un sistema axiomático (no estrictamente lógico sino que contiene, por lo común, otros enunciados obtenidos reductivamente), verificables directamente en su correspondiente dominio científico, cuyo valor de verdad es constatable. Luego, se llevan a cabo operaciones (experimentos, etc.) necesarios para determinar este valor de verdad de los enunciados deducidos. Si resulta que son verdaderos, se tiene una confirmación del resultado del que se han deducido. Si son falsos, tenemos una "falsación", según la terminología de Popper (8), en cuyo caso el enunciado es rechazable por falso.

Tanto en la reducción progresiva como en la regresiva aparecen enunciados, en forma de premisa menor cuyo significado preciso daremos luego, pero que, podemos adelantar, aportan información de naturaleza estadística. Esto es importante subrayarlo, pues pone de manifiesto la presencia del método estadístico en ambas vías reductivas.

El concepto de reducción permite agrupar un gran número de ciencias en una sola clase. Entre las que usan tal método principalmente están las inductivas y, de ellas, un grupo importante lo constituyen las empíricas de las que conviene destacar las naturales y las históricas.

3. Estructura y progreso de las ciencias de la naturaleza.

Las ciencias empíricas se caracterizan por el hecho de que en todos sus enunciados sobre fenómenos aparecen enunciados protocolarios que constituyen, en cierto sentido, el fundamento de todo el sistema. Se llaman así porque son como los protocolos que llevan las notarías donde, registran los hechos de los que han de dar fe, y están contenidos en todo tipo de informes de observación. El nombre es debido a Neurath. Un enunciado protocolario contiene regularmente las coordenadas de espacio y tiempo, circunstancias y descripción del fenómeno. Tienen especial importancia en las ciencias naturales, en las que el método estadístico cobra inusitada importancia como se indica a continuación.

El punto de partida de una ciencia natural está constituido por estos enunciados protocolarios que son las observaciones primarias del investigador. Estos enunciados tienden a aumentar a medida que la investigación prosigue y constituyen el primer grado en la estructura de una ciencia natural.

El análisis de estos datos, observación de caracteres comunes (Clasificación), seguida de razonamiento, conduce a la formulación de "enunciados universales sintéticos" que "explican" los protocolarios, deducibles de ellos según las teorías ya existentes y mediante alguna ley lógica. Antes de ser verificados se llaman "hipótesis" y una vez lo han sido, leyes científico naturales.

Así se forma el segundo grado de enunciados en las ciencias naturales: las hipótesis o leyes, formuladas directamente o por vía reductiva, en base a enunciados protocolarios.

Construyendo un tercer grupo de enunciados de los que puedan deducirse leyes y que sirvan, por lo tanto, a su "explicación", se logran las "teorías", por un procedimiento totalmente análogo al que sirvió para obtener las leyes. Las teorías constituyen, pues, un plano superior a las leyes y explican un grupo de ellas.

El proceso podría continuar obteniéndose construcciones lógicas de las ciencias naturales más y más universales: explicación de teorías, etcétera. En la práctica, suele ceñirse la atención a la consideración de enunciados protocolarios, leyes y teorías.

Debe observarse que en la construcción de las ciencias naturales se emplea indistintamente la explicación y la verificación. Esta última ha quedado altamente potenciado por la inferencia estadística, a la que algunos restringen el campo de su aplicación.

Formuladas las hipótesis que pretenden explicar los enunciados protocolarios, se deducen de ellas enunciados protocolarios que no existían aún con valor de verdad técnicamente constatable. Realizada la operación de su constatación, mediante experimentos u otras observaciones, se logra su confirmación o falsación. Si los enunciados deducidos de las hipótesis son verdaderos, se pueden convertir estas en leyes. Esto ocurrirá si se confirmaron en muchos casos por medio de la verificación y en ninguno resultaron falsadas.

Adviértase la importancia que tiene la formulación de hipótesis que regulan la observación. No es posible pensar en una experiencia sin una hipótesis que le sirva de guía. Ha de afirmarse la preponderancia de los enunciados protocolarios, aceptar lo que sirva para su explicación y rechazar todo lo que los contradiga (de aquí el carácter empírico de estas ciencias); pero no constituiría una ciencia una clase de estos enunciados sin generalizaciones, ni éstas sin aquellas.

El siguiente esquema de la figura 1 describe la estructura de las ciencias empíricas.



El movimiento del pensamiento va de P¹1 a H1 (reducción regresiva o inducción); después a H2, y así sucesivamente. De H1 y H2 se obtiene la teoría T1 de la que se deduce H3 y luego el enunciado protocolario P³1 que se verifica. El ciclo sigue. El esquema iterativo exige un camuflado de "feedback" como muestra la figura 2.



Como en todo feedback hay, naturalmente, un desajuste entre lo que la teoría sugiere y la práctica exige: es la fluctuación.

4. La investigación de la naturaleza y la estadística.

A través del párrafo anterior se ha visto cuál es la estructura de las ciencias de la naturaleza y cómo progresan. En ellas serán dos tipos de elementos, los teóricos y los empíricos. Lógicamente consideradas, los elementos teóricos son el "fundamento" de las ciencias reductivas y los enunciados protocolarios, las consecuencias; pero "criteriológicamente," son los enunciados protocolarios los que están al principio, los que forman el sustrato de la ciencia. La investigación de la naturaleza no puede olvidar esto: es un proceso de aprendizaje controlado en que diversos aspectos de un problema se van aclarando a medida que el estudio prosigue. El papel de la estadística es asistir a este proceso y suministrarle los instrumentos.

Hay una primera conjetura, o hipótesis inicial que sugiere la realización de un experimento; el análisis de los datos así generados conduce a una nueva hipótesis en la cual, a su vez, conduce a un nuevo experimento, y así sucesivamente. Es, en resumen, el proceso esquematizado en las figuras 1 y 2 pero donde la inducción implica el diseño de un experimento y la deducción, un análisis de datos, como indica la figura 3 pueden verse detalles en G. Box (2).



Naturalmente, y de acuerdo con el esquema de la figura 2, un diseño Di aplicado a una hipótesis Hi conduce a una nueva hipótesis Hi+1 la cual, a su vez, sugiere un nuevo diseño Di+1. La investigación será también más eficiente cuando la convergencia de los objetivos del problema sea más rápida y precisa. Esta eficiencia no dependerá exclusivamente del estadístico; existen elementos de la investigación que no están bajo su control, como son la imaginación y poder de conjetura del investigador, su conocimiento de la materia, etcétera. Ya expusimos la importancia que tienen, en la experimentación, las hipótesis que le sirven de guía. Por lo demás, la eficiencia de la investigación está íntimamente ligada a la elección de los métodos adecuados de diseño y análisis y a su fuerza probadora. Un tratamiento metodológico de la investigación científica no podrá pues prescindir del diseño de experimentos y del análisis estadístico. Dentro del análisis estadístico, merece especial atención la "inferencia estadística". Su utilización en la investigación está ligada al uso de los modelos y a la realización de experimentos.

5. El experimento

Vimos que la verificación suponía llevar a cabo ciertas operaciones generadoras de observaciones conducentes a la confirmación o falsación. Ciertas ciencias empíricas como las psicológicas admiten, según algunos investigadores como método de observación, la introspección. Esto es una excepción; en la mayoría de las ciencias de la naturaleza la observación es exclusivamente sensible y externa. Los enunciados protocolarios son de este tipo y se dan inclusive en ciencias no empíricas como la cosmología filosófica. En el caso más corriente se obtienen mediante la experimentación.

Existe una evidente analogía entre experimentación y "comunicación" a través de un "canal ruidoso". Las entradas son los estados de la naturaleza y las respuestas, los resultados del experimento. La información trasmitida mide el promedio de incertidumbre que queda eliminada por el experimento acerca de los estados de la naturaleza. Será ejecutado aquel experimento con mayor información esperada. El proceso es el de una "caja negra" según el esquema de la figura 4.



Algunos autores, como D.A.S. Fraser (4) llaman sistema aleatorio al concepto aquí reseñado y reservan la palabra experimento para investigaciones en las que las entradas están controladas por existir alguna relación causa -efecto. El control de las entradas puede ser de dos clases: entradas diseñadas o planificadas de suerte que la modificación de alguna, dejando fijas las demás, permita detectar su influencia en las respuestas: tenemos entonces él diseño de experimentos; pero puede suceder que las entradas no sean directamente controlables y se haga su elección aleatoriamente, en cuyo caso se origina un efecto aleatorio sobre las respuestas. La aleatorización externa de las entradas ante diversas realizaciones del experimento provee una cierta compensación de la falta de control de dichas entradas. Esta aleatorización externa es una componente de la investigación que determina la aleatoriedad del experimento o sistema. Queda así aclarada la distinción entre experimento (o sistema aleatorio) y diseño de experimentos

6. El modelo estadístico

El concepto de modelo ha sido muy debatido en los últimos años y ha recibido diferentes acepciones según el dominio científico cultivado por los distintos tratadistas. Nosotros, y de acuerdo con el fin perseguido en este trabajo, entenderemos por modelo "un producto físico, observable en principio a simple vista, que tiene la misma forma que el objeto o contenido representado en el enunciados científico". Según esta definición, de I. M.Bochenski (1), una maqueta de un edificio es un modelo de dicho edificio; una esfera en torno a la cual giran otras más pequeñas a distancias determinadas es un modelo de la teoría atómica de Böhr. Tal modelo no es preciso que pueda ser construido; basta con que se ha pensado o imaginado. Cuando se dice de ciertas teorías modernas (por ejemplo de la física) que no tienen modelo, quiere decir que no pueden ser imaginadas, que tenemos de ellas un sentido meramente operacional, pero no eidético. Puede, incluso, haber enunciados con sentido eidético y operacional pero sin posible representación sensible por corresponder a imágenes visibles intelectualmente, como ocurre con algunas proposiciones de la fenomenología y de la ontología.

Estas teorías sin modelo son obtenidas muchas veces, como ocurre en algunos campos de investigación actual, a partir de otras con modelos, mediante una amplia aplicación del formalismo. Se ve la interconexión entre teorías y modelos. Un modelo, junto con su interpretación real, constituye una teoría.

De todos los modelos, los más importantes son los que utilizan los símbolos matemáticos.

Si quiero establecer una teoría acerca de la relación existente entre volumen y presión de gases a temperatura constante, puedo ejecutar el experimento de Boyle-Mariotte. El resultado es un conjunto de medidas de presiones y otro de medidas de volúmenes. Observó que el producto de los pares de números correspondientes a cada prueba es coincidente. Si llamo P al conjunto numérico de presiones y V al de volúmenes y escribo PV=θ donde θ es una constante, tengo un modelo matemático de la relación buscada.

En general, si representamos con E el rendimiento del experimento o sistema generador de respuestas, con X1,...Xn, las variables de entrada sobre las que se puede actuar y con Y1,...Ym, las variables respuesta, no controlables, la fórmula matemática de un modelo adopta la forma general:

E= f(X1,...Xn; Y1,...Ym)

Los recorridos de las variables pueden fijarse mediante una serie de ecuaciones o inecuaciones suplementarias. Para la investigación estadística el modelo tradicional es una clase de variables aleatorias y el fin que se persigue es obtener la variable que describa más exactamente el sistema objeto de investigación. Se trata de un sistema estable o bajo control estadístico, esto es, aquel en que cada serie de entradas da lugar a respuestas que obedecen a distribuciones de probabilidad. En su forma descarnada este modelo estándar es sencillamente una clase de variables aleatorias de parámetro theta que puede representarse por E= {y(θ):θ pertenece a Ω}, donde y(θ)=(Y,β,Pθ) es un espacio de probabilidad, y Ω es un espacio de estructuras no especificadas (espacio paramétrico); Y es el espacio respuestas, beta la clase de conjuntos de Borel y P subtheta la clase de distribuciones de probabilidad de las variables respuesta. El modelo consta, pues, de un conjunto de descripciones posibles para la investigación, pues para cada valor de theta, en correspondencia con el rango de posibilidades de las características desconocidas del problema investigado y se trata de obtener la más precisa. Gran parte de la labor estadística consiste en el arte o ciencia de construir modelos científicos de naturaleza probabilística, más y más fiables.

7. Las fronteras de la inferencia estadística

Ha llegado ya el momento de analizar cuál es la aportación de la estadística y general y de la inferencia estadística en particular, a la metodología general científica.

La estadística general, en el proceso de recogida y análisis de datos ha sido contemplada ya en la primera fase del proceso de formación de las ciencias naturales. Es una fase meramente descriptiva que recoge datos, las observaciones protocolarias, los analiza y termina con la formulación de los enunciados universales sintéticos.

La inferencia estadística interviene en las fases segunda y tercera que culminan con la obtención de modelos de las teorías científicas. Hemos recalcado ya que la ciencia progresa, no por meras especulaciones teóricas, sino por una feliz simbiosis entre la teoría y la práctica, nuevos datos sugieren nuevos modelos teóricos y un nuevo modelo propuesto inspira nuevos exámenes de análisis de los datos obtenidos o que deben adquirirse. La dualidad de los procesos de inducción y deducción conducen así a mejorar los modelos paulatinamente, pero siempre en presencia del estadístico.

Esta presencia se manifiesta en un doble proceso que pudiéramos denominar de depuración y estimación del modelo científico. Este doble proceso constituye la fase inferencial que atañe al estadístico a la cual precede otra, pre inferencial, que compete al científico. Karl Popper (8) describía asi ambas fases del método científico: "el científico teórico propone ciertas cuestiones determinadas al experimentador, y este último, con sus experimentos, trata de dar una respuesta decisiva a ellas, pero no a otras cuestiones: hace cuanto puede por eliminar estas últimas (y aquí la importancia que puede tener la independencia relativa de los subsistemas de una teoría). Así, pues, lleva a cabo sus contrastaciónes, lo más sensibles que puede, con respecto a una sola cuestión, pero lo más insensibles que puede, con respecto a todas las demás cuestiones enlazadas con ella. Una parte de su tarea consiste en cribar todas las posibles fuentes de error. Pero sería una equivocación creer que el experimentador procede de este modo con objeto de facilitar el trabajo del teórico o quizá para proporcionar a este último una base en que apoyar generalizaciones inductivas. Por el contrario, el científico teórico tiene que haber realizado mucho antes su tarea, o, al menos, la parte más importante de ella: la de formular su pregunta lo más netamente posible; por tanto, es el que indica el camino al experimentador. Pero incluso no está dedicado a la mayoría de las veces a hacer observaciones exactas, pues también su tarea es, en gran medida de tipo teórico: la tarea campea en el trabajo experimental, desde que se establecen los planes iniciales hasta que se dan los últimos toques en el laboratorio".

Por experimentador hemos de entender aquí no sólo el que realiza experimentos sino también el que explota la información obtenida, el estadístico. La doble labor del estadístico y la del científico están diseñadas en el esquema de la figura 5.

De los hechos a priori que reflejan los verdaderos estados de la naturaleza, por vía reductiva o directamente, es científico formula sus hipótesis o leyes, su modelo, Mi. El estadístico consulta nuevamente a la naturaleza, la misma que inspiró al científico su modelo, extrayendo nuevos datos con los que realiza el diseño Di, y los que confronta al modelo Mi. Los datos utilizados para esta confrontación del modelo han d a en donde e ser distintos de los que sirvieron para su construcción (lo que implica una dicotomización de los hechos a priori), pues de lo contrario se incurrirá en un círculo vicioso. Los nuevos datos estarán de acuerdo o en desacuerdo con Mi. Es este un proceso de diagnóstico.. En caso de existir desacuerdo, cabe preguntarse por qué los instrumentos estadísticos utilizados para este análisis son los diversos test de bondad de un ajuste, análisis de la varianza residual, etcétera. Puede suceder que sea aconsejable cambiar Mi por un nuevo modelo Mi+1 que será sometido a prueba de los mismos datos obtenidos o a otros nuevos, si así lo exige la independencia de la prueba, para lo que se diseña día un nuevo experimento Di +1.



Caso de haber llegado a la obtención de un modelo aceptable, esto es, aproximado suficientemente a la realidad que ha servido de verificación o contraste, puede procederse a estimar sus parámetros, en base a esa misma realidad con la que se ha probado está conforme. En realidad, esta estimación es necesaria en cada prueba de depuración del modelo provisional, pues es el único modo de ver si se aproxima o no a los hechos reales.

Así como las técnicas estadísticas utilizadas en la depuración del modelo pertenecen a la escuela básica, el problema de la estimación puede hacerse por métodos clásicos o bayesianos, fiduciales o estructurales, todo lo cual pone de manifiesto la complementariedad de las escuelas, y en su caso, la subsidiariedad, como habíamos anunciado al principio. Pero ¿cuáles de estos métodos preferir?.

8. La praxis

Entramos aquí en un terreno delicado donde la polémica se ha exacerbado a veces y donde los dogmatismos deben desecharse a priori.

A) hay una primera idea que ha de tenerse presente: técnicas empleadas por Fischer que han dado buenos resultados, no han tenido igual éxito utilizadas por otros y es que frecuentemente se toman las técnicas y se olvidan las ideas que las inspiraron. Por eso, el propio Fischer no consentía que el estadístico se limitara a analizar los datos suministrados por otro investigador sin haber tomado parte en el diseño de la investigación. La conclusión es que si todas las técnicas dan aproximaciones mejores o peores, es punto fundamental su correcta aplicación, no debiendo utilizarse aquellas cuyo manejo no se domina completamente.

B) método científico y concepción general del mundo están en mutua dependencia, de modo que cambios sustanciales en uno de los dos campos implica una revisión y modificación en el otro. Técnicas y concepción del mundo se influyen pues, con reciprocidad. Los métodos de inferencia estadística, como partes integrantes de toda investigación científica, sobreentienden un sentido en el conocimiento y resultan por tanto comprometidos con una concepción general del mundo, al menos a grandes rasgos. De aquí se desprende la imperiosa necesidad que hoy tiene el investigador, en general, y el estadístico en particular, de estar muy atento a las nuevas corrientes del pensamiento a fin de aplicar a su estudio las técnicas más adecuadas, dentro de la escuela más acorde con los principios de la ciencia imperante, y esto porque aunque la deducción lógica de resultados es de gran importancia y estadística, como se ha visto, tales deducciones están inmersas en el hecho de que tanto premisas como consecuencias no describen la vida natural.

C) A la hora de construir el modelo, depurarlo y estimarlo, hay una serie de reglas prácticas que han de tenerse en cuenta: que se dé una condición del modelo formulado (postulado del determinismo); que sólo uno de los fenómenos enumerados pueda ser la condición (postulado del sistema, concluso); que se elijan aquellas hipótesis cuyo contenido de verdad esté más en conexión con el de la totalidad del modelo (postulado de conexión axiomática); finalmente (postulado de simplicidad), que se elija el modelo más sencillo y, en igualdad de otras circunstancias, los procedimientos más simples de estimación.

D) En la depuración del modelo son técnicas clásicas, como dijimos, las que se presentan como más adecuadas. El desajuste entre el modelo y el mundo real de los hechos puede medirse en términos de probabilidad. Para cada problema específico, cada investigador, indagará la medida más procedente en general, como ya apuntamos, se trata de un test para medir la bondad de un ajuste, basados en la Ji cuadrada de Pearson, test de la media, test de la varianza residual. En la estimación de los parámetros se puede optar por la vía bayesiana o por la clásica, según las características del modelo y sobre todo, de la relevancia que puede tener la información a priori y del contenido que haya acerca de su distribución probabilística. Elegido uno u otro procedimiento, hay que seguirlo coherentemente. Si nos decidimos por la estimación clásica, el modelo constituye, en esencia, la hipótesis nula; sin tramos por la vía bayesiana, el modelo es la distribución a priori.

No entramos en detalles sobre la bondad de cada uno de estos dos procedimientos (tema sobre el que tanto se ha escrito, y de las particularidades de su ejecución, y de los instrumentos que necesita. Nuestra meta era otra.

REFERENCIA BIBLIOGRÁFICA

1. Bochenki, I.: “Die zeitgenoszischen Denkmethoden”. Mûnchen, 1957 (Existe traducción española por editorial Rialp)
2. Box, G.E.P.: “Science and Statistics”, JASA, 1976.
3. Edwards, A.W.F.”R.A. Fisher´s work on statistical inference”. Con. Sui Fond.dell “infer.Stat. Florencia, 1977”.
4. Fraser, D.A.S.: “Inference and linear models”. McGraw Hill, 1979.
5. Kempthorne, O.: “Probability, Statistics and knowledge”.
6. Kyburg, H.E.: “The logical foundations of statistical inference”. Riedel pub. Comp., 1974.
7. Lukasiewics, J.. “Sobre la lógica trivalente”. En Ruch filozofiezny, 1920.
8. Popper, K.R.: “La lógica de la investigación científica”. Ed. Tecnos, 1967

Comentarios

Entradas populares de este blog

CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA

Cultura Científica No 2 (2004) CONTRIBUCIONES DE SIR RONALD FISHER A LA ESTADISTICA GENÉTICA Cuadros D. Jaime.* (*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de Colombia. Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail: cuadros@telecorp.net. RESUMEN Sir Ronald Fisher (1890-1962) fue profesor de genética y muchas de sus innovaciones estadísticas encontraron expresión en el desarrollo de metodología en estadística genética. Sin embargo, mientras sus contribuciones en estadística matemática son fácilmente identificadas, en genética de poblaciones compartió su supremacía con Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra algunas de las mejores contribuciones de Fisher a las bases de la estadística genética, y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del tema. Con la tecnología moderna, tanto la metodología estadística como la información gen

Historia de la Estadística en Venezuela

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES DEPARTAMENTO DE ESTADÍSTICA Y PROBABILIDAD profesores Guillermo Ramírez y Maura Vázquez. Historia de la Estadística. La etimología de la palabra estadística sugiere su origen. Este término se deriva del italiano statista , que a su vez proviene del latín status , vocablo que significa estado en el sentido político de la palabra. Se empleó entonces el término "estadística" para designar a la colección y descripción de datos relativos a la población y riqueza de los pueblos. Se pueden distinguir las siguientes etapas en el desarrollo histórico de la estadística: 1) Edad Antigua (- Siglo V). Como se ha dicho, en sus inicios la estadística constituía el conjunto de datos que describían los recursos más importantes con los que contaban los pueblos: población, tierras y riquezas, y que se uti

Nuevas tendencias de la Estadística en el siglo XXI

Rev. Real Academia de Ciencias. Zaragoza. 61: 87-97, (2006). (Conferencia leída en el Aula Magna de la Facultad de Ciencias de la Universidad de Zaragoza, el 15 de noviembre de 2006, con motivo de la festividad de San Alberto Magno.). José A. Cristóbal. Departamento de Métodos Estadísticos. Facultad de Ciencias, Universidad de Zaragoza, 50009 Zaragoza. La llegada del nuevo milenio ha impulsado un nuevo espíritu en la investigación tanto para científicos como para humanistas. En particular, todo apunta hacia el desarrollo de una nueva cultura intelectual donde el trabajo más profundo de los científicos se hace más accesible al público en general. En palabras de John Brockman, filósofo norteamericano y autor de numerosos libros sobre ciencia de vanguardia: "La aparición de esta nueva cultura es una evidencia de un gran anhelo universal, un deseo para la nueva e importante idea que dirige nuestros tiempos: un desarrollo revolucionario en biología molecular, ingeniería