Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 3 de octubre de 2015

Las variables


El concepto de variable es fundamental en la investigación científica, por cuanto en el estudio de los factores de cualquier hecho empírico se distinguen factores constantes, de naturaleza inalterable independientemente de cualquier otra circunstancia, permitiendo mediciones idénticas en el espacio y el tiempo, salvo en las constantes particulares a un determinado fenómeno que en tal caso sería invariable para ese fenómeno pudiendo presentar oscilaciones en cualquier otro, y los factores variables propiamente dichos, donde la medición siempre está sujeta a posibles variaciones.

El conjunto de los factores, constantes o variables, son las cualidades de un fenómeno objeto de estudio y seleccionadas para su medición, para la obtención de su puntuación directa o frecuencia, susceptible de operación matemática. En la teoría de Probabilidad Imposible, en el campo  de la estadística de la probabilidad o probabilidad estadística, la medición de las cualidades en forma de puntuación directa o frecuencia se transforma a su vez  en probabilidades empíricas.

Entre las diferencias de la probabilidad empírica y la probabilidad teórica se encuentra que mientras dada una muestra N constante de sujetos u opciones, la probabilidad teórica permanece constante. Es decir, la probabilidad teórica, inversión de N, sería una constante particular dada una muestra constante de sujetos u opciones. Mientras independientemente de que N sea constante, la probabilidad empírica está sujeta a posibles variaciones.

En el momento que en la medición de la cualidad objeto de estudio un sujeto u opción manifiesta un incremento o descenso en su probabilidad empírica, automáticamente todas las probabilidades empíricas de los demás sujetos u opciones experimentan cambios, aunque la N sea constante y la probabilidad teórica permanezca inalterable.

Cuando en dos mediciones sobre una misma muestra se registra que en la segunda medición al menos un sujeto u opción ha aumentado su puntuación directa o frecuencia, automáticamente la probabilidad empírica de ese sujeto u opción aumenta, y descienden las probabilidades empíricas de los demás sujetos u opciones. Y viceversa, si al menos en un sujeto u opción se registra un descenso en su puntuación directa o frecuencia, se produce un descenso en la probabilidad empírica de ese sujeto u opción, y un aumento en las probabilidades empíricas de los demás sujetos u opciones. La significación de los cambios en la magnitud de la probabilidad empírica, tanto de al menos el sujeto u opción que registre los cambios, como en los demás, será proporcional a la magnitud de los cambios en las mediciones. Cuanto más significativo el cambio en las puntuaciones directas o frecuencias, más significativo el cambio en las probabilidades empíricas, lo que permite la inferencia de que si se verifica un cambio significativo en las probabilidades empíricas, se valida la significación del cambio en la tendencia del sujeto u opción o la muestra, según sean contrastes individuales o muestrales.

Dependiendo del tipo de estudio y objeto de estudio, según sea sobre modelos omega o modelos normales, estudios de igualdad o estudios de sesgo, sea de sesgo positivo o sesgo negativo, en el contraste de hipótesis la razón crítica de la política científica establece si son cambios suficientemente racionales sobre el comportamiento de lo que se estudia.

Las variables de este modo son cualidades no constantes de un fenómeno, seleccionadas para un estudio, por lo que en función de las cualidades se selecciona una muestra de sujetos u opciones que entre sus características tengan esas cualidades, y que al ser objeto de la medición se convierten en factores susceptibles de operación matemática, en el campo de la estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible se convierten en probabilidades empíricas, sobre las cuales se pueden desarrollar tanto procesos descriptivos e inferenciales, en este último caso para su crítica racional sobre pruebas estadísticas.

Dentro de las variables a su vez se identifican normalmente dos tipos: variables independientes y variables dependientes. En el método experimental se llama variable independiente a la variable manipulable, de modo que sobre la manipulación de la variable independiente se observan los cambios en las otras variables denominadas dependientes. Si bien, junto las variables dependientes o independientes, pueden interactuar otras variables no definidas a priori en la investigación y que forman los factores de error. Lo que normalmente en el método experimental se conoce por factores error es la interferencia que en el proceso de manipulación experimental puede producir en las variables dependientes reacciones no atribuibles a la variable independiente, y dado que son factores desconocidos se engloban dentro de lo que sería dentro de los factores de error estadístico.

En las ciencias sintéticas, por ejemplo ciencias sociales o determinados campos de las ciencias naturales donde la manipulación experimental no sea del todo posible, a estos modelos de contrate de datos se denominará método quasi-experimental, diferenciándose del estrictamente experimental en que en el quasi-experimental los datos no son objeto de manipulación directa, son sólo el registro empírico de cambios observados a lo largo de un proceso en el que intervienen diversos factores, que aun siendo conocidos y cuantificados no pueden ser manipulados de forma directa por los investigadores.

La relación atribuida entre las variables dependientes e independientes depende del tipo de filosofía y paradigma de la política científica. Se puede decir que hay dos grandes paradigmas para entender las relaciones entre variables, deterministas e indeterministas. El determinismo moderno cuyo paradigma es Laplace parte de la tesis de que todo en la naturaleza, incluida la humana y la social, se encuentra regulado por cadenas causales, lo que en cierto modo retrotrae a la idea clásica aristotélica del primer motor, o causa primera, de modo que todo estaría determinado por cadenas de causa y efecto, por lo que bajo las condiciones científicas y tecnológicas precisas sería posible la averiguación de que factor ha motivado que efectos,  efectos que a su vez se pueden convertir en causas de subsiguientes efectos y así sucesivamente. Todo estaría determinado por relaciones de causa y efecto que darían lugar a leyes universales cuyo descubrimiento sería la finalidad de una ciencia nomotética y normativa.

Desde el indeterminismo cualquier atribución causal es compleja, y más que relaciones causales se habla de relaciones estocásticas, en donde el nivel de causalidad en todo caso estará asociado a términos de probabilidad, en donde las causas probables de cualquier fenómeno interactúan entre sí creando complejas redes de correlación múltiple, en donde  la realidad es un caos en donde todo está interconectado, y cualquier mínima variación en cualquier elemento del sistema puede producir reacciones sistémicas y globales, es lo que normalmente se llama teoría del caos o efecto mariposa, o más actualmente se llama teoría de la complejidad.

Tanto el determinismo clásico aristotélico, renovado en la época moderna por Laplace, como el indeterminismo, renovado en la época moderna por David Hume, y adaptado a la época contemporánea por las teorías del caos, la complejidad, y el postmodernismo, tienen sus defensores y detractores. La principal crítica al determinismo es por cuanto si realmente todo está ligado por estrictas leyes de causa-efecto no habría realmente espacio para el azar, cuando en la realidad hay situaciones que por su definición son estocásticas. Dentro de las ciencias sociales el determinismo lleva a un serio cuestionamiento sobre si realmente existe la libertad en el ser humano y la sociedad. La principal crítica al indeterminismo es que al sucumbir todo al caos, la incertidumbre, el azar, no habría posibilidad de leyes naturales, la ciencia dejaría de ser nomotética y normativa. Además otra crítica a la teoría complejidad, es por cuanto su concepto de auto-organización recoge el legado de las teorías vitalistas de principios del siglo XX, criticadas por el positivismo  por sus reminiscencias metafísicas.

En el apartado 13 de Introducción  a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se aporta una solución de síntesis a esta cuestión desde el indeterminismo, proponiendo que la realidad se estructura sobre fenómenos estocásticos, aleatorios, sujetos al azar y la incertidumbre, espacio donde se produce una sucesión de accidentes, que pueden producir contingencias que den lugar a patrones de comportamiento estable, de cuya observación, sintetizado a conocimientos e ideas previas, se elaboren hipótesis empíricas sobre el comportamiento de lo que ocurre, de modo que a partir de la crítica racional de la tendencia se determina la suficiencia de la hipótesis.

En esencia lo que propone el apartado 13 de Introducción a la Probabilidad Imposible es una adaptación a la ciencia contemporánea de la hipótesis platónica de que del caos surge el orden, abandonando cualquier reminiscencia metafísica. El modo que del caos surge el orden es por la propia sucesión aleatoria de occidentes que de forma completamente al azar genera patrones de comportamiento regulares y estables, tanto en la historia natural o social. Ya sea por ejemplo la formación de los cuerpos celestes, las galaxias, la aparición y evolución de la vida, y en nuestro planeta la aparición de la humanidad, o en el modo que ha evolucionado la sociedad.

Dentro del paradigma que propone Probabilidad Imposible la relación entre las variables más que guardar una relación causa-efecto estricta, estudia son las causas probables entre los fenómenos, sujetos a determinados niveles de incertidumbre y error estadístico, salvo aquellos casos donde la relación entre dos fenómenos sea de una probabilidad empírica igual a la unidad, que en tal caso sería una relación determinista: por ejemplo que el fenómeno B sólo y exclusivamente suceda siempre que a priori suceda A, de modo que fuera de toda incertidumbre haya certeza absoluta, probabilidad uno, de que siempre que suceda A no haya la menor duda que le seguirá B, por ejemplo la ley de la gravedad de Newton, deducida del famoso experimento atribuido a Galileo: siempre que lanzamos cualquier objeto desde la torre de Pisa, caen simultáneamente a la misma velocidad.

Salvo situaciones de certeza absoluta en cualquier otra situación bajo condiciones estocásticas hay un amplio abanico de posibilidades, sujeto a un nivel de incertidumbre y margen de duda racional, margen de error dentro del cual de forma provisional se acepte la hipótesis empírica.

Dentro de los estudios estocásticos más que estudios causa-efecto en su sentido clásico, se estudian las probables causas o causas probables de un fenómeno, en el cual pueden interactuar simultáneamente infinidad de factores, dentro de los cuales aquellos factores seleccionados en la medición serán sobre los que se realicen las atribuciones, permaneciendo el resto de factores dentro de lo que se denomine factor de error, el error estadístico.

Las atribuciones que se realicen pueden ser de varios tipos, o bien asociando un término de probabilidad a una posible relación causa y su efecto, o bien estimaciones de correlación entre factores sin que necesariamente haya atribuciones de causalidad, o se puede hacer una estimación de en qué porcentaje cada factor contribuye a un determinado fenómeno, o se estudie el modo en que los factores se retroalimentan entre sí.

Un ejemplo típico de Probabilidad Imposible de estudio estocástico asociando un margen de probabilidad a una posible relación causa y efecto , es sobre la relación entre las variables: luz, lluvia,  y arcoíris; se observará que no todos los días que llueve y después sale el sol se produce el arcoíris, si se estudia la probabilidad empírica de arcoíris sobre días de lluvia, se observará que la probabilidad es más elevada que sobre los días que no llueve. La probabilidad empírica que salga el arcoíris un día que no llueve  es cero, sin embargo no siempre que llueve sale el arcoíris, de modo que es una relación estocástica sujeta a determinados niveles de azar: que de forma accidental y estocástica se dé una determinada combinación de luz y lluvia que tenga por contingencia el efecto óptico del arcoiris. En este caso las variables independientes serían lluvia y luz, la variable dependiente sería el arcoiris, de modo que, lo que realmente mide la probabilidad empírica del arcoíris es la probabilidad empírica de que se produzca una adecuad combinación de luz y lluvia que genera el arcoiris.

En el caso del arcoiris realmente lo que se estudia es la probabilidad de que bajo determinadas circunstancias se produzca una determinada combinación de fenómenos, que de darse producen necesariamente dicho efecto. La relación entre la combinación y su efecto es prácticamente determinista, siempre que se produzca esa combinación el efecto es inmediato, obedeciendo a las leyes estocásticas, las leyes del azar, que se den las condiciones adecuadas para la formación de esa combinación, al igual que si jugamos a los dados, y lanzamos al aire dos dados y apostamos sobre un número, la probabilidad clásica de que ganemos será el equivalente al número de combinaciones cuya suma diera igual al número que hemos apostado entre al número total de combinaciones .

En el caso de lanzar dos dados al aire, o se produzca el arcoíris, se trataría de fenómenos en donde la aparición de condiciones favorables depende sólo de la acertada combinación de dos variables no demasiado compleja. Sin embargo en la realidad lo más habitual es que el grado de complejidad en la aparición de multitud de fenómenos sea mayor.  Si se estudia la combinación ideal de factores que han permitido la formación de los cuerpos celestes, las estrellas, las galaxias, la formación geológica y atmosférica de los planetas, o simplemente la combinación de factores que dieron lugar a la aparición de la vida en nuestro planeta, y una vez que surge las combinación de factores que hicieron posible su conservación,y evolución, y la aparición de la diversidad biológicas hacia formas de vida más complejas,  o la combinación de factores que dieron lugar a las extinciones masivas y finalmente la aparición de la especie humana, en cada uno de estos procesos tuvieron que participar infinidad de factores, de cuya combinación aleatoria dieron lugar unos resultados, donde no todos los factores contribuyeron en igual medida, hubo factores cuyo nivel de contribución causal tuvo que ser en mayor porcentaje que otros , en donde en el estudio del grado de atribución causal de cada factor sería un determinado porcentaje, pero que en suma dieron lugar a que estos acontecimientos tuvieran lugar.

De otro en los estudios correlacionales no siempre el objeto es la determinación de en que nivel de porcentaje las variables causales contribuyen en un efecto. Pueden ser estudios correlacionales en donde las variables entre sí no tengan relación directa, salvo una causa común a ambas, o sean estudios en donde en modo alguno se puede decir que haya una variable que actúe de causa y otra de efecto, siendo en realidad dos variables que se retroalimentan entre sí influenciándose mutuamente.

Un tipo de estudio correlacional entre dos variables sin que medie relación causa y efecto directa entre sí, aunque probablemente tengan una causa común, es por ejemplo el siguiente, también utilizado en otras ocasiones en Probabilidad Imposible, si estudiamos lo efectos de la lluvia sobre el comportamiento de los caracoles observaremos que cuando llueve aumenta la probabilidad de ver caracoles, o lo que es lo mismo, la probabilidad empírica de que los caracoles salgan a campo abierto aumenta cuando llueve, lo cual correlaciona positivamente con que los días de lluvia salga el arcoíris. De modo que se observa correlación positiva entre alta probabilidad empírica de que salgan los caracoles un día de lluvia, y alta probabilidad empírica de que salga el aroiris un día de lluvia. Entre ambos fenómenos, que salgan los caracoles y salga el arcoíris no hay relación causal, lo que se observa es una correlación positiva entre ambos fenómenos por un causa probable común, la lluvia.

En una investigación médica en donde se está estudiando los efectos de un determinado medicamento sobre una muestra de pacientes, se puede dar el caso que en el momento de la administración del tratamiento en la muestra se observe una correlación positiva entre dos posibles efectos diferentes y completamente independientes entre sí del fármaco. Sería un ejemplo parecido a los caracoles y el arcoíris, una misma causa común probable puede producir un cambio en el patrón del comportamiento de otras variables, aunque estas variables sean independientes entre sí, pudiendo estudiarse la correlación entre dichas variables, sin que tengan relación directa.

Y finalmente estudios donde la relación entre las variables sea de retroalimentación mutua, en modo alguno se puede decir en sentido estricto que una variable actúe de causa, y la otra actúe de efecto, por cuanto las variables entre sí se retroalimentan mutuamente. Supongamos que en una escuela un profesor aplica a sus alumnos un programa de desarrollo de la inteligencia matemática, y durante el tiempo que se aplica este programa el profesor de lenguaje y literatura descubre que han mejorado en sus alumnos las capacidades de comprensión lectora. En principio el programa del desarrollo de la inteligencia matemática no estaba destinado a la mejora de la comprensión lectora, sin embargo, entre los posibles efectos beneficiosos del programa de mejora de la inteligencia matemática se encuentre la mejora de la atención y la comprensión del lenguaje simbólico, elementos que pueden contribuir a la mejora global de las capacidades del alumno, y puede repercutir a mejoras en los resultados escolares en otras materias, por ejemplo en lenguaje y literatura. De igual modo, un programa de mejora de la comprensión lectora en lenguaje y literatura, podría tener importantes beneficios en otras materias, por ejemplo, una mayor comprensión del lenguaje en literatura puede tener por efecto una mejor comprensión de los enunciados de los problemas de los ejercicios de matemáticas, además de la mejora de la atención y en otras capacidades, elementos que pueden producir mejoras en el rendimiento matemático.

En realidad no se está hablando de que la mejora en matemáticas sea la causa de mejora en lenguaje y literatura, o las mejoras en lenguaje y literatura sean la causa de las mejoras en matemáticas, lo que se verificaría es la retroalimentación entre las capacidades matemáticas y las capacidades lecto-escritoras, de modo que una mejora en unas capacidades produciría mejoras en la otras, y viceversa, la mejora de las capacidades matemáticas produciría una mejora en las capacidades lecto-escritoras, y mejoras en las capacidades lecto-escritoras producirían mejoras en las capacidades matemáticas.

En un ecosistema en donde el equilibrio entre la diversidad biológica dependa de las relaciones de colaboración entre especies, el adecuado desarrollo de una especie contribuiría al adecuado desarrollado de las demás. Si la diversidad de flores en un prado depende de la polinización de las abejas, una adecuada población de abejas es condición indispensable al mantenimiento de la población de las flores del prado, y el mantenimiento de las flores del prado es condición indispensable para el mantenimiento de la población de abejas. En realidad no hay causa y efecto, ambas variables se retroalimentan entre sí.

Dentro de una concepción dialéctica, en la complejidad de las relaciones globales de un sistema, donde todos los factores se encuentran interconectados entre sí, cualquier cambio  en cualquier variable puede implicar cambios globales en todo el sistema, lo que supone una compleja combinación estocástica de correlaciones múltiples, a diversos niveles, de diferente grado de contribución y retroalimentación entre sí de las variables, en la formación y emergencia de nuevos fenómenos.

El concepto de variable es una cuestión trascendental en la ciencia, y su propia definición implica una concepción filosófica más trascendental, en el momento que definimos la realidad como un conjunto de factores, en donde se identifican constantes y variables, se da por hecho que la realidad no es inmutable, de manera dialéctica distinguimos lo variable en contraposición a su opuesto que es lo constante, siendo la naturaleza variable de lo que ocurre lo que hace que la realidad  está sujeta a cambios, y son en realidad los cambios de lo que es objeto la ciencia.

Rubén García Pedraza, Madrid, a 3 de octubre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/