domingo, 21 de julio de 2013

Complejidad y Estadísticas: Incertidumbre y Probabilidad x William Canales Verdugo



3.1          Introducción........................................................................................................        2
3.2          La probabilidad como medida de la incertidumbre............................................              2
3.3          Incertidumbre en situaciones deterministas......................................................            4
3.4          Reducción secuencial de la incertidumbre.........................................................             5
3.5          Predicción de resultados electorales..................................................................           5
3.6          Probabilidad e incertidumbre.............................................................................           7
3.9          El teorema de Godel...........................................................................................         12
3.10       La cuántica..........................................................................................................         13
3.11       El imperio de la incertidumbre...........................................................................            14
3.12       Bibliografía..........................................................................................................         15



3.1       Introducción

En la vida cotidiana aparecen muchas situaciones en las que los resultados observados son diferentes aunque las condiciones iníciales en las que se produce la experiencia sean las mismas. Por ejemplo, al lanzar una moneda unas veces resultará cara y otras cruz.. Estos fenómenos, denominados aleatorios, se ven afectados por la incertidumbre.
En el lenguaje habitual, frases como "probablemente...", "es poco probable que...", "hay muchas posibilidades de que..." hacen referencia a esta incertidumbre.
La teoría de la probabilidad pretende ser una herramienta para modelizar y tratar con situaciones de este tipo; Por otra parte, cuando aplicamos las técnicas estadísticas a la recogida, análisis e interpretación de los datos, la teoría de la probabilidad proporciona una base para evaluar la fiabilidad de las conclusiones alcanzadas y las inferencias realizadas. Debido al importante papel desempeñado por la probabilidad dentro de la estadística, es necesario familiarizarse con sus elementos básicos, lo que constituye el objetivo del presente tema.



3.2       La probabilidad como medida de la incertidumbre

No se puede dar una definición precisa de lo que es la Incertidumbre, del mismo modo que no se puede definir, por ejemplo en Geometría, lo que se entiende por un punto o una recta.

Lo importante para construir una teoría matemática es establecer los axiomas que relacionen estos conceptos sin necesidad de definirlos. Como hemos comentado en el capitulo anterior  las relaciones entre las medidas que se asignan a los sucesos inciertos deben hacerse de acuerdo con los axiomas del cálculo de probabilidades, lo que además permite asimilar los sucesos ciertos o seguros con aquellos que tienen probabilidad uno.

Los sucesos inciertos son ciertos subconjuntos de un espacio parametrito Ω que pertenecen a una cierta σ-algebra 




  y la incertidumbre que inicialmente asignamos a estos sucesos mediante la llamada distribución a priori es una medida de probabilidad  
sobre el espacio probabilístico
 En lo que sigue supondremos, sin pérdida de generalidad, que la distribución a priori
es absolutamente continua respecto de una medida μ(θ) σ-finita definida sobre
, de modo que la distribución a priori queda perfectamente caracterizada por la función de densidad
, que es una versión de la derivada de Radon-Nikodym de  
respecto de μ(θ).

Uno de los problemas básicos de la inferencia o estadística inductiva es el de reducir la incertidumbre inicial dada por
 mediante razonamientos deductivos o mediante la  realización y observación de experimentos estadísticos que nos proporcionen información sobre θ, en sentido amplio. Si el experimento es concluyente, como sucede por ejemplo cuando se recurre a una demostración matemática o se examinan todos los elementos de una población finita, la incertidumbre se reduce totalmente y llegamos a la certeza.

Básicamente, un experimento estadístico es un proceso de reducción o disminución de la incertidumbre que permite el tránsito de la incertidumbre a la certeza, aunque esta solamente se alcance de manera asintótica.

Las observaciones son subconjuntos de un espacio muestral X, que pertenecen a una cierta σ-algebra
 , que supuestamente nos permiten reducir la incertidumbre sobre los sucesos inciertos.

Con más precisión, un experimento estadístico es un modelo probabilístico, representado por una medida de probabilidad condicionada  
 sobre el espacio
Supondremos que la familia de probabilidades condicionada
  está dominada por una medida σ-finita v(x) sobre
 , de modo que el experimento queda caracterizado por la función de densidad condicionada  f(x|θ), que relaciona lo incierto θ con lo observable x.

El proceso de aprendizaje, o reducción secuencial de la incertidumbre inicial, 
, a medida que se van observando los datos
 se realiza mediante la aplicación sucesiva del teorema de Bayes, tal como se muestra en el diagrama siguiente:





y donde la incertidumbre residual sobre el parámetro θ en la etapa i-ésima, una vez observados los datos
, viene dada por la densidad a posteriori  
que se calcula por el teorema de Bayes mediante la formula




donde la constante de proporcionalidad se determina con la condición de que la función 

 sea  una función de densidad, es decir integre la unidad, con respecto de la medida μ(θ).

Si las observaciones  
se pueden suponer (condicionalmente) independientes, entonces la formula anterior se simplifica, resultando




El proceso de aprendizaje que acabamos de describir es lo que básicamente se conoce como inferencia bayesiana, y su principal máxima es, como acabamos de señalar, que toda la información referente al estado de nuestra incertidumbre tras haber observado la muestra
 del experimento estadístico viene descrita o representada por la densidad a posteriori 
.
Si la distribución a posteriori es degenerada en un punto, digamos
 , entonces la incertidumbre ha desaparecido y tenemos certeza (con probabilidad 1)




3.3       Incertidumbre en situaciones deterministas




Muchas situaciones puramente deterministas, presentan incertidumbre, precisamente por no tener información suficiente o por no disponer de medios de cálculo  adecuados que suplan nuestra incapacidad para procesar datos. La valoración de dicha incertidumbre no es fácil y, en muchas ocasiones, la intuición resulta ser contradictoria con la lógica. De aquí la necesidad de recurrir, cuando se pueda, a la matemática o a los argumentos rigurosos para reducir, e incluso eliminar, la incertidumbre inherente a ciertas situaciones deterministas en las que está presente.

El ejemplo siguiente, adaptación del problema que apareció por vez primera en el libro de Acton (1970), es sorprendente pues parece contradecir la intuición de la mayoría de las personas, incluidos los matemáticos.

Ejemplo 8. Se tienen dos varillas de 1 m de longitud. A una de ellas se le añade 1 cm y se curva de modo que sus extremos coincidan con los de la otra varilla y forme un arco de circunferencia (véase la figura 1). ¿Cuál es la deflexión máxima d entre ambos?

El problema es puramente determinista; no hay nada de incierto en su solución, que se obtiene resolviendo un sistema no lineal de tres ecuaciones con tres incógnitas, d, r y θ, pues y = r d, al que se llega por sencillos razonamientos geométricos y trigonométricos. Pero si no dispusiésemos de métodos de cálculo, y nos pidiesen una estimación subjetiva de dicha distancia, ¿en cuanto estimáramos el valor de d?


Figura 1. Representación grafica del problema de las varillas.

La mayoría de las personas suele estimar el valor de d en menos de 1 centímetro.
Sin embargo, la respuesta correcta es d = 6,13 centímetros, r = 206,89 centímetros y el ángulo θ = 14º0’13”.
Si en vez de 1 cm solamente se añadiese 1 mm, la respuesta sería aun más sorprendente, pues d = 1,94 centímetros, r = 646,37 centímetros y el ángulo θ = 4º26’12”.



3.4       Reducción  Secuencial de la Incertidumbre


Una de las ventajas de medir la incertidumbre mediante una medida de probabilidad es la de poder disponer de todas las herramientas y resultados del cálculo de probabilidades, con lo que, desde la perspectiva bayesiana, la estadística no es sino una aplicación del cálculo de probabilidades.

3.5       Predicción de resultados electorales

Los problemas de predicción son desde el punto de vista práctico uno de los problemas más interesantes e importantes de la estadística. La predicción del comportamiento de magnitudes futuras que todavía no se han observado no solo es importante per se, sino que además sirve para validar el modelo estadístico que se emplea para predecir.

Desde el punto de vista de la inferencia bayesiana, la predicción se realiza calculando la densidad a posteriori de la magnitud futura condicionada a los datos ya observados.





Así, si estamos interesados en predecir la magnitud futura  


habiendo observado 
, la solución viene dada por la formula siguiente:



donde  


 representa la densidad del estadístico 


 condicionada al parámetro θ.
La densidad  
  



 , llamada densidad predictiva, contiene toda la incertidumbre referente a la magnitud futura 

.

La predicción de resultados electorales es una de las aplicaciones más llamativas del cálculo de probabilidades. En el ejemplo que sigue consideramos una versión simplificada que consiste en escrutar los votos de una urna cuando hay varios candidatos y se tiene en cuenta además la posibilidad de que haya votos en blanco y nulos.

No estamos interesados en predecir el porcentaje de votos obtenidos por cada uno de los candidatos, sino el problema mucho más interesante de predecir secuencialmente la probabilidad de que cada uno de ellos obtenga una cierta mayoría, a medida que se van escrutando los votos de una urna.

Este problema no es posible abordarlo desde el punto de vista de la estadística clásica pues no se trata de un simple problema de estimación secuencial, ya que al ser el problema discreto —las posibles configuraciones de la urna son finitas—, el espacio paranéfrico también lo es y la inferencia clásica únicamente considera espacios perimétricos continuos. Además el cálculo de las probabilidades predictivas implica necesariamente la especificación de unas probabilidades a priori, que son ajenas a la estadística clásica.

Incluso desde el punto de vista bayesiano el cálculo de las probabilidades predictivas es complejo debido al número enorme de posibles configuraciones de la urna, sobre todo cuando hay muchos votos y varios candidatos, por lo que en estas ocasiones se hace imprescindible recurrir a los métodos de Monte Carlo.

Elecciones de Académicos en la Real Academia de Ciencias

Según los estatutos de la Real Academia de Ciencias, para ser elegido académico en la primera votación es necesario obtener al menos un número de votos favorables igual o superior a los dos tercios de los académicos con derecho a voto. En la segunda votación, si ha lugar, se ha de obtener al menos un número de votos favorables igual o superior a los dos tercios del numero de académicos presentes en la votación y, en la tercera votación, si ha lugar, solo es necesario obtener la mayoría absoluta entre los académicos presentes.

En el supuesto que sigue hay 41 académicos con derecho a voto, de los cuales 37 estuvieron presentes en las tres votaciones y hay dos candidatos  



 y
 . Los votos en blanco o nulos se representan por B y los votos emitidos por V.E.
El número mínimo de votos favorables necesario en cada una de las tres votaciones es por consiguiente: 28 votos en la primera vuelta, 25 en la segunda y 19 en la tercera.
La tabla siguiente muestra cual fue el desarrollo de la votación, en la que el resultado final aparece en negrita.



Tabla 1. Desarrollo secuencial de la votación

En las figuras 4 y 5 se muestra el comportamiento, es decir la variación secuencial, de las probabilidades predictivas de que el primer y segundo candidatos obtengan la plaza de Académico en cada una de las votaciones, respectivamente.
Las predicciones futuras se hacen condicionadas a la información obtenida en cada momento del escrutinio, y reflejan con precisión los cambios cuantitativos que se van produciendo a lo largo del mismo.







Figura 4. Variación secuencial de las probabilidades de que el primer candidato obtenga la plaza de Académico en primera (color rojo), segunda (color verde) y tercera votación (color azul) .







Figura 5. Variación secuencial de las probabilidades de que el segundo candidato obtenga la laza de Académico en primera (color Rojo), segunda (Color Verde)  y tercera votación (Color Azul).


3.6       Probabilidad e incertidumbre

1.      La probabilidad, dijimos, implica siempre una situación de incertidumbre. La palabra «incertidumbre» y su opuesta «certidumbre» no son siempre adecuadamente empleadas y esto conduce a muchas confusiones en teoría de la probabilidad.

A la certeza se la confunde frecuentemente con la seguridad y a la carencia absoluta de certeza, con la imposibilidad, como en el caso de Keynes, citada en el párrafo anterior. Jeffreys  { 1939) dice categóricamente: «Los grados extremos de la probabilidad son certeza e imposibilidad», y De Finetti (1970) se refiere a conclusiones que resultan en base a los datos, respectivamente, ciertas (ciertamente verdaderas), o imposibles  (ciertamente falsas), o, también, posibles. Es evidente la confusión entre posibilidad e incertidumbre y es evidente también que confundir estos términos es un error. No es imposible, por ejemplo, que un daltónico diga que un objeto rojo es verde, con lo que tendríamos una  posibilidad ciertamente falsa».

2.      El sistema de vigencias que constituye el mundo, «nuestro mundo», es lo que hace que «sepamos a qué atenernos respecto a lo que las situaciones tienen de estable. Cualquier rotura, cualquier, fisura  en el sistema de creencias vigente, da lugar a la incertidumbre. «La incertidumbre no es, pues --como escribe Julián Marias (1947)-- la ignorancia. Más aún, la ignorancia total descarta la incertidumbre. La incertidumbre no es simplemente no saber, en el sentido de ignorar, sino un concreto no saber a qué atenerse.
Cuando el hombre no sabe a qué atenerse, piensa, se informa, actúa, y si tiene éxito en este proceso, el resultado es un «saber a qué atenerse» o certidumbre. Hay, pues, dos clases de certidumbre: una en la que «se estaba» ya, quizás  inadvertidamente, sin tener conciencia  de ella, y otra a la que «se llega» tras un estado consciente de incertidumbre del que se sale, superándole, mediante un proceso que comprende toda vía de conocimiento. No olvidemos que el conocimiento emerge de toda situación  en que las cosas le han fallado al hombre; al llegar a la nueva situación, indaga cómo se ha llegado y cómo es la cosa para que se haya producido ese fallo.

3.      Supongamos, por ejemplo, que hay incertidurnbre acerca de la composición de una urna que contiene bolas negras y blancas. Un procedimiento para resolver esta perplejidad   es sacar las bolas una por una sin devolución, hasta agotarlas todas; se obtendría la evidencia. Otro procedimiento consistiría en extraer las bolas, con devolución, de modo indefinido. EI proceso conduciría a una medida de la incertidumbre de tipo frecuentista,  frente al frecuentista del caso anterior (en el primer caso se obtiene una frecuencia y en el segundo, un límite frecuencial). En ambos casos, la información por sí sola, ha servido para sacarnos de la incertidumbre.
Pero como dice Savage (1961), «una vez es adoptada una posición frecuencial, las incertidumbres más importantes que afectan la ciencia y otros dominios de aplicación de la estadística no pueden ser ya medidos por probabilidades». Un frecuentista no puede, por ejemplo, utilizar la información que posee de una investigación para medir la incertidumbre de una proposición que está aún bajo investigación. Todo el proceso, conducente a obtener probabilidades, por el teorema de Bayes, de una proposición, se apoya en una probabilidad  inicial de naturaleza  psicológica, y en una nueva evidencia de naturaleza informativa. Se trata de superponer a la información, según el sentir objetivista.

Otro camino para llegar a «saber a qué atenerse» es el behaviorista: frente a la inferencia inductiva, la conducta inductiva que preside muchas decisiones, sobre problemas económicos principalmente, más que sobre los científicos. Aquí el valor  predomina sobre la opinión.

4.      Hemos detectado tres componentes principales de un estado de incertidumbre: la información que poseemos, nuestras opiniones o creencias y nuestras valoraciones de la utilidad que comporta la situación. Está claro que la posibilidad es insuficiente  para evaluar una situación de incertidumbre un tanto compleja. Otra cosa son la mayoría de las situaciones puramente empíricas, que comportan la mayor parte de análisis estadísticos, en los que las probabilidades tipo Von Mises bastan para resolver los problemas que se presentan.

Pero insistimos, una vez más, contra los que opinan que la probabilidad no debe rebasar el marco empírico, ^cómo medir probabilidades de éxito o fracaso en la empresa emprendida o que vamos a emprender? . Una investigación sobre esta cuestión nos lleva, de modo natural, al dominio de la psicología. Nuestras acciones se basan en el cálculo particular de nuestras posibilidades y este cálculo depende, a su vez, de nuestra experiencia y de nuestra madurez de pensamiento.

5.       De acuerda con nuestras anteriores consideraciones, cualquiera que sea la incertidumbre que envuelve una situación dada, siempre es posible definir una probabilidad que mida su intensidad o grado. Otra cuestión no menos relevante es la relativa a la posibilidad de un conocimiento cierto. Desde Descartes hasta Russell, el tema central de la moderna filosofía ha sido el de encontrar una base de conocimiento, que sea, por un lado, cierta, y por otro, adecuada a una superestructura permanente.

Entendemos por conocer  todo proceso psíquico cuyo resultado es el saber. Nos referimos al saber humano, como algo psíquica que se halla en el alma y sólo en ella.  E1 conocer en su pleno sentido culmina en el juicio, que afirma o niega una proposición objetiva. Conocer es, pues, algo más que pensar, es un pensar que persigue como fin el saber. Hay otros modos de pensar que son meras movimientos espirituales que van de un objeto a otro, como aquellos con las que nos recreamos en momentos de ocio al recordar cosas diferentes.

Dentro de la predicción filosófica ha habido dos modos de conocer, o, si se quiere, dos tipos de conocimiento, cuyas aseveraciones de certeza han dominado la metodología científica. Uno de ellos es el empírico, que es de carácter inmediato, suministrado por la percepción de los sentidos. EI otro es el conocimiento, «a priori», de naturaleza lógica, como el que se obtiene por las matemáticas.

Graves críticas se han hecho a la certeza obtenida por ambos modos de conocer. En primer lugar, se dice que en la percepción no existe conocimiento inmediato. La literatura psicológica general sobre la percepción tiende a mantener la tesis que afirma que el conocimiento perceptual no es nunca inmediato, sino que depende de un sistema conceptual de interpretación. En segundo lugar, la esperanza de obtener alguna sutil distinción entre verdades empíricas y lógicas ha sido sometida estos últimos años a un severo reto y, en consecuencia, el especial status  otorgado tradicionalmente al conocimiento lógico o matemático, es hoy de carácter dudoso.

Patrick Suppes (1974) señala la prevalencia que tienen las correcciones en los trabajos sobre matemáticas. «Si las verdades de la matemática son conocidas "a príori" --dice--, parece absurdo encontrar que las correcciones en artículos de matemáticas sean más prevalentes que las correcciones de artículos de otro dominio cualquiera de la ciencia.» La razón, según dicho autor, está en que el criterio rector para juzgar un texto matemático es realmente un criterio radicalmente empírico, pues es «juzgado empíricamente por la evidencia presentada en los hechos de los matemáticos y, consecuentemente, es la razón para etiquetar las matemáticas como radicalmente empíricas. Puesto que la evidencia es presentada con una completitud no característica de ninguna otra área de la ciencia empírica, es posible "detectar errores" y llevar estos errores vigorosamente a la atención del autor».

Cualquiera que sea la aseveración acerca de la intuición matemática, la correspondencia entre la noción de consecuencia lógica y la noción de deducción sintáctica es la que se utiliza para cubrir el criterio de corrección de pruebas, desde una noción general intuitiva y semántica a una noción empírica y sintáctica, controlable, finalmente, de modo completamente empírico. La certeza que encontramos en matemáticas no nace de la consideración intuitiva  o "a priori", sino del carácter de la evidencia ofrecida como soporte de una particular {empírica) aseveración.

6.      Según Euler (1^61), podemos distinguir tres tipos de certeza: la certeza física,que es la que tiene como base el conocimiento perceptual; la certeza lógica o demostrativa, de la que Euler toma como ejemplo las verdades de la geometría demostradas a partir de los axiomas de Euclides y, finalmente, la certeza moral basada en lo que nos cuentan los demás, como, por ejemplo, que existía Julio César o Jesucristo.


Estos tres sentidos de la certeza tienen una fuerte base racional. A pesar de los razonamientos de Suppes, existe una distinción entre la certeza física y la demostrativa, aunque no sea más que por el hecho de que las pruebas matemática se publican como un todo y sin recurrir a descripciones empíricas de datos y que el criterio para la corrección depende en última instancia del criterio sintáctico aplicado a las palabras y símbolos de las pruebas. La distinción es la que existe entre lo que hemos llamado empirismo radical y empirismo de las ciencias experimentales

Ahora bien, cuando leernos el informe hecho por un científico acerca de un experimento llevado a cabo por él, hemos de confesar que la certeza que obtenemos acerca de los resultados de dicho experimento es del tipo, moral, según la calificación de Euler. Podemos, pues afirmar, sin gran riesgo, que todo conocimiento científico, al ser de algún modo empírico, posee una certeza que no pasa de ser moral y, en consecuencia, falible. De aquí nace la necesidad de sustituir, en cuanto al conocimiento científico se refiere, la lógica de lo cierto por la lógica de lo probable

Durante todo el siglo XVIII hubo un gran movimiento en torno al análisis de los errores de observación y son famosas, a este respecto las Memorias publicadas por
Simpson, Lagrange, Laplace y el propio Euler, entre otros. En todas estas Memorias hay una cosa que llama la atención: se reconoce la posible existencia de errores en la medida y su estudio sistemático, pero no se examina, ni se plantea siquiera la existencia o no existencia de un valor exacto de la magnitud de la medida . La filosofía determinista de Laplace dominaba de tal modo el ambiente de la época, que las condiciones probabilísticas, incluidos errores, eran atribuidas a la ignorancia de las. Verdaderas causas, y se tenía el conocimiento de que el universo físico es de tal naturaleza, que en principio, somos capaces de lograr los valores exactos de las cantidades físicas que deseamos medir.

Esta misma aptitud fue observada durante el siglo XIX. En toda la ciencia de este siglo estuvo constantemente implícita la idea, de que con esfuerzo suficiente, siempre es posible lograr una cifra exacta más en la medida. Que sepamos, nadie planteó la tesis de que esto era un error, que existían continuas fluctuaciones aleatorias y que el concepto de valor exacto no tiene sentido claro.

Durante el siglo XX siguió creyéndose en la posibilidad de alcanzar la certeza en la ciencia, hasta que el desarrollo de la mecánica cuántica empezó a agrietar la que parecía inconmovible roca de la fe científica. Empezó a reconocerse que no tiene sentido afirmar que puede medirse una cantidad física determinada, con precisión arbitraria, en conjunción con la medida simultánea de otras cantidades físicas relacionadas con la primera. Pues en el estricto sentido determinista de Laplace, para predecir el curso de los acontecimientos se requiere la medida exacta y simultánea del movimiento y posición  de cada partícula, y tal medida simultánea y precisa de posición y momento no es posible en virtud del principio de incertidumbre, enunciado, por primera vez, por Heisenberg hacia l925.

7.      El primer intento de Heisenberg fue dirigido a liberar la teoría atómica de «inobservables», es decir, de magnitudes inaccesibles a la observación experimental. Estas magnitudes, por ejemplo, aparecían en la teoría de Bohr, ya que no hay nada observable de tipo experimental que corresponda a las órbitas de electrones. Heisenberg creía que al liberar la teoría de Bohr de estas magnitudes inobservables constreñía sus limitaciones.

Aunque la teoría de Heisenberg es racional y congruente con la experiencia, dada la importancia que tiene en el tema que nos ocupa, creemos oportuno dedicarle un breve comentario.

Hay diversos modos de establecer el principio de Heisenberg. Creemos que el más sencillo consiste en explotar la idea de que pares de variables, como por ejemplo, el movimiento y posición de las partículas deben tener un producto de varianzas superior a cierta constante positiva. Hablar de varianzas en el sentido de la estadística, implica suponer que estas variables son aleatorias. Intuitivamente, esto no parece tener nada de anormal. Si medimos los pesos y las estaturas de la población española y calculamos las varianzas correspondientes a esas dos magnitudes, parece lógico esperar que el producto de esas varianzas superara cierta cantidad positiva, cosa que avala, por otra parte, el resultado de la experiencia.

Pero la diferencia entre estos hechos y lo que ocurre en la mecánica cuántica está en que en esta última se ha encontrado una variación análoga en partículas sometidas a idénticas  pruebas experimentales. Por pruebas idénticas quiere decirse aquéllas que se realizan con el mismo equipo, de tal suerte que cuando las partículas están preparadas para pasar por el equipo de medida, lo único que las puede diferenciar es su número de orden. Así, dos electrones que pasan por el mismo equipo tienen la misma masa y carga; sólo se distinguen por su número de identificación. Determinísticamente, se debiera esperar el mismo fenómeno como resultado de repeticiones idénticas del mismo experimento, pero esto no es lo que ocurre.

Una primera explicación o, si se quiere, hipótesis de trabajo, fue la concepción de que en los fenómenos de mecánica cuántica existen variables ocultas . Si electrones, diferenciados sólo por su número de identificación, al pasar por el mismo aparato dan resultados diferentes, debe haber causas ocultas que expliquen estas diferencias. Los trabajos se dirigieron en esta dirección y hasta la fecha, la detectación de estas causas ocultas ha sido infructuosa. Estamos, pues, frente a una situación que replantea los postulados hasta ahora aceptados acerca de la certeza. En situaciones experimentales, distintas de aquellas que han conducido a la clara extensión de un estricto determinismo, se reflejan fenómenos que nos mueven a aceptar una aptitud distinta acerca de la certeza: partículas idénticas, salvo el número de identificación, que se comportan distintamente en relación con un mismo equipo de medida, nos dan pie para argumentar contra el determinismo estricto, casualidad estricta y certeza estricta. Esto es el gran reto lanzado por la mecánica cuántica a la ciencia y filosofía actuales.






3.7       EL TEOREMA DE GÖDEL

Desde los tiempos de Euclides, hace ya dos mil trescientos años, los matemáticos han intentado partir de ciertos enunciados llamados axiomas y deducir luego de ellos toda clase de conclusiones útiles. En ciertos aspectos es casi como un juego, con dos reglas:

1. Los axiomas tienen que ser los menos posibles.

2. Los axiomas tienen que ser consistentes, es decir, tiene que ser imposible deducir dos conclusiones que se contradigan mutuamente.

Cualquier libro de geometría comienza con un conjunto de axiomas: por dos puntos cualesquiera sólo se puede trazar una recta, el total es la suma de las partes, etc.
Durante mucho tiempo se supuso que los axiomas de Euclides eran los únicos que podían constituir una geometría consistente y que por eso eran “verdaderos” pero en el siglo XIX, se demostró que modificando de cierta manera los axiomas de Euclides, se podían construir geometrías diferentes, “no euclidianas”. Cada una de estas geometrías difería de las otras, pero todas ellas eran consistentes. A partir de entonces no tenía ya sentido preguntar cuál de ellas era la “verdadera”.

De hecho, son muchos los conjuntos de axiomas a partir de los cuales se podría construir un sistema matemático consistente: todos ellos distintos y todos ellos consistentes. En ninguno de estos sistemas matemáticos tendría que ser posible deducir, a partir de sus axiomas, que algo es a la vez “así” y “no así”, porque entonces las Matemáticas no serían consistentes, habría que desecharlas.

¿Pero qué ocurre si establecemos un enunciado y comprobamos que no podemos demostrar que es “así” o “no así"?.

Supongamos que digo: “el enunciado que estoy haciendo es falso”. ¿Es falso? Sí es falso, entonces es falso que esté diciendo algo falso y tengo que estar diciendo algo verdadero.
 Pero sí estoy diciendo algo verdadero, entonces es cierto que estoy diciendo algo falso y sería verdad que estoy diciendo algo falso.
Es imposible demostrar que lo que he dicho es o no es así. Supongamos que ajustamos los axiomas de la lógica a fin de eliminar la posibilidad de hacer enunciados de este tipo. ¿Podríamos encontrar otro modo de hacer enunciados del tipo “ni así ni no así”?.

En 1931, el físico y matemático austríaco Kurt Gödel presentó una demostración válida de que para cualquier conjunto de axiomas, siempre es posible hacer enunciados que, a partir de esos axiomas, no puede demostrarse ni que son así ni que no son así. En ese sentido, es imposible elaborar jamás un conjunto de axiomas a partir de los cuales se pueda deducir un sistema matemático “completo”.

Gödel en 1931 publicó el artículo «Sobre proposiciones formalmente indecidibles del Principia Mathematica y sistemas relacionados», en el que propuso sus dos teoremas de la incompletitud:

1. Ninguna teoría finitamente axiomatizable y capaz de derivar los postulados de Peano (esto es, abarcar un nivel mínimo de complejidad) es a la vez consistente y completa.

2. Si una teoría es finitamente axiomatizable, consistente y capaz de derivar los postulados de Peano, entonces dicha teoría no puede probar su propia consistencia.

3.8       La cuántica

Tanto el lenguaje como la teoría que hoy conocemos como mecánica cuántica, iniciaron su evolución en los institutos de física europeos en los finales del siglo con los trabajos del físico teórico alemán Max Planck quien se sentía intrigado por un problema fundamental que tenía que ver con la radiación de un denominado cuerpo negro.

A esa fecha ya se sabía que el color de la luz que emite un está relacionado con el material del que está hecho el objeto y con su temperatura. La generalidad de los científicos de la época creían que la clave de este problema se hallaba en comprender la interacción entre radiación electromagnética y materia.

Planck se mantuvo con rigidez dentro del reino de la física del siglo XIX. Pero, desde entonces, gira en sus conceptos y se desvía radicalmente. En efecto, para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o algunas diminutas divisiones de energía, antes que una gama continua de energías posibles.

Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos, y así quedó el asunto hasta 1905, cuando Einstein, basándose en su trabajo, publicó su teoría sobre el fenómeno conocido como “efecto fotoeléctrico”. Éste, sosteniéndose en los cálculos de Planck, demostró que las partículas cargadas –que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación.

De su parte, Einstein admite que la luz posee estructura granular, y se propaga en cuantos luminosos o fotones. Con su hipótesis, el fenómeno pierde de golpe su carácter enigmático. En la imagen corpuscular, la energía luminosa no se diluye, queda concentrada en un cierto número de proyectiles, fotones, que se propagan en todas las direcciones en línea recta; a cualquier distancia, la energía del proyectil será, pues, la misma.

La explicación de Einstein del efecto fotoeléctrico fue publicada en 1905, el mismo año que su ensayo sobre la relatividad especial, y reabrió un tema que la mayoría de científicos habían dado por cerrado. Su hipótesis de la luz como partículas se enfrentó a la teoría de la luz como ondas, y la discusión prosiguió durante casi dos décadas más, hasta que los físicos aceptaron que, de alguna forma, la luz era ambas cosas.

Pero fue el genio de Werner Heisenberg, después de haber inventado la mecánica matricial, en 1925, quién da un paso sustancial hacia la nueva teoría cuántica de los átomos. Junto con Max Born y Pascual Jordan en Gotinga, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.

3.9       El imperio de la incertidumbre

Como una definición simple, podemos señalar que se trata de un concepto que describe que el acto mismo de observar cambia lo que se está observando.
En 1927, el físico alemán Werner Heisenberg se dio cuenta de que las reglas de la probabilidad que gobiernan las partículas subatómicas nacen de la paradoja de que dos propiedades relacionadas de una partícula no pueden ser medidas exactamente al mismo tiempo. Por ejemplo, un observador puede determinar o bien la posición exacta de una partícula en el espacio o su impulso (el producto de la velocidad por la masa) exacto, pero nunca ambas cosas simultáneamente. Cualquier intento de medir ambos resultados conlleva a imprecisiones.
Según el principio de incertidumbre, ciertos pares de variables físicas, como la posición y el momento (masa por velocidad) de una partícula, no pueden calcularse simultáneamente con la precisión que se quiera. Así, sí repetimos el cálculo de la posición y el momento de una partícula cuántica determinada (por ejemplo, un electrón), nos encontramos con que dichos cálculos fluctúan en torno a valores medios. Estas fluctuaciones reflejan, pues, nuestra incertidumbre en la determinación de la posición y el momento.

A finales de la década de 1970, tras importantes descubrimientos experimentales y teóricos, se completó una nueva imagen del micromundo subatómico.

Las unidades básicas de la materia, como ya lo hemos mencionado, se agruparon en dos grandes familias, a las cuales hay que agregarle una antifamilia. Las interacciones de las partículas y antipartículas que conforman estas familias podrían explicar, en principio, todas las cosas materiales del universo.




3.10     Bibliografía:





0 comentarios:

Publicar un comentario

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Powered by Blogger