¿Dioses
o demonios?
La
búsqueda del origen
Luego de
las revoluciones, aun de las conceptuales, es necesario un nuevo
período de estabilidad. Como se sabe, la tempestad no puede durar
eternamente. Es así como en el siglo XVIII sobrevino la calma; la
ciencia moderna se transformó en la productora de la cosmovisión
dominante, la concepción aristotélica fue relegada a los
monasterios o al olvido , y el paradigma newtoniano iluminó la nueva aurora de
la Modernidad.
El universo mecanicista no se
estableció en un día pero en los comienzos del siglo XIX, tanto en
Inglaterra como en el continente europeo, brillaba con su máxima
intensidad. Tanto es así que cuando en 1805 Pierre Simon de Laplace
le presentó a Napoleón su obra Mecánica celeste -que completaba la
obra de Newton en algunos de sus "aspectos más import ántes-,
fue interpelado por el emperador, quien le dijo: "Me dicen, M.
Laplace, que a lo largo de este voluminoso libro sobre el sistema del
universo no mencionáis una sola vez al Creador", a lo que
Laplace respondió: "No he necesitado de esa hipótesis".
El mecanicismo laplaciano
expulsó a Dios definitivamente de la explicación científica por
considerarlo una hipótesis prescindible. El universo laplaciano es
un mecanismo de relojería eterno e increado.
Es así como en el curso de
los siglos XV,XVI y XVII se produce una transformación radical en el
campo conceptual; de la concepción de un universo poético y
espiritual, armónico y pletórico de sentido, bello de contemplar y
posible de comprender,se pasó a pensar que habitamos en un mundo
mecánico, inodoro, incoloro e insípido pero manipulable eficazmente
gracias al poder que nos da la nueva ciencia.
Kurt Gödel fue un hombre
bastante introvertido, una persona enfermiza que sufrió desde la
infancia depresiones. Removió los cimientos de las matemáticas que
se habían construido desde tiempos de Euclides hasta comienzos del
siglo XX, y cuyas ideas repercutieron diversos campos del
conocimiento, en especial en la matemática, la filosofía y las
actuales ciencias de computación.
Kurt Gödel, nació el 28 de abril de
1906 en Brünn (Moravia).Hijo de Rudolph, propietario de una fábrica
textil y Marianne, una cultivada madre de familia. Gracias a las
holgada economía familiar debido al tesón comercial de su padre,
Gödel y su hermano pudieron formarse en buenas escuelas privadas
alemanas.
Como otros grandes físicos y
matemáticos, Gödel no reveló su genialidad durante la infancia. De
manera anecdótica decir que Gödel en la asignatura de matemáticas
recibió una calificación de insuficiente. A pesar de todo fue un
niño con una enorme curiosidad, ganándose el apodo de "der
Herr Warum (El Señor Por qué)"
Dos publicaciones le otorgan
gran notoriedad, su tesis doctoral escrita en 1929 y el teorema "Über
formal unentscheidbare Sätze der Principia Mathematica und
verwandter Systeme" (Sobre proposiciones formalmente
indecidibles en los Principia Mathematica y sistemas afines)
publicado en 1931.
Desde tiempos inmemoriables el hombre
ha querido dar una explicación a todo, y saber el porqué de las
cosas. Grandes pensadores, han intentado siempre encontrar el método,
el camino a la verdad absoluta a través de la filosofía y de las
ciencias. Está última, sobre todo en los últimos tiempos, cogiendo
terreno poco a poco a la filosofía. Esta búsqueda de la verdad
siempre se ha visto sometida a continuos cambios con mayor o menor
acierto. Siempre que un método parecía funcionar para los casos
conocidos, surgía un nuevo caso no explicable. De nuevo, se volvía
a replantear el porqué de ello y el cómo resolverlo y/o
controlarlo.
Para entender el impacto que causó el
Teorema de Gödel cuando vio la luz, es necesario tener una visión
general de la situación en la época. Las matemáticas comenzaban
una etapa de optimismo y la mayoría de los matemáticos consideraban
que todo aspecto de las matemáticas podría ser codificada en
sistemas que permitieran demostrar la falsedad o verdad de todas las
proposiciones. ¿Cómo se llegó a esta situación?
En primer lugar se hace necesario
explicar qué es la axiomatización. La axiomatización consiste en
establecer una serie de reglas y razonamientos a partir de los cuales
y gracias a las reglas de inferencia del sistema, se pueda llegar a
otros enunciados o proposiciones. Un axioma es una verdad que no
necesita demostración, pues su veracidad es implícita. Los axiomas
forman la base a partir de la cual comenzar a trabajar dentro de un
sistema, y un sistema axiomático consiste en un conjunto de axiomas
y reglas de inferencia que nos permite demostrar la veracidad o
falsedad de una proposición.
La matemática ha sido considerada
desde la Antigüedad hasta el siglo XIX como la ciencia encargada del
conocimiento de la propiedad cuantitativa de los fenómenos
naturales.
Basándose en una serie de
axiomas, la matemática permitía formalizar los diversos fenómenos
naturales. Un claro ejemplo de esta formalización es la geometría
euclidiana.
Euclides partía de los siguientes
axiomas para formalizar una realidad:
- Trazar una línea desde un punto cualquiera a otro punto cualquiera (por dos puntos pasa una recta).
- Prolongar de manera ilimitada en línea recta una recta ilimitada (una recta se puede prolongar indefinidamente).
- Describir un círculo para cada centro y cada radio (por cada punto y para cada longitud existe un círculo de centro el punto y de radio esa longitud).
- Todos los ángulos rectos son iguales (todo ángulo recto mide lo mismo, noventa grados).
- Si una recta al incidir sobre otras dos forma del mismo lado ángulos internos menores que dos rectos, las dos rectas prolongadas al infinito se encontrarán en el lado en que estén los ángulos menores que dos rectos (si una recta corta a otras dos y no forma ángulo recto con ambas, las dos rectas se cortarán).
Este sistema definió la
geometría clásica hasta el siglo XIX, pero se descubrió que
variando el quinto axioma, sustituyéndolo por uno nuevo de tal forma
que no contradijese a los anteriores, se obtenía otra geometría, no
errónea, sino distinta a la euclidiana. Esto permitió crear nuevos
sistemas que formalizaban distintas realidades.
Llegado el siglo XIX, los lógicos
ingleses George Boole y Augustus De Morgan codificaron los esquemas
deductivos de razonamiento. Frege y Peano combinaron el razonamiento
formal con el estudio de los conjuntos y los números, y Hilbert por
su parte creo formalizaciones de geometría más estrictas que las de
Euclides.
Cantor por su parte había diseñado
una teoría de conjuntos que pese a ser bastante atractiva, contaba
con diversas paradojas. Estas surgían del fenómeno de la
autorreferencia. Por lo tanto, eliminada la autorreferencia,
eliminadas las paradojas.
Russel y Whitehead se lanzaron a un
ímprobo esfuerzo para eliminar las paradojas de la lógica, la
teoría de números y de la teoría de conjuntos, y publicaron
finalmente sus trabajos en los Principia Mathematica, mostrando su
solución a la autorreferencia: La Teoría de Tipos. En lo referente
a la teoría de conjuntos, bastaba con tener un conjunto de nivel
bajo, que sólo englobaría objetos. A su vez existiría una serie de
conjuntos de mayor nivel los cuales podrían incluir objetos y
conjuntos de un nivel inferior.
Los matemáticos y lógicos comenzaron
a albergar dudas acerca de los sistemas formales, pues parecía que
las paradojas surgían rápidamente en dichos sistemas. Si las
paradojas de la lógica podían darse en la matemática, esta no
tendría unas bases tan firmes como se creía. Fue entonces cuando
comenzó a surgir la metamatemática, el estudio de la propia
matemática.
El razonamiento matemático siempre se
había hecho en lenguaje natural, lo que daba lugar a muchas
ambigüedades. Russel y Whitehead, en sus Principia Mathematica,
pretendieron derivar toda la matemática de la lógica, sin ningún
tipo de contradicción. La obra fue aclamada por todos, si bien aún
existía la duda de si toda la matemática estaba englobada en ellos
y si se podían llegar a resultados distintos usando los mismos
métodos.
Fue entonces cuando David Hilbert
propuso a la comunidad matemática su reto: demostrar, siguiendo los
principios de los Principia Mathematica, que el sistema definido en
los mismos fuera coherente y además completo. En resumen, lo que
Hilbert pretendía era que a partir de una porción de las
matemáticas, demostrar la solidez del todo. Si esto llegaba a darse,
podría considerarse toda demostración como un mero proceso
mecánico, de tal modo que toda proposición de un sistema sería
demostrable. Y aún en el caso de que existieran fallos en el
sistema, la inclusión de nuevos axiomas podría subsanarlos.
En el año 1931, Gödel publicaba su
artículo, que echaba por tierra el programa de Hilbert, pues
demostraba no sólo que el sistema de Russel y Whitehead tenía
fallos, sino que todo sistema axiomático los tendría. La
publicación del que se conocería como el Teorema de Gödel supuso
un duro golpe, pues en resumidas cuentas, demostraba que el hombre no
podría alcanzar el conocimiento y la verdad absolutos.
Teorema
de incompletitud
Antes de comenzar a hablar del teorema,
se hace necesario explicar una serie de conceptos que ayudaran a una
mejor comprensión del mismo.
En primer lugar debe saberse qué es
una paradoja. Una paradoja es una proposición que se contradice a sí
misma, una proposición incoherente. Un buen ejemplo de paradoja es
la famosa frase de Sócrates "Sólo sé que no sé nada".
Obviamente, si no sabe nada, ya sabe algo, luego la proposición se
contradice a sí misma. La contradicción de esta paradoja surge en
el momento en que Sócrates hace referencia a si mismo. El teorema de
Gödel tiene mucho que ver con proposiciones que hacen referencia a
si mismas.
Otra paradoja bastante antigua es la
conocida como "paradoja de Epiménides o del mentiroso" que
decía "Los cretenses, siempre embusteros". Como Epiménides
era cretense podemos traducir la afirmación así: "Siempre
miento. Nunca digo la verdad". ¿Qué se puede inferir de esta
paradoja? Si Epiménides siempre miente, dicha afirmación sería
falsa, por lo tanto, no siempre miente y siempre dice la verdad. Pero
si dice la verdad, la afirmación resultaría ser cierta, por lo
tanto, siempre miente y nunca dice la verdad. Y así podríamos
continuar hasta el infinito, sin llegar a nada concreto. De nuevo, la
autorreferencia produce una paradoja.
Una variante de la paradoja de
Epiménides es la siguiente: supongamos que nos encontramos con
Epiménides y nos dice: "Esta aseveración es falsa". ¿Dice
la verdad o miente? Nuevamente la autorreferencia produce una
paradoja. Siempre nos encontramos con la autorreferencia. Pensemos
más detenidamente en este caso y démosle otro aspecto usando
lenguaje matemático. Digamos que
B = [Esta aseveración no es verdad] =
[B es falsa]
La pregunta es, ¿B es falsa o cierta?
Son las dos únicas opciones. Vamos a analizarlas y ver que
situaciones plantean. Supongamos que B es cierta. Si B es cierta, la
aseveración "B es falsa" es verdadera. Vaya, nos
encontramos ante una contradicción. ¿Qué tal si probamos con la
otra opción? Vamos a suponer ahora que B es falsa. Si esto es así,
nos encontramos con que la aseveración "B es falsa" no es
verdad, luego podríamos decir que "B es cierta", pero ¿no
habíamos dicho que B era falsa? Una nueva contradicción.
Esta paradoja será muy útil para
Gödel, quien sustituye la palabra "verdad" por
"demostrable". Gödel crea la proposición G, donde G =
[Esta aseveración no es demostrable] = [G es indemostrable]
Gödel nos dice que puede que G sea
verdad, pero que no lo demostraremos nunca. Nos encontramos ante el
hecho de que el hecho de que una proposición sea verdadera tiene más
peso que el hecho de que sea demostrable.
Otra curiosa paradoja es la siguiente:
La siguiente oración es falsa.
La oración anterior es verdadera.
Dejamos al lector el trabajo de
encontrar la incoherencia, pero no podemos dejar de señalar que
nuevamente el fenómeno de la autorreferencia provoca la paradoja. En
este caso particular cada proposición hace referencia a la otra, con
lo que se crea un "bucle infinito". Otro caso parecido es
el conocido dibujo de M. C. Escher, "Manos que dibujan". Si
el lector quisiera saber más sobre estos "eternos y gráciles
bucles", le recomendamos el libro "Gödel, Escher, Bach. Un
eterno y grácil bucle" de Douglas R. Hofstadter.
En 1931 Gödel publicó un artículo
titulado "Sobre proposiciones formalmente no decidibles en
Principia Mathematica y sistemas relacionados".El primer
teorema de Gödel dice así:
"A toda clase c de fórmulas
w-consistente recursivas le corresponde una clase-signo r tal que ni
v Gen r ni Neg(v Gen r) pertenecen a Flg(c), donde v es la variable
libre de r".
Esto, dicho tal cual, puede sonar
bastante enrevesado, pero podríamos afirmar que el teorema de Gödel
dice:
en todo sistema axiomático existen
proposiciones sobre las cuales no vamos a poder demostrar si son
ciertas o falsas. Gödel asimismo afirmaba que si un sistema es
consistente, entonces es incompleto, y si el sistema es completo,
entonces es inconsistente.
Pero el lector tal vez se pregunte qué
es un sistema, qué significa que sea consistente o incompleto, qué
es una proposición, etcétera. Vamos a intentar explicar que es cada
cosa antes de profundizar más en el teorema.
Einstein y godel.
En primer lugar, un sistema es un
conjunto de axiomas y reglas de inferencia.
Una proposición es una afirmación que
puede ser cierta o falsa. Por ejemplo, en un sistema aritmético, una
proposición podría ser "2+2=4". La proposición sería
cierta. Otra proposición puede ser "3+1=7" en cuyo caso
sería falsa.
En lo referente a completitud y
coherencia, un sistema es completo cuando dentro de el sistema puede
determinarse el status de veracidad o falsedad de toda proposición
dentro él; es decir, cuando siempre podemos saber si la proposición
es cierta o falsa. Los sistemas incompletos tienen proposiciones las
cuales no podemos saber si son ciertas o falsas. Asimismo, un sistema
es coherente cuando no hay contradicciones de ningún tipo ni tiene
ninguna paradoja; y obviamente, es incoherente cuando nos encontramos
con contradicciones y paradojas.
sistema consistente (sistema limipio de
paradojas y contradicciones) ⇒ incompleto
sistema completo (sistema donde toda
proposición puede ser demostrada o refutada dentro de él) ⇒
inconsistente
En la época en la que aparece
el Teorema de Gödel, se creía que podrían crearse sistemas que
describieran los diversos campos de la matemática (la teoría de
conjuntos, la teoría de números, la lógica, etcétera) de tal modo
que dichos sistemas fueran completos y coherentes. Se aspiraba a
abarcar todo el conocimiento y en su optimismo, los matemáticos
creían que todo podría ser demostrado. Pero un sistema que incluya
proposiciones autorreferenciales genera paradojas, como vimos
anteriormente. El Teorema de Gödel marcó un antes y un después en
las matemáticas.
Para quienes no les interese el
pensamiento matemático o les resulte engorroso la lectura de
formulas y lógicas matematicas pueden prescindir del siguiente
desarrollo. Al margen de las demostraciones empíricas en terminos
lógicos y matemáticos que ofrece el teorema, sus conclusiones
repercutieron en otros ámbitos del pensamiento de formas
escenciales. Por lo tanto pueden saltearse la lectura del apartado
siguiente y continuarla directamente en las repercusiones que surgen
de las reflexiones que venimos desarrollando y que son demostradas
por el teorema de Gödel.
Las pruebas de Gödel sobre
la consistencia interna y completitud se basan en la idea de la
representación, es decir, en la posibilidad de "representar"
declaraciones metamatemáticas acerca de un sistema formal dentro del
sistema mismo. Gödel trata de traducir proposiciones sobre el
sistema tales como "esta proposición no tiene demostración en
el sistema" aproposiciones numéricas. No debemos perder de
vista que el teorema de Gödel se centra en la aritmética y sistemas
afines, por lo que las proposiciones deben traducirse a números
naturales.
Hacer uso de la idea de la
representación es la clave de la investigación de Gödel. Él probó
que proposiciones metamatemáticas acerca de un sistema aritmético
formalizado podían ser representadas por fórmulas aritméticas
dentro del propio sistema. Una vez que se aseguró de que era posible
esto, el segundo paso consistió en idear un método de
representación tal que le permitiera demostrar que ni la fórmula
aritmética correspondiente a una determinada proposición
metamatemática verdadera acerca de la fórmula, ni la fórmula
aritmética correspondiente a la negación de la proposición, son
demostrables dentro del sistema.
En resumidas cuentas, Gödel ideó un
sistema tal, que a proposiciones metamatemáticas sobre el sistema,
les correspondía una única fórmula aritmética dentro del propio
sistema para a continuación demostrar que dichas fórmulas no eran
demostrables.
El método ideado por Gödel se conoce
como numeración Gödel. El proceso consta de varias fases que
van desde la simbolización numérica Gödel hasta la demostración
de la imposibilidad de probar la consistencia de la aritmética
mediante un proceso finitista. En primer lugar, Gödel asoció a cada
símbolo de cualquier fórmula del cálculo un número entero
positivo arbitrario. Gödel optó por la siguiente simbolización
para el vocabulario fundamental:
Signo constante | número Gödel | significado |
¬ ó ~ | 1 | "no" |
∨ | 2 | "o" |
⇒ | 3 | "implica" |
∃ | 4 | "existe un" |
= | 5 | "igual" |
0 | 6 | "cero" |
s | 7 | "siguiente" |
( | 8 | "signo de apertura de paréntesis" |
) | 9 | "signo de cierre de paréntesis" |
, | 10 | "coma" |
variables numéricas | número | variables proposicionales | número |
x | 11 | p | 112 |
y | 13 | p | 132 |
z | 17 | r | 172 |
Variables predicativas | número |
P | 112 |
Q | 132 |
R | 172 |
Por ejemplo, el número Gödel asignado
a la fórmula:
(∃x)(x = sy)
sería
Existen signos que no aparecen en el
vocabulario, por lo que no tienen asociado un valor. ¿Por qué?
¿Acaso no podría provocar esto que se queden fuera muchas
proposiciones? La respuesta es que no, ya que Gödel demostró que
los signos anteriores eran suficientes, por lo que para representar
ciertas proposiciones, deben transformarse a proposiciones
equivalentes que empleen estos símbolos. Por ejemplo, la conjunción
"p ^ q" queda definida por la expresión "~(~p v ~q)".
En el caso de haber una sucesión de
fórmulas el número de Gödel se puede obtener a partir de los
números de Gödel de cada fórmula de la sucesión por el mismo
procedimiento que el número Gödel de cada una de las fórmulas. Es
decir, si n1,n2,...,nk, son los números de Gödel de las k fórmulas
de una sucesión S, el número Gödel de S, nS será:
n1 n2
nS= 2 * 3 …...........Pk
donde pk es el primo de lugar k
En resumen, toda expresión contenida
en el sistema tiene asociado un número Gödel. Este método
establece una correspondencia biunívoca. Toda expresión del sistema
corresponde a un único número Gödel y todo número Gödel está
asociado a una expresión del sistema.
Una que vez que Gödel establece los
símbolos básicos, intenta construir la proposición "Esta
proposición no es demostrable en el sistema". Es la llamada
fórmula G. Dichas fórmula puede ponerse de la siguiente forma:
G = [G no es demostrable]
Para ello comienza definiendo la
relación "la sucesión de fórmulas con número de Gödel x es
una prueba de la fórmula con número de Gödel z". Sea esta
relación Dem(x,z). De forma análoga, ~Dem(x,z) es la relación
aritmética equivalente a "la sucesión de fórmulas con número
Gödel x no es una prueba de la fórmula con número Gödel z".
La relación Dem(x,z) viene a decir que la proposición cuyo número
Gödel es z es demostrable.
Se emplea también la notación
aritmética Sust(m,k,m) para designar matemáticamente "el
número Gödel de la fórmula obtenida a partir de la fórmula de
número Gödel m, sustituyendo en ella la variable de número Gödel
k por el numeral de m".
Teniendo estas dos relaciones, podemos
hayar la fórmula G. Esta, como se ha comentado antes, debe ser la
representación aritmética de la proposición metamatemática "la
fórmula G no es demostrable". Se parte de la fórmula
(∀ x)(~Dem(x,z))
que quiere decir que "para todo x,
la sucesión de fórmulas con número Gödel x no es una prueba con
número de Gödel z" o lo que es lo mismo, la fórmula de número
Gödel z no es demostrable. Un caso particular de ésta sería:
(∀ x)(~Dem(x, sust(y,k,y)))
donde sust(y,k,y) representa un número
Gödel. Esta fórmula tiene a su vez asociado un número Gödeln. Si
la reescribimos del siguiente modo, sustituyendo y por n, tendremos
que
(∀ x)(~Dem(x, sust(n,k,n)))
Esta es la fórmula G que se buscaba.
El número Gödel asociado a G es el número simbolizado por
sust(n,k,n), luego la fórmula G expresa la siguiente proposición:
"(∀ x)(~Dem(x, sust(n,k,n))) no
es demostrable".
Hemos conseguido representar la
proposición "Esta proposición no es demostrable" dentro
del sistema. Si se consigue demostrar G dentro del sistema, se
llegaría a una contradicción, con lo que el sistema sería
incoherente. Así pues, G debería ser no demostrable y de este modo
cierta, por lo que el sistema sería incompleto al no poderse
demostrar la proposición G. En el caso de que la proposición G se
incluyera dentro del conjunto de axiomas del sistema para solucionar
la incompletitud del mismo, siguiendo el mismo proceso obtendríamos
los mismos resultados.
El siguiente paso a seguir es probar
que si G es demostrable, su negación ~G también es demostrable. Por
lo tanto, si (∀ x)(~Dem(x, sust(n,k,n))) es demostrable,
entonces~(∀ x)(~Dem(x, sust(n,k,n))) también lo es.
Suponiendo que G es demostrable,
existiría una sucesión de fórmulas aritméticas que constituyesen
una prueba de G. Sea I el número Gödel de tal sucesión de
fórmulas. Por lo tanto tenemos (Dem(I, sust(n,k,n))). Esta fórmula
debe ser fórmula aritmética verdadera. Sin embargo puede probarse
que esta relación aritmética es de un tipo tal que, si dicha
relación se da entre un par definido de números, la fórmula que
exprese este hecho es demostrable, por lo tanto, (Dem(I,
sust(n,k,n))) es un teorema.
Ahora bien, empleando las reglas de
transformación de la lógica elemental se obtiene la fórmula ~(∀
x)(~Dem(x, sust(n,k,n))). Esta fórmula es ~G. Por tanto,G y su
negación son ambas demostrables lo que es una paradoja puesto que
estamos demostrando que la proposición "Esta proposición no es
demostrable" es demostrable, por lo que el sistema sería
incoherente. Suponiendo que el sistema es consistente (sin
contradicciones ni paradojas), entonces tanto G como su negación son
no demostrables, por lo que el sistema seríaincompleto. Aún cuando
se añadiera G al conjunto de axiomas del sistema, podría
construirse una nueva fórmula verdadera pero indecidible siguiendo
los pasos descritos anteriormente.
La pregunta que surge es: ¿si la
aritmética es consistente, entonces es incompleta? O bien ¿si la
aritmética es completa es entonces inconsistente? Para responder a
esta cuestión se crea una nueva fórmula aritmética A, que
representa la proposición "Existe una fórmula aritmética que
no es demostrable". Usando la representación, tenemos que dicha
proposición sería
(∃ y)(∀ x)(~Dem(x,y))
Literalmente, esta fórmula viene a
decir que existe al menos una fórmula aritmética tal que ninguna
sucesión de fórmulas aritméticas constituyen una prueba. Es decir,
existe una fórmula que no es demostrable.
Si se consigue demostrar A, se
demostraría la incompletitud del sistema. Podemos expresar la
proposición "si la aritmética es consistente, entonces es
incompleta" de la siguiente forma:
A ⇒ G
que sería
(∃ y)(∀ x)(~Dem(x,y)) ⇒ (∀
x)(~Dem(x,Sust(n,k,n)))
Puede probarse que la fórmula A no es
demostrable, pues si lo fuese y suponiendo que A ⇒ G es
demostrable, se tendría como demostrable A y por la regla de
separación, sería demostrable también G. Por lo tanto, el cálculo
sería inconsistente.
Con su teorema, Gödel vino a decir en
definitiva, como se dijo antes,que si la aritmética es consistente,
entonces es incompleta, y si la aritmética es consistente, su
consistencia no puede probarse por ningún razonamiento
metamatemático que pueda ser representado dentro de la aritmética.
En la civilización occidental, desde
la cultura griega hasta la fecha las matemáticas se han erigido como
fortaleza del racionalismo. Sin embargo, hasta en la más precisa de
las ciencias el hombre no puede huir de su finitud. Todo sistema
matemático que pueda construirse estará condenado a la
incompletitud. Gödel ha mostrado que existen en matemáticas
problemas sin solución que no pueden formalizarse en un sistema
completo.
Los matemáticos saben ahora que su
mayor objetivo, el de llegar a lo más profundo de las cosas es
inalcanzable. Su objetivo como tal ni siquiera existe. Las
matemáticas no poseen una realidad autosustentable independiente del
hombre; y aunque existiera, nuestra esencia finita nos impediría
formalizar su descripción en un sistema completo. Más aún, el
conocimiento racional nunca podrá llegar a la verdad última del
universo.
Son muchas las repercusiones del
trabajo de Gödel. La única condición para su aplicación es contar
con un sistema de razonamiento basado en un conjunto finito de
axiomas. A esta descripción responden todas las ramas de las
matemáticas, física, astronomía, muchos planteamientos de la
filosofía y la lingüística... Sin embargo, y relajando la
condición podría extenderse a las ciencias sociales: economía,
psicología, sociología, teología o historia; si bien hay que decir
que la aplicación en dichos casos no gozará del rigor de su origen,
y se puede llegar a conclusiones falsas.
La limitación que el teorema nos
descubre supuso un duro golpe al formalismo y logicismo matemáticos
que hasta entonces trataban de alcanzar lo que resultaría ser
inalcanzable. Esta es pues su primera y más directa repercusión.
El sentir de Peanno, Boole, De Morgan,
Hilbert, Gentzen, etc, partía de que para cualquier proposición
bien construida del sistema matemático habría de existir o bien una
demostración de ella o bien una demostración de su contraria porque
en matemáticas no hay ningún "ignoraremos", kein
'ignorabimus' in der Mathematik. Entendiendo por sistema matemático
un sistema formal, es decir, un conjunto de símbolos carentes de
significado que lo adquieren mediante una serie de convenciones
previas o axiomas. La demostración de este hecho que no se ponía en
duda, fue el objetivo principal de Hilbert.
Gödel constituyó un duro golpe para
esa concepción clásica, la naturaleza de la verdad matemática se
suponía que era la demostrabilidad, pero no es así. Demostró los
límites de los sistemas formales. La matemática siempre contendrá
verdades indecidibles, siendo por tanto inagotable. El método
axiomático resulta finitamente fecundo.
Como dijo Morris Kline uno de los
formalistas de la época, "El fenómeno de la incompletitud
constituye un importante defecto ya que entonces el sistema formal no
es adecuado para demostrar todas las afirmaciones que podrían serlo
correctamente (sin contradicción) dentro del sistema."
Tambien Herman Weyl apostilla en 1949:
"Ningún Hilbert será capaz de asegurar la consistencia para
siempre; hemos de estar satisfechos de que un sistema axiomático
simple de matemáticas haya superado hasta el presente el test de
nuestros elaborados experimentos matemáticos... Una matemática
genuinamente realista debería concebirse, en parangón con la
física, como una rama de la interpretación teorética del único
mundo real y debería adoptar la misma actitud sobria y cautelosa que
manifiesta la física hacia las extensiones hipotéticas de sus
fundamentos."
Los resultados de Gödel son también
decisivos para el intuicionismo de Brouwer. Aunque ya habían sido
vistos por éste, de hecho le sorprendía la importancia que se le
estaba dando a tal descubrimiento. El mérito de Gödel, sin embargo,
radica en la construcción de las pruebas formales que muestran
proposiciones indecidibles desde el formalismo de la aritmética
elemental. Probó también que no era posible demostrar la
consistencia dentro del sistema. Gödel por tanto les hizo ver que el
uso de métodos formales podía llevar a conclusiones precisas que
sólo podrían verse parcialmente y de forma incompleta.
En el último capítulo de su
Introduction to Mathematical Philosophy, Russell escribe: "Si
todavía hay quien no admita la identidad de la lógica y la
matemática, podemos desafiarle a que nos muestre en qué punto de la
cadena de definiciones y deducciones de los Principia Mathematica
considera que concluye la lógica y comienza la matemática."
Es entonces cuando el teorema de
imcompletitud arruina el objetivo del logicismo de construir un
sistema lógico que permita incluir la aritmética. Descubre que la
verdad matemática es de orden mayor a la verdad lógica, por tanto,
no se puede reducir la matemática a la lógica.
Es reseñable la evolución de la
opinión de Russell que queda plasmada en la siguiente cronología de
citas:
1901
"el edificio de las verdades
matemáticas se mantiene inconmovible e inexpugnable ante todos los
proyectiles de la duda cínica".
1924
“la lógica y la matemática, al
igual que, por ejemplo, las ecuaciones de Maxwell, son aceptadas
debido a la verdad observada de algunas de sus consecuencias
lógicas".
1959
“La espléndida certeza que siempre
había esperado encontrar en la matemática se perdió en un
laberinto desconcertante".
W. y M.Kneale señalan el "ataque”
que realiza Gödel sobre la identificación entre lógica y
matemática que hace Russell
"Desde Gödel, parece razonable
responder que la lógica no se extiende más allá de la teoría de
la cuantificación. Cuando decimos que la aritmética y, con ella,
todos los llamados cálculos funcionales de orden superior, así como
todas las versiones de la teoría de conjuntos, son esencialmente
incompletos, estamos efectivamente admitiendo que esas teorías
envuelven alguna noción, o más de una, de la que no cabe ofrecer
una exhaustiva caracterización mediante el establecimiento de una
serie de reglas de inferencia: y ésta parece constituir una buena
razón para excluirlas del dominio de la lógica.... carecería de
objeto afirmar la posibilidad de reducir toda la matemática a la
lógica si, al mismo tiempo, hubiera que admitir que la lógica
incluye dentro de sí todos y cada uno de los diversos apartados de
la matemática."
Por su cercanía a las matemáticas, la
física, tan cuidadosamente axiomatizada es la más afectada por el
teorema de Gödel. Los físicos han comprendido a la fuerza que sus
mayores limitaciones no serán económicas o tecnológicas, ni
siquiera las asociadas a la capacidad humana. Su mayor limitación
radica en que nunca alcanzarán solución a todos los problemas que
puedan plantearse, ya que todo sistema racional de conocimientos es
esencialmente incompleto.
Para entenderlo, consideremos que la
física no existe a parte del universo, forma parte de él y su
objeto es modelarlo. El hombre también forma parte del mismo. Dado
que tanto el sistema como sus creadores forman parte del universo,
parece evidente pensar que el universo trata de hacer un modelo de sí
mismo. Por tanto, una pequeña parte del universo (el hombre y su
sistema) tratan de modelar una realidad completa (el universo). Este
es un claro ejemplo de autoreferencia, y como tal aparece una
paradoja: el modelo como parte del universo tendría que ser
mayor que el universo que pretende modelar.¿Una parte mayor que el
todo?
Junto al teorema de Gödel surgen una
serie de teoremas cuya suma establece una gran limitación sobre el
alcance del conocimiento científico. Muere por tanto el ideal, u
objetivo esencial de la ciencia en sí, consistente en establecer un
sistema axiomático que explique los fenómenos de la
naturaleza/universales.
Podemos relacionar el teorema de
incompletitud con tres de los grandes principios o leyes
fundamentales: la relatividad, la incertidumbre y la indecibilidad,
estudiados por Albert Einstein,Werner Heisenberg y Alan Turing
respectivamente.
Expliquemos a grandes rasgos dichos
principios:
- El principio de relatividad nos explica que no existen puntos de vista privilegiados para observar la realidad. Posición, tiempo y velocidad son relativos y según el punto de vista obtenemos resultados diferentes igualmente válidos.
- El principio de incertidumbre asevera: Medir implica interactuar y por tanto cierta alteración. Pero aunque la medida sea ideal, la posición de una partícula es sólo la probabilidad de obtener una medición, no una cantidad absoluta. Se antoja imposible por tanto conocer exactamente a la vez dónde está y a qué velocidad se mueve una partícula.
- El principio de indecibilidad: No es posible escribir un programa que decida si otro programa cualquiera está correctamente escrito (en el sentido de que nunca quedará colgado). La verificación algorítmica por tanto queda limitada.
Una vez introducidos todos los
principios, ¿qué relación podemos encontrar entre ellos? Todos
ellos supusieron el descubrimiento de diferentes limitaciones que
existen en la lógica formal que empleamos para llegar a las verdades
más profundas, ya sea en física, matemáticas, o cualquier otra
aplicación. Pero éstas no son limitaciones a la ciencia en sí,
sino a la forma en que la observamos. No debe ser por tanto fuente de
desánimo sino llamada de atención.
Carlos Castillo, Doctor en Ciencias por
la Universidad de Chile, nos relaciona éstos principios de la
siguiente manera:
"Tanto la relatividad como la
incertidumbre se originan en la física, mientras que la
incompletitud y la indecidibilidad aparecen en la matemática. La
incertidumbre y la indecidibilidad, a su vez, tienen que ver con la
incapacidad de hacer predicciones, mientras que la relatividad y la
incompletitud con el hecho de que las referencias son necesarias,
pero impiden ciertas operaciones. No quisiera intentar llevar estas
relaciones demasiado lejos: es probable que en el futuro descubramos
nuevas limitaciones al quehacer científico, que completen esta
imagen. Más bien, y para terminar, quisiera plantear otra analogía."
"En el ojo de los mamíferos
observamos una construcción bastante curiosa, y es que todos los
nervios que van desde la superficie de la retina hasta el cerebro, al
salir del ojo se encuentran en un solo punto. Este diseño tiene una
desventaja y es que justamente el punto donde se encuentran los
nervios no es sensible a la luz. Esto genera un "punto ciego",
una zona del campo visual en la cual no vemos. Al mismo tiempo y
curiosamente, no vemos que no vemos. Primero, el punto ciego es
bastante pequeño; segundo, el cerebro compensa la imagen para que no
veamos una pelota negra flotando en el aire, y tercero, tenemos dos
ojos y sus puntos ciegos no coinciden. Podemos ocupar el hecho de que
sabemos que hay un punto ciego en el diseño de algunos aparatos, por
ejemplo, en el diseño del tablero de control de un avión, pero
aparte de eso en la vida diaria y para el 99.9% de la población no
tiene ninguna relevancia."
"Sucede algo similar con las leyes
que hemos discutido. Por una parte, restringen la mirada, pero
podemos operar con ellas. Aún existiendo relatividad, si nos
sorprenden a 120 kilómetros por hora en una zona de 100 km/hr
tendremos una multa, sin importar que con relación a nosotros el
automóvil estaba inmóvil, porque hemos fijado cierto marco de
referencia. Aún existiendo incertidumbre es posible jugar al
baseball porque la incertidumbre para un objeto del tamaño de una
pelota es muchísimo menor que lo observable a simple vista. Aunque
los sistemas deductivos son incompletos, la incompletitud le quita el
sueño a muy pocos matemáticos, y cada año demostraciones
increíblemente ingeniosas y difíciles son llevadas a cabo sin
problemas. Aún existiendo indecibilidad, programas de primera
calidad controlan sistemas de alta disponibilidad y la mayoría de
los errores encontrados no provienen de oscuras condiciones de parada
sino de meros descuidos a la hora de programar."
"Las reglas del juego científico
incluyen relatividad, incertidumbre, incompletitud e indecibilidad.
Desde el punto de vista de la ciencia, el entender estas limitaciones
nos puede llevar a nuevos descubrimientos acerca de cómo funciona el
universo. Aún a través de este punto ciego, podemos ver."
John Lucas, filósofo de Oxford,
defendía el punto de vista a partir del que Gödel, había mostrado
que en los sistemas matemáticos existen proposiciones indemostrables
dentro de los propios sistemas, y que sin embargo son evidentemente
verdaderas.
De esta manera, argumenta: "Cualquier
formalismo S que contenga PA es tal que al razonar sobre él, podemos
establecer la existencia de una fórmula verdadera con respecto a la
interpretación estándar de S pero indemostrable en S. Por tanto,
esa fórmula será aceptable desde nuestro punto de vista, por ser
verdadera, pero inaceptable para S –por ser indemostrable–, con
lo que ningún cálculo será capaz de encapsular las habilidades
formales del ser humano."
Lucas por tanto se basaba en que la
capacidad de nuestro entendimiento sobrepasa a la del computador. El
computador emplea únicamente algoritmos, es decir, series de
precisas normas que definen los pasos a seguir para resolver un
problema o demostrar la veracidad de una proposición. Pero no existe
ningún algoritmo capaz de demostrar determinadas proposiciones que
sin embargo nosotros percibimos como ciertas. De esta manera, el
conocimiento de esas verdades no puede ser de orden algorítmico.
Como los computadores funcionan únicamente sobre la base
algorítmica, no somos computadores.
Roger Penrose retoma el argumento de
Lucas y a partir de la versión del teorema de Gödel presentado por
Turing, conocido como -demostración del insolucionable problema de
la"detención"- (de una máquina en proceso de cálculo),
afirma que ningún computador podrá alcanzar al ser humano en el
ámbito del razonamiento matemático, ya que el ser humano posee
capacidades intuitivas "no algorítmicas", además los
modelos informáticos no garantizan jucios de verdad.
Los teoremas de Gödel han sido
ampliamente empleados para criticar las ideas que defienden la
creación de una auténtica Inteligencia Artificial. Sin embargo,
muchas de las teorías que echan por tierra el sueño de crear una
máquina con una inteligencia que pueda rivalizar con la del ser
humano no pueden ser aplicadas al campo de la Vida Artificial sin
más, a pesar de los muchos puntos en común que tienen ambos campos.
El propio Gödel dijo que su teorema de
la incompletitud no impediría la posible creación de una mente
artificial, y autores como Rudy Rucker emplean argumentos similares a
los deLucas, utilizando también el teorema de incompletitud de Gödel
para defender la posible creación de inteligencia artificial. Tales
argumentos demuestran que el sólo uso de la incompletitud no sirve
para negar la posibilidad de crear inteligencia artificial. Sin
embargo, Gödel puede emplearse para restringir y cerrar muchos
caminos en el campo de la Vida Artificial.
La Vida Artificial no persigue la meta
de crear una inteligencia similar a la humana (esto queda dentro del
campo de la Inteligencia Artificial), sino que profundiza en el
estudio de la vida en su sentido más elemental, comparando y
contrastando los conceptos de "vida tal como es" y "vida
tal y como podría ser". Actualmente en el campo de la Vida
Artificial existen dos opciones para la investigación y el
desarrollo.Una de ellas considera la Vida Artificial como las
herramientas necesarias para estudiar el mundo natural, mientras que
la otra se centra en la idea de que se pueden diseñar programas, que
ejecutados correctamente, constituyan una forma de vida por sí
mismos. Donde el teorema de Gödel puede afectar más es en esta
segunda acepción del concepto Vida Artificial, y más concretamente,
en la idea de que se pueden crear realidades artificiales que puedan
tener los requisitos mínimos para la creación de vida.
Para entender el concepto de Vida
Artificial y las restricciones que Gödel pueda imponer se hace
necesario conocer primero el término mecanicismo. El mecanicismo
surge a partir del siglo XVII, y es la creencia de que el
universo se rige y es explicable en términos de procesos mecánicos.
El mecanicismo intenta demostrar que el universo no es más que un
gran sistema. Si los físicos podían modelar el universo en función
de las leyes físicas, la biología también podría ser modelada de
acuerdo a esas mismas leyes. Según Descartes, los propios animales
podrían ser considerados máquinas, y autores como Emmeche afirman
que "un organismo no es más que una colección de átomos, una
simple máquina hecha de moléculas orgánicas". Sattler definía
los seres vivos en términos mecanicistas, y literalmente hizo las
siguientes afirmaciones:
- Los sistemas vivos pueden y deben ser vistos como sistemas físico-químicos.
- Los sistemas vivos pueden y deben ser vistos como máquinas.
- Los sistemas vivos pueden ser descritos formalmente. Existen leyes naturales que describen por completo los sistemas vivos.
Sin embargo autores como Lucas y
Penrose defienden la idea de que al menos en el caso de los seres
humanos, esto no es así, y pese a la idea que se tenía de los seres
vivos como entidades físicas que se rigen por procesos mecánicos,
los avances en física hacen que esta concepción se tambalee
ligeramente.
En lo referente a términos de Vida
Artificial, la idea predominante es que puede ser descrita
formalmente mediante las leyes físicas por las que se rigen los
seres vivos. De los tres postulados anteriores sobre los sistemas
vivos, puede eliminarse el primero, ya que no van a tratarse de
sistemas físico-químicos. Sin embargo se mantienen los otros dos.
Los principales términos de la Vida
Artificial, en resumen, son los siguientes:
- Los sistemas vivos pueden reducirse a las leyes descritas en los sistemas adaptativos complejos.
- Puesto que un sistema adaptativo complejo es reducible a procesos mecánicos, debe ser posible formalizar todas las leyes que rigen en ese sistema.
- Estas leyes pueden ser implementadas en una determinada arquitectura computacional.
Como conclusión, se tiene que un
programa ejecutado en una arquitectura suficientemente compleja puede
ser considerado como un ser vivo. Habiendo llegado a esta conclusión
llega el momento de ver cual es la implicación de Gödel en la Vida
Artificial. Para ello John P. Sullins emplea el artículo de Steen
Rasmussen "Aspects of Information, Life, Reality, and Physics".
En este artículo, Rasmussen dice:
- Una computadora universal como la máquina de Turing puede simular cualquier proceso físico.
- La vida es un proceso físico, por lo que la vida puede ser simulada en una computadora universal.
- Existen criterios que permiten diferenciar a los seres vivos de los no vivos, por lo tanto es posible determinar si un determinado proceso está vivo o no.
- Un organismo artificial debe percibir una realidad R2, la cual debe ser para él tan real como nuestra realidad "real" R1 lo es para nosotros, pudiendo ser R1 y R2 la misma.
- R1 y R2 tienen el mismo 'status ontológico. Gracias al quinto postulado y al corolario extraído del segundo postulado, se puede afirmar que el status ontológico de un proceso vivo es independiente del hardware que lo soporta. Puesto que el status ontológico de R1 y R2 es el mismo, los sistemas vivos pueden crearse en un computador.
- Es posible aprender algo acerca las propiedades fundamentales de las realidades en general, y de R1 en particular, mediante el estudio de los detalles de las diferentes R2's.
Teniendo estos postulados, para crear
una realidad R2 equivalente a la realidad R1 se hace necesario que se
rija por unas leyes físicas equivalentes a las nuestras, de tal modo
que los entes vivos puedan interactuar con esa realidad. Estas leyes
pueden ser una versión simplificada de las mismas, pero deben ser
formalizadas. Se puede asegurar pues que existe un conjunto mínimo
de axiomas formales que pueden ser empleados para crear una física
artificial capaz de soportar vida artificial.
El teorema de Gödel afecta a esta
realidad artificial tanto como a la nuestra. Sin embargo en nuestra
realidad el teorema de incompletitud de Gödel afirma que en sistemas
formales axiomáticos tales como la aritmética, existen
proposiciones que aún siendo ciertas, no pueden ser demostradas. Es
decir, dichos sistemas serían serían incompletos. Esto puede llevar
a pensar que las matemáticas no son formalizables ni mucho menos
mecanicistas. Si las matemáticas en muchos de sus campos no son
formalizables, no podrían incluirse en la realidad artificial que se
intenta crear. Se puede llegar a pensar que al igual que las
matemáticas, otros muchos aspectos y "reglas" de nuestra
realidad no podrían ser incluidas en R2. Siendo esto así, nuestra
realidad y la realidad artificial no tendrían el mismo status
ontológico. El postulado número 5 de Rasmussen se viene abajo.
Esto nos lleva a pensar que la vida
artificial no podrá ser posible, pero como se dijo al comienzo,
Gödel sólo cierra algunos caminos. Si bien puede no ser posible
crear realidades artificiales con procesos como entes vivos, el campo
de la robótica abre nuevas vías, de tal modo que pueden crearse
seres vivos artificiales en nuestra propia realidad. Si se lograra
que los robots interactuaran con el medio, y dotarlos de la capacidad
de adaptación y reproducción, la Vida Artificial aún seguiría
siendo posible.
La lingüística es un área que ha
sido objeto de estudio para numerosas disciplinas, desde la filosofía
a la psicología, pasando por la informática. Su fin es estudiar las
estructuras gramaticales y sintácticas del lenguaje. La lingüística
pues supone una base de comunicación. En el campo de la inteligencia
artificial por ejemplo se pretende enseñar al computador a entender
y enunciar formalmente enunciados comprensibles para el hombre. Aquí
entra en juego también la semántica. Es por tanto vital comprender
la suma importancia de la lingüística como base para la
comunicación ya sea entre hombres como hombre-máquina.
La base de la lingüística es una
serie finita de normas que establecen de qué manera debe realizarse
la comunicación. Se puede entender por tanto como un conjunto finito
de axiomas, siendo ésta la tesis del teorema de Gödel podemos por
tanto sacar las conclusiones derivadas de su hipótesis. Podemos
concluir por tanto que en todo sistema lingüístico consistente algo
debe de resultar indecible.
Dado que a medida que nos alejamos de
la rigurosidad científica vamos relajando los requisitos para
aplicar el teorema, los resultados obtenidos son pues discutibles o
parcialmente aplicables. Por ejemplo en el ámbito de la lingüística
encontramos la poesía como clara excepción. La poesía no posee
determinadas limitaciones, permitiendo darse contradicciones e
incoherencias fruto de la aplicación de las numerosas figuras
literarias que quedan fuera de la axiomatización inicial.
El teorema de Gödel ha influido de una
forma especial en la filosofía de las matemáticas de Zubiri'.
El teorema es entendido por el filósofo
como "Lo postulado tiene propiedades que no son deducibles de
los postulados ni pueden ser lógicamente refutadas por ellos".
"Jamás podrá demostrarse positivamente la no contradicción de
un verdadero sistema de notas o conceptos objetivos."
Por tanto la matemática debe avanzar
teniendo en cuenta los errores de los principios en los que se basa.
Aquí es donde coinciden Gödel y Zubiri. Ambos tienen un mismo
objetivo. La fundamentación matemática.
Zubiri crea su obra basándose en lo
postulado por Gödel, es decir utiliza el teorema para demostrar sus
escritos. De tal manera que si alguien estudia a Zubiri podrá ver
que toda su filosofía se demuestra con Gödel, que a su vez es
fácilmente interpretable desde Zubiri.
NUEVA
FILOSOFÍA MATEMÁTICA ORIGINAL.
Aparece como consecuencia del
teorema de Gödel, basándose en que la inteligencia matemática es
sentiente. Esto ayuda a Zubiri a echar por tierra la antigua
tradición en filosofía que se basaba en lo concipiente. Zubiri
ayudado por la demostración de Gödel afirma que "la
inteligencia concipiente se funda en la sentiente y el ser en la
realidad y no a la inversa".Esto supone la gran revolución en
filosofía.
Por tanto los postulados de Gödel y de
Zubiri (en matemáticas y filosofía) atraviesan el corazón de la
fundamentación del conocimiento. La idea de una matemática formal y
lógica se derrumba. Frente a esto surge la realidad de que todo
sistema formal tendrá proposiciones que no podrán demostrarse
aunque sean ciertas.
Otro autor muy influido por el teorema
fue Imre Lakatos, él cual, añadió a la matemática las bases
filosóficas de la ciencia de Kart Popper.
“Por qué no admitir honestamente la
falibilidad matemática y tratar de defender la dignidad del
conocimiento falible frente al escepticismo cínico más bien que
tratar de engañarnos a nosotros mismos creyendo que seremos capaces
de arreglar invisiblemente el último jirón en el tejido de nuestras
"últimas intuiciones".
Para el autor hay que tener muy claro
que las matemáticas son incompletas (basándose en Gödel) y la
incompletitud se haya en que existen procesos infinitos. Procesos que
deben existir ya que gracias a los procesos falibles que nos acerquen
a ellos podremos conocer nuestros errores e intentar corregirlos.
Los sistemas inteligentes, de acuerdo a
este derrotero de las especulaciones lógicas, se justificarían en
la necesidad permanente de plantear problemas que surgen de los
conocimientos adquiridos y de los modelos y sistemas que los explican
nuevo, para volver a generarlos nuevos superando esos problemas y
generandolos nuevos.(Algo así como una alteridad de lo imperfecto
que lleva en si misma la busqueda de la perfección). Entonces todo
sistema es paradojal y perfectible. Es decir que conlleva en sus
resutlados verdades no demostrables y falacias irresueltas.
Gregory Chaitin basándose en el
teorema de Gödel (en todo sistema axiomático existen proposiciones
en las que no puede decidirse la veracidad o falsedad de las mismas)
obtiene lo que se conoce como la "Constante de Chaitin" que
es un número entre 0 y 1, y que determina la probabilidad de un
programa para detener una máquina de Turing. Esta constante es
aleatoria, no puede calcularse, con lo que nunca se van a poder
determinar cuales son sus bits. Para ello Chaitin por una parte
define la aleatoriedad como lo incomprimible, carente de regularidad,
y por otro lado define los números, que poseen regularidad.
La idea de Chaitin para definir la
aleatoriedad se basa en el uso de la complejidad midiendo el tamaño
del programa, expone que al examinar el tamaño de un programa, si se
tiene en cuenta la complejidad de la información en lugar de la
complejidad por tiempo de ejecución, se encontrará siempre
incompletitud, puesto que es imposible determinar la complejidad de
un programa en base a su tamaño, ya que para ello se hace necesario
obtener el tamaño de los programas que calculan su complejidad. Con
n bits de axiomas nunca se va a poder demostrar que se obtenga un
programa más breve que el mismo, ya que al disponer de n bits
axiomáticos no se puede obtener la complejidad por tamaño del
programa si se superan los n bits axiomáticos.
Para hablar de la repercusión en los
ámbitos tratados anteriormente, hemos utilizado términos como
consistencia, completitud, etc. Confiriéndoles una importancia
elemental. En contraposición, la cultura budista-zen trata de
prescindir de dichos elementos para nosotros fundamentales. Defiende
que no pasa absolutamente nada por ignorarlos, que la verdad se
encuentra en los actos de la vida cotidiana.
Es tal la contraposición existente
entre el teorema de Gödel y la cultura oriental que se sirve de
paradojas, contradicciones, y planteamientos carentes de consistencia
lógica para llevar a la la mente a un estado de calma y realizar un
viaje místico hacia el Nirvana( la iluminación, la conciencia del
universo, la verdad absoluta).
Por tanto, ante las limitaciones
impuestas por Gödel, el budista zen opta por desentenderse de la
lógica y buscar la verdad a través de la niveles de existencias por
encima de la racionalidad del hombre, y formar parte todo, para
llegar a ser el todo, es decir,fusionarse con el universo para
entenderse a sí mismo.
Sin embargo no es el todo capaz de
explicarse a si mismo, sino en las descripciones de las relaciones
que establecen de formas dinámicas sus partes y de como estas se
ubican y dispersan en relación de los espacios y los tiempos que lo
limitan. Al igual que cualquier objeto solido, es, para la
percepción,inhanimado si no existe fuerza que lo induce al
movimiento, pero la falacia queda al descubierto cuándo se observa
el movimiento de sus atomós y de las estructuras electrónicas en
rededor de su núcleo, confirmando que toda masa por mas quieta que
se nos ofrezca, es siempre energía en movimiento y masa en
intercambio dinámico con esa energía. Dios, la naturaleza, la vida
no pueden ser entendido por fuera de las dinámicas que se generan en
el juego orden-caos/ equilibrio-desequilibrió/ masa-energía y en la
complejidad de los elementos que las diereccionan y ubican en tiempos
y espacios efímeros en las propias dinámicas de su existencia. En
esos equilibrios casi inexistentes en el tiempo, que en los espacios
permiten ubicarlos y percibirlos como quietos, juegan las paradojas
que hacen imperfecto lo perfecto y mezclan a Dios con el Diablo como
verdades necesarias de una misma dinamica paradojal.-
El
origen de todo: ¿La particula de Dios?
Una prueba experimental de
esto lo constituye lo que se transformo en el principal
descubrimiento del año que dejamos atrás: la llamada partícula de
Dios.
El bosón de Higgs o partícula de
Higgs es una partícula elemental propuesta en el Modelo estándar de
física de partículas. Recibe su nombre en honor a Peter Higgs
quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de
Higgs, para explicar el origen de la masa de las partículas
elementales. Según el modelo propuesto, no posee espín, carga
eléctrica o color, es muy inestable y se desintegra rápidamente, su
vida media es del orden del zeptosegundo. En algunas variantes del
Modelo estándar puede haber varios bosones de Higgs.
La existencia del bosón de Higgs y del
campo de Higgs asociado serían el más simple de varios métodos del
Modelo estándar de física de partículas que intentan explicar la
razón de la existencia de masa en las partículas elementales. Esta
teoría sugiere que un campo impregna todo el espacio, y que las
partículas elementales que interactúan con él adquieren masa,
mientras que las que no interactúan con él, no la tienen. En
particular, dicho mecanismo justifica la enorme masa de los bosones
vectoriales W y Z, como también la ausencia de masa de los fotones.
Tanto las partículas W y Z, como el fotón son bosones sin masa
propia, los primeros muestran una enorme masa porque interactúan
fuertemente con el campo de Higgs, y el fotón no muestra ninguna
masa porque no interactúa en absoluto con el campo de Higgs.
El 4 de julio de 2012, el CERN anunció
la observación de una nueva partícula «consistente con el bosón
de Higgs», pero se necesita más tiempo y datos para confirmarlo.
La partícula de Dios: si el universo
es la respuesta, ¿cuál es la pregunta? es un libro de divulgación
científica de 1993 escrito por el físico ganador del premio Nobel
Leon M. Lederman y el escritor de ciencias Dick Teresi. Con una
narrativa ligeramente humorística, metafórica y vívida, el libro
proporciona una breve historia de la física de partículas,
iniciando con el filósofo griego presocrático Demócrito y continua
con Isaac Newton, Roger Joseph Boscovich, Michael Faraday, y Ernest
Rutherford y la física cuántica en el siglo XX
Lederman explicó que puso el apodo «La
partícula de Dios» (The God Particle en inglés) al bosón de Higgs
porque la consideró «demasiada central para la física de hoy en
día, demasiado crucial para nuestro entendimiento final de la
estructura de la materia, aún muy evasivo», pero en son de broma
añadió que la segunda razón fue porque «la editorial no les dejó
llamarla "La maldita partícula" (The Goddamn Particle),
aunque ese sea un título más apropiado, dada su naturaleza villana
y el costo que está causando»
La obra inicia con un epígrafe de
Demócrito que recita: «Nada existe excepto los átomos y el espacio
vacío. Todo lo demás es opinión» La historia empieza en el año
430 a. C. cuando un filósofo griego huele el pan que se cuece en el
horno y se imagina que una partícula invisible es el responsable de
construir toda la materia. Posteriormente, lo llama á-tomo (que
significa «no divisible») y se convierte en la búsqueda más larga
en la historia de la ciencia: 2,500 años de experimentos hasta la
fecha.-
En una
pintura, detalla la evolución de la física clásica hasta el
nacimiento de la física cuántica.Menciona el desarrollo de los
aceleradores de partículas, habla principalmente de la ruptura
espontánea de simetría electrodébil y el bosón de Higgs y un
capítulo con una descripción más extensa sobre el uso de la
palabra «a-tomo» para referirse a la partícula fundamental e
indivisible de Demócrito. .Finalmente, mira en la astrofísica y
describe las evidencias sobre el Big Bang.
Pauline Gagnon, física del experimento
Atlas del Gran Colisionador de Hadrones (LHC, por sus siglas en
inglés), expuso estas conclusiones durante una conferencia impartida
en Kioto (Japón) en el transcurso de la cual se presentaron los
últimos datos del LHC, en noviembre de 2012: parece muy probable que
la partícula sea, efectivamente, el buscado bosón de Higgs que da
masa a la materia (la apodada "Partícula de Dios"). Pero
en lugar de la esperada partícula exótica que abriría la puerta a
nuevas realidades de la cosmología, los datos apuntan más bien a
que se trata de un "modelo estándar de Higgs", esto es,
uno que encaja en el concepto científico actual del universo. Y aún
cuándo se logre determinar con certeza el hallazgo, la respuesta
obedecería a la creencia de un Dios material. ¿Y que pasa con la
energía que le dá origen? ¿Con las modificiaciones de presión y
temperatura que permiten el paso de un estadio a otro? Es sabido que
la teoría más aceptada sobre el origen del uni verso es el Big
Bang o gran explosión. Tomando esta hipótesis, muchos de los
fenómenos que hoy en día se observan en el universo, como su
expansión, el fondo de
microondas, etc., pueden ser
correctamente explicados . Según esta teoría, el universo
habría nacido a partir de un tamaño infinitesimal y luego
habría iniciado una expansión hasta alcanzar el tamaño actual.
La pregunta que surge es ¿ cómo de pequeño era el universo en su
inicio?
Colisionador de Hadrones
No podemos comprimir el universo
indefinidamente ya que, en un momento dado, el tamaño alcanzará una
escala en donde los fenómenos cuánticos serán apreciables. En
ese mismo momento la gravedad será intensa y convivirán dos
fenómenos que la física aún no ha sido capaz de unificar. Para
estudiar el fenómeno se necesitaría disponer de una teoría
cuántica de la gravitación, cosa que aún no está consolidada.
Existen unos primeros rudimentos sobre
esta teoría y nos dice que, precisamente en esta escala es
necesario detenerse. Cálculos matemáticos complejos permiten
inferir que el universo sufrió una expansión comparable a la
que sufriría un obj eto desde un tamaño inferior a un protón hasta
el de una galaxia . Esta expansión se produce a una velocidad
enorme que supone millones de veces más rápida que la de la
luz c. Aunque esto parece violar la relatividad especial, la
teoría general de la relatividad permite expandirse al espacio
sin limitación alguna. En estos instantes, la métrica del
espacio-tiempo es tal que arrastra a la luz consigo, alcanzando
valores muy superiores al actual c. Para que el fenómeno tenga
éxito es necesario que hacia 10-43 segundos se inyecte en el
universo suficiente energía como para producir su expansión, ya
que, en caso contrario colapsaría sobre sí mismo y el universo
sería fallido.
La incógnita del origen de la energía
restante sigue, no obstante, en pié. La teoría más aceptada que
existe sobre este origen se denomina el bosón de Higgs. En ella se
postula que existe una partícula (el bosón de Higgs) que verifica
una relación matemática determinada que liga el valor de la energía
potencial V que adquiere el bosón en un determinado campo escalar
f. Dicha relación depende de
la temperatura T según una formula con
estas variables identificadas que dibujaría curvas de
representaciones vectoriales dependientes de las relaciones entre sus
potenciales de energía y la temperatura. Estos procesos podrían
darse en sucesos de las etapas finales de la vida de las estrellas
(Soles) generando expansiones (universos) donde las masas y energías
se intercambian a velocidades mas rápidas que la de la luz, hasta un
punto donde esta expansión cesa, en cuyo instante, las relaciones
energéticas de esa partícula determinaran la formación de materia
y vacíos (agujeros negros) en esa constelación así formada.
Dejando delimitada de maneras puede que sujetas a las dinámicas
conocidas, puede que sujetas a otras aún desconocidas, las distintas
formas de materia y energía y sus estadíos y pasos de equilibrio y
desequilibrio enegético que les confieren distintos estados de
agregación y consistencia temporo-espacial.- Pero siempre y en
definitiva nada termina de explicarse en su existencia asi mismo y
las formas, dinámicas, estados y procesos que podamos ir percibiendo
cognitivamente o accediendo a partir de nuestras capacidades
somato-sensibles de nuestros sistemas de percepción y nuestros
cerebros y mentes, no pueden acceder de modos inteligibles a
concepciones que no surgan de lo existente o previamente actuante de
algún modo.
Volviendo al teorema de Gödel, la
respuesta a la primera pregunta, ¿Cual es el origen de la
existencia? Por cuanto autoreferencial es en escencia una paradoja
que no puede ser respondida en termino de un sistema coherente de
respuestas, sin la existencia probada de inconsistencias o
incoherencias y que por tanto, no sería la respuesta a la pregunta.
Lo que transforma a toda respuestas en autoreferencial, en
paradojica o imperfecta (Y en los mismos términos las respuestas
cognitivas, sensibles o sensitivas lo son por cuanto no existe la
autotrascendencia en términos de prescindencia -Nadie puede conocer
prescindiendo de sus propias habilidades para conocer-). La sálida
práctica, es la que confiere mayor justeza y acercamiento, en
términos críticos y de superación de falacias, pe-juicios e
incosistencias y capaces de soportar aunque mas no sea en terminos
temporales, refutaciones, a lo cierto con la limitación,
precisamente, de lo autoreferencial, por lo que lo cierto es todo
aquello que es a pesar de quien dice que es o le describe, conoce.-
Diablos o Santos, Dioses o Demonios,
los origenes de la existencia y de las conformaciones complejas que
constituyen lo vital y lo humano como una de sus multiples
manifestaciones, como así las formas que estas dinámicas de
intercambio entre diferentes estadíos energéticos (que incluso
pueden no surgir de escencias y fuentes conocidas) generan realidades
infinitamente pequeñas, tanto como expansiones infinitamente grandes
que no se pueden explicar a si mismas como resultado de voluntad
deíca, sucesos azarosos o modelajes creados en otras dimensiones que
puedan haber originado estas, cubriendose asi misma en la explicación
de algo pre-existente que como “particula de Dios” lejos de ser
respuesta, es la pregunta eterna incontestada.-
Daniel Roberto Tavora Mac
Cormack
Enero de 2013
Bibliografía:
Ingeniería Informática - Lógica y
Computabilidad 2005/2006
- Ana Mangas Ballester
- Jose Antonio Cordero García
- Francisco Javier Campos Granado
- Elizabez Sánchez Gil
- Castor Miguel Rodriguez Álvarez
El origen de la materia y la
energía en el universo
PEDRO VILARROIG.
Universidad Politécnica de Madrid,
Escuela Técnica Superior de Ingenieros de Minas. C. Ríos Rosas, 21
28003 Madrid.
Jáuregui, Pablo. «Peter Higgs: 'No
soy creyente, pero la ciencia y la religión pueden ser
compatibles'»,El Mundo, 28 de diciembre de 2012.
Leon M. Lederman - Dick Teresi
La
partícula de Dios: si el universo es la respuesta, ¿cuál es la
pregunta?
Crítica
Grijalbo Mondadori
Barcelona 1996.-