Páginas

lunes, 14 de enero de 2013


¿Dioses o demonios?
La búsqueda del origen


Luego de las revoluciones, aun de las conceptuales, es necesario un nuevo período de estabilidad. Como se sabe, la tempestad no puede durar eternamente. Es así como en el siglo XVIII sobrevino la calma; la ciencia moderna se transformó en la productora de la cosmovisión dominante, la concepción aristotélica fue relegada a los monasterios o al olvido , y el paradigma newtoniano iluminó la nueva aurora de la Modernidad.
 
El universo mecanicista no se estableció en un día pero en los comienzos del siglo XIX, tanto en Inglaterra como en el continente europeo, brillaba con su máxima intensidad. Tanto es así que cuando en 1805 Pierre Simon de Laplace le presentó a Napoleón su obra Mecánica celeste -que completaba la obra de Newton en algunos de sus "aspectos más import ántes-, fue interpelado por el emperador, quien le dijo: "Me dicen, M. Laplace, que a lo largo de este voluminoso libro sobre el sistema del universo no mencionáis una sola vez al Creador", a lo que Laplace respondió: "No he necesitado de esa hipótesis".
 
El mecanicismo laplaciano expulsó a Dios definitivamente de la explicación científica por considerarlo una hipótesis prescindible. El universo laplaciano es un mecanismo de relojería eterno e increado.
 
Es así como en el curso de los siglos XV,XVI y XVII se produce una transformación radical en el campo conceptual; de la concepción de un universo poético y espiritual, armónico y pletórico de sentido, bello de contemplar y posible de comprender,se pasó a pensar que habitamos en un mundo mecánico, inodoro, incoloro e insípido pero manipulable eficazmente gracias al poder que nos da la nueva ciencia.
 
Kurt Gödel fue un hombre bastante introvertido, una persona enfermiza que sufrió desde la infancia depresiones. Removió los cimientos de las matemáticas que se habían construido desde tiempos de Euclides hasta comienzos del siglo XX, y cuyas ideas repercutieron diversos campos del conocimiento, en especial en la matemática, la filosofía y las actuales ciencias de computación.
 
Kurt Gödel, nació el 28 de abril de 1906 en Brünn (Moravia).Hijo de Rudolph, propietario de una fábrica textil y Marianne, una cultivada madre de familia. Gracias a las holgada economía familiar debido al tesón comercial de su padre, Gödel y su hermano pudieron formarse en buenas escuelas privadas alemanas.
Como otros grandes físicos y matemáticos, Gödel no reveló su genialidad durante la infancia. De manera anecdótica decir que Gödel en la asignatura de matemáticas recibió una calificación de insuficiente. A pesar de todo fue un niño con una enorme curiosidad, ganándose el apodo de "der Herr Warum (El Señor Por qué)"
 
Dos publicaciones le otorgan gran notoriedad, su tesis doctoral escrita en 1929 y el teorema "Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme" (Sobre proposiciones formalmente indecidibles en los Principia Mathematica y sistemas afines) publicado en 1931.
Desde tiempos inmemoriables el hombre ha querido dar una explicación a todo, y saber el porqué de las cosas. Grandes pensadores, han intentado siempre encontrar el método, el camino a la verdad absoluta a través de la filosofía y de las ciencias. Está última, sobre todo en los últimos tiempos, cogiendo terreno poco a poco a la filosofía. Esta búsqueda de la verdad siempre se ha visto sometida a continuos cambios con mayor o menor acierto. Siempre que un método parecía funcionar para los casos conocidos, surgía un nuevo caso no explicable. De nuevo, se volvía a replantear el porqué de ello y el cómo resolverlo y/o controlarlo.
 
Para entender el impacto que causó el Teorema de Gödel cuando vio la luz, es necesario tener una visión general de la situación en la época. Las matemáticas comenzaban una etapa de optimismo y la mayoría de los matemáticos consideraban que todo aspecto de las matemáticas podría ser codificada en sistemas que permitieran demostrar la falsedad o verdad de todas las proposiciones. ¿Cómo se llegó a esta situación?
 
En primer lugar se hace necesario explicar qué es la axiomatización. La axiomatización consiste en establecer una serie de reglas y razonamientos a partir de los cuales y gracias a las reglas de inferencia del sistema, se pueda llegar a otros enunciados o proposiciones. Un axioma es una verdad que no necesita demostración, pues su veracidad es implícita. Los axiomas forman la base a partir de la cual comenzar a trabajar dentro de un sistema, y un sistema axiomático consiste en un conjunto de axiomas y reglas de inferencia que nos permite demostrar la veracidad o falsedad de una proposición.
 
La matemática ha sido considerada desde la Antigüedad hasta el siglo XIX como la ciencia encargada del conocimiento de la propiedad cuantitativa de los fenómenos naturales.
 

Basándose en una serie de axiomas, la matemática permitía formalizar los diversos fenómenos naturales. Un claro ejemplo de esta formalización es la geometría euclidiana.
 
Euclides partía de los siguientes axiomas para formalizar una realidad:
  1. Trazar una línea desde un punto cualquiera a otro punto cualquiera (por dos puntos pasa una recta).
  2. Prolongar de manera ilimitada en línea recta una recta ilimitada (una recta se puede prolongar indefinidamente).
  3. Describir un círculo para cada centro y cada radio (por cada punto y para cada longitud existe un círculo de centro el punto y de radio esa longitud).
  4. Todos los ángulos rectos son iguales (todo ángulo recto mide lo mismo, noventa grados).
  5. Si una recta al incidir sobre otras dos forma del mismo lado ángulos internos menores que dos rectos, las dos rectas prolongadas al infinito se encontrarán en el lado en que estén los ángulos menores que dos rectos (si una recta corta a otras dos y no forma ángulo recto con ambas, las dos rectas se cortarán).
Este sistema definió la geometría clásica hasta el siglo XIX, pero se descubrió que variando el quinto axioma, sustituyéndolo por uno nuevo de tal forma que no contradijese a los anteriores, se obtenía otra geometría, no errónea, sino distinta a la euclidiana. Esto permitió crear nuevos sistemas que formalizaban distintas realidades.
 
Llegado el siglo XIX, los lógicos ingleses George Boole y Augustus De Morgan codificaron los esquemas deductivos de razonamiento. Frege y Peano combinaron el razonamiento formal con el estudio de los conjuntos y los números, y Hilbert por su parte creo formalizaciones de geometría más estrictas que las de Euclides.
Cantor por su parte había diseñado una teoría de conjuntos que pese a ser bastante atractiva, contaba con diversas paradojas. Estas surgían del fenómeno de la autorreferencia. Por lo tanto, eliminada la autorreferencia, eliminadas las paradojas.
 
Russel y Whitehead se lanzaron a un ímprobo esfuerzo para eliminar las paradojas de la lógica, la teoría de números y de la teoría de conjuntos, y publicaron finalmente sus trabajos en los Principia Mathematica, mostrando su solución a la autorreferencia: La Teoría de Tipos. En lo referente a la teoría de conjuntos, bastaba con tener un conjunto de nivel bajo, que sólo englobaría objetos. A su vez existiría una serie de conjuntos de mayor nivel los cuales podrían incluir objetos y conjuntos de un nivel inferior.
 
Los matemáticos y lógicos comenzaron a albergar dudas acerca de los sistemas formales, pues parecía que las paradojas surgían rápidamente en dichos sistemas. Si las paradojas de la lógica podían darse en la matemática, esta no tendría unas bases tan firmes como se creía. Fue entonces cuando comenzó a surgir la metamatemática, el estudio de la propia matemática.
 
El razonamiento matemático siempre se había hecho en lenguaje natural, lo que daba lugar a muchas ambigüedades. Russel y Whitehead, en sus Principia Mathematica, pretendieron derivar toda la matemática de la lógica, sin ningún tipo de contradicción. La obra fue aclamada por todos, si bien aún existía la duda de si toda la matemática estaba englobada en ellos y si se podían llegar a resultados distintos usando los mismos métodos.
 
Fue entonces cuando David Hilbert propuso a la comunidad matemática su reto: demostrar, siguiendo los principios de los Principia Mathematica, que el sistema definido en los mismos fuera coherente y además completo. En resumen, lo que Hilbert pretendía era que a partir de una porción de las matemáticas, demostrar la solidez del todo. Si esto llegaba a darse, podría considerarse toda demostración como un mero proceso mecánico, de tal modo que toda proposición de un sistema sería demostrable. Y aún en el caso de que existieran fallos en el sistema, la inclusión de nuevos axiomas podría subsanarlos.
 
En el año 1931, Gödel publicaba su artículo, que echaba por tierra el programa de Hilbert, pues demostraba no sólo que el sistema de Russel y Whitehead tenía fallos, sino que todo sistema axiomático los tendría. La publicación del que se conocería como el Teorema de Gödel supuso un duro golpe, pues en resumidas cuentas, demostraba que el hombre no podría alcanzar el conocimiento y la verdad absolutos.

Teorema de incompletitud

Antes de comenzar a hablar del teorema, se hace necesario explicar una serie de conceptos que ayudaran a una mejor comprensión del mismo.
 
En primer lugar debe saberse qué es una paradoja. Una paradoja es una proposición que se contradice a sí misma, una proposición incoherente. Un buen ejemplo de paradoja es la famosa frase de Sócrates "Sólo sé que no sé nada". Obviamente, si no sabe nada, ya sabe algo, luego la proposición se contradice a sí misma. La contradicción de esta paradoja surge en el momento en que Sócrates hace referencia a si mismo. El teorema de Gödel tiene mucho que ver con proposiciones que hacen referencia a si mismas.
 
Otra paradoja bastante antigua es la conocida como "paradoja de Epiménides o del mentiroso" que decía "Los cretenses, siempre embusteros". Como Epiménides era cretense podemos traducir la afirmación así: "Siempre miento. Nunca digo la verdad". ¿Qué se puede inferir de esta paradoja? Si Epiménides siempre miente, dicha afirmación sería falsa, por lo tanto, no siempre miente y siempre dice la verdad. Pero si dice la verdad, la afirmación resultaría ser cierta, por lo tanto, siempre miente y nunca dice la verdad. Y así podríamos continuar hasta el infinito, sin llegar a nada concreto. De nuevo, la autorreferencia produce una paradoja.
 
Una variante de la paradoja de Epiménides es la siguiente: supongamos que nos encontramos con Epiménides y nos dice: "Esta aseveración es falsa". ¿Dice la verdad o miente? Nuevamente la autorreferencia produce una paradoja. Siempre nos encontramos con la autorreferencia. Pensemos más detenidamente en este caso y démosle otro aspecto usando lenguaje matemático. Digamos que
B = [Esta aseveración no es verdad] = [B es falsa]
La pregunta es, ¿B es falsa o cierta? Son las dos únicas opciones. Vamos a analizarlas y ver que situaciones plantean. Supongamos que B es cierta. Si B es cierta, la aseveración "B es falsa" es verdadera. Vaya, nos encontramos ante una contradicción. ¿Qué tal si probamos con la otra opción? Vamos a suponer ahora que B es falsa. Si esto es así, nos encontramos con que la aseveración "B es falsa" no es verdad, luego podríamos decir que "B es cierta", pero ¿no habíamos dicho que B era falsa? Una nueva contradicción.
Esta paradoja será muy útil para Gödel, quien sustituye la palabra "verdad" por "demostrable". Gödel crea la proposición G, donde G = [Esta aseveración no es demostrable] = [G es indemostrable]
Gödel nos dice que puede que G sea verdad, pero que no lo demostraremos nunca. Nos encontramos ante el hecho de que el hecho de que una proposición sea verdadera tiene más peso que el hecho de que sea demostrable.
Otra curiosa paradoja es la siguiente:
La siguiente oración es falsa.
La oración anterior es verdadera.
Dejamos al lector el trabajo de encontrar la incoherencia, pero no podemos dejar de señalar que nuevamente el fenómeno de la autorreferencia provoca la paradoja. En este caso particular cada proposición hace referencia a la otra, con lo que se crea un "bucle infinito". Otro caso parecido es el conocido dibujo de M. C. Escher, "Manos que dibujan". Si el lector quisiera saber más sobre estos "eternos y gráciles bucles", le recomendamos el libro "Gödel, Escher, Bach. Un eterno y grácil bucle" de Douglas R. Hofstadter.

Aproximación al Teorema

En 1931 Gödel publicó un artículo titulado "Sobre proposiciones formalmente no decidibles en Principia Mathematica y sistemas relacionados".El primer teorema de Gödel dice así:
"A toda clase c de fórmulas w-consistente recursivas le corresponde una clase-signo r tal que ni v Gen r ni Neg(v Gen r) pertenecen a Flg(c), donde v es la variable libre de r".
Esto, dicho tal cual, puede sonar bastante enrevesado, pero podríamos afirmar que el teorema de Gödel dice:
en todo sistema axiomático existen proposiciones sobre las cuales no vamos a poder demostrar si son ciertas o falsas. Gödel asimismo afirmaba que si un sistema es consistente, entonces es incompleto, y si el sistema es completo, entonces es inconsistente.
Pero el lector tal vez se pregunte qué es un sistema, qué significa que sea consistente o incompleto, qué es una proposición, etcétera. Vamos a intentar explicar que es cada cosa antes de profundizar más en el teorema.

Einstein y godel.

En primer lugar, un sistema es un conjunto de axiomas y reglas de inferencia.
Una proposición es una afirmación que puede ser cierta o falsa. Por ejemplo, en un sistema aritmético, una proposición podría ser "2+2=4". La proposición sería cierta. Otra proposición puede ser "3+1=7" en cuyo caso sería falsa.
En lo referente a completitud y coherencia, un sistema es completo cuando dentro de el sistema puede determinarse el status de veracidad o falsedad de toda proposición dentro él; es decir, cuando siempre podemos saber si la proposición es cierta o falsa. Los sistemas incompletos tienen proposiciones las cuales no podemos saber si son ciertas o falsas. Asimismo, un sistema es coherente cuando no hay contradicciones de ningún tipo ni tiene ninguna paradoja; y obviamente, es incoherente cuando nos encontramos con contradicciones y paradojas.
sistema consistente (sistema limipio de paradojas y contradicciones) ⇒ incompleto
sistema completo (sistema donde toda proposición puede ser demostrada o refutada dentro de él) ⇒ inconsistente
En la época en la que aparece el Teorema de Gödel, se creía que podrían crearse sistemas que describieran los diversos campos de la matemática (la teoría de conjuntos, la teoría de números, la lógica, etcétera) de tal modo que dichos sistemas fueran completos y coherentes. Se aspiraba a abarcar todo el conocimiento y en su optimismo, los matemáticos creían que todo podría ser demostrado. Pero un sistema que incluya proposiciones autorreferenciales genera paradojas, como vimos anteriormente. El Teorema de Gödel marcó un antes y un después en las matemáticas.
Para quienes no les interese el pensamiento matemático o les resulte engorroso la lectura de formulas y lógicas matematicas pueden prescindir del siguiente desarrollo. Al margen de las demostraciones empíricas en terminos lógicos y matemáticos que ofrece el teorema, sus conclusiones repercutieron en otros ámbitos del pensamiento de formas escenciales. Por lo tanto pueden saltearse la lectura del apartado siguiente y continuarla directamente en las repercusiones que surgen de las reflexiones que venimos desarrollando y que son demostradas por el teorema de Gödel.


Demostración del Teorema

Las pruebas de Gödel sobre la consistencia interna y completitud se basan en la idea de la representación, es decir, en la posibilidad de "representar" declaraciones metamatemáticas acerca de un sistema formal dentro del sistema mismo. Gödel trata de traducir proposiciones sobre el sistema tales como "esta proposición no tiene demostración en el sistema" aproposiciones numéricas. No debemos perder de vista que el teorema de Gödel se centra en la aritmética y sistemas afines, por lo que las proposiciones deben traducirse a números naturales.
Hacer uso de la idea de la representación es la clave de la investigación de Gödel. Él probó que proposiciones metamatemáticas acerca de un sistema aritmético formalizado podían ser representadas por fórmulas aritméticas dentro del propio sistema. Una vez que se aseguró de que era posible esto, el segundo paso consistió en idear un método de representación tal que le permitiera demostrar que ni la fórmula aritmética correspondiente a una determinada proposición metamatemática verdadera acerca de la fórmula, ni la fórmula aritmética correspondiente a la negación de la proposición, son demostrables dentro del sistema.
En resumidas cuentas, Gödel ideó un sistema tal, que a proposiciones metamatemáticas sobre el sistema, les correspondía una única fórmula aritmética dentro del propio sistema para a continuación demostrar que dichas fórmulas no eran demostrables.
El método ideado por Gödel se conoce como numeración Gödel. El proceso consta de varias fases que van desde la simbolización numérica Gödel hasta la demostración de la imposibilidad de probar la consistencia de la aritmética mediante un proceso finitista. En primer lugar, Gödel asoció a cada símbolo de cualquier fórmula del cálculo un número entero positivo arbitrario. Gödel optó por la siguiente simbolización para el vocabulario fundamental:

Signo constante número Gödel significado
¬ ó ~ 1 "no"
2 "o"
3 "implica"
4 "existe un"
= 5 "igual"
0 6 "cero"
s 7 "siguiente"
( 8 "signo de apertura de paréntesis"
) 9 "signo de cierre de paréntesis"
, 10 "coma"

variables numéricas número variables proposicionales número
x 11 p 112
y 13 p 132
z 17 r 172

Variables predicativas número
P 112
Q 132
R 172
Por ejemplo, el número Gödel asignado a la fórmula:
(∃x)(x = sy)
sería
2^8\cdot3^4\cdot5^11\cdot7^9\cdot11^8\cdot13^11\cdot17^5\cdot19^7\cdot23^13\cdot29^9 = 14566649\cdot 107^9

Existen signos que no aparecen en el vocabulario, por lo que no tienen asociado un valor. ¿Por qué? ¿Acaso no podría provocar esto que se queden fuera muchas proposiciones? La respuesta es que no, ya que Gödel demostró que los signos anteriores eran suficientes, por lo que para representar ciertas proposiciones, deben transformarse a proposiciones equivalentes que empleen estos símbolos. Por ejemplo, la conjunción "p ^ q" queda definida por la expresión "~(~p v ~q)".
En el caso de haber una sucesión de fórmulas el número de Gödel se puede obtener a partir de los números de Gödel de cada fórmula de la sucesión por el mismo procedimiento que el número Gödel de cada una de las fórmulas. Es decir, si n1,n2,...,nk, son los números de Gödel de las k fórmulas de una sucesión S, el número Gödel de S, nS será:
            n1             n2
nS= 2     * 3 …...........Pk donde pk es el primo de lugar k

En resumen, toda expresión contenida en el sistema tiene asociado un número Gödel. Este método establece una correspondencia biunívoca. Toda expresión del sistema corresponde a un único número Gödel y todo número Gödel está asociado a una expresión del sistema.
Una que vez que Gödel establece los símbolos básicos, intenta construir la proposición "Esta proposición no es demostrable en el sistema". Es la llamada fórmula G. Dichas fórmula puede ponerse de la siguiente forma:
G = [G no es demostrable]
Para ello comienza definiendo la relación "la sucesión de fórmulas con número de Gödel x es una prueba de la fórmula con número de Gödel z". Sea esta relación Dem(x,z). De forma análoga, ~Dem(x,z) es la relación aritmética equivalente a "la sucesión de fórmulas con número Gödel x no es una prueba de la fórmula con número Gödel z". La relación Dem(x,z) viene a decir que la proposición cuyo número Gödel es z es demostrable.
Se emplea también la notación aritmética Sust(m,k,m) para designar matemáticamente "el número Gödel de la fórmula obtenida a partir de la fórmula de número Gödel m, sustituyendo en ella la variable de número Gödel k por el numeral de m".
Teniendo estas dos relaciones, podemos hayar la fórmula G. Esta, como se ha comentado antes, debe ser la representación aritmética de la proposición metamatemática "la fórmula G no es demostrable". Se parte de la fórmula
(∀ x)(~Dem(x,z))
que quiere decir que "para todo x, la sucesión de fórmulas con número Gödel x no es una prueba con número de Gödel z" o lo que es lo mismo, la fórmula de número Gödel z no es demostrable. Un caso particular de ésta sería:
(∀ x)(~Dem(x, sust(y,k,y)))
donde sust(y,k,y) representa un número Gödel. Esta fórmula tiene a su vez asociado un número Gödeln. Si la reescribimos del siguiente modo, sustituyendo y por n, tendremos que
(∀ x)(~Dem(x, sust(n,k,n)))
Esta es la fórmula G que se buscaba. El número Gödel asociado a G es el número simbolizado por sust(n,k,n), luego la fórmula G expresa la siguiente proposición:
"(∀ x)(~Dem(x, sust(n,k,n))) no es demostrable".
Hemos conseguido representar la proposición "Esta proposición no es demostrable" dentro del sistema. Si se consigue demostrar G dentro del sistema, se llegaría a una contradicción, con lo que el sistema sería incoherente. Así pues, G debería ser no demostrable y de este modo cierta, por lo que el sistema sería incompleto al no poderse demostrar la proposición G. En el caso de que la proposición G se incluyera dentro del conjunto de axiomas del sistema para solucionar la incompletitud del mismo, siguiendo el mismo proceso obtendríamos los mismos resultados.
El siguiente paso a seguir es probar que si G es demostrable, su negación ~G también es demostrable. Por lo tanto, si (∀ x)(~Dem(x, sust(n,k,n))) es demostrable, entonces~(∀ x)(~Dem(x, sust(n,k,n))) también lo es.
Suponiendo que G es demostrable, existiría una sucesión de fórmulas aritméticas que constituyesen una prueba de G. Sea I el número Gödel de tal sucesión de fórmulas. Por lo tanto tenemos (Dem(I, sust(n,k,n))). Esta fórmula debe ser fórmula aritmética verdadera. Sin embargo puede probarse que esta relación aritmética es de un tipo tal que, si dicha relación se da entre un par definido de números, la fórmula que exprese este hecho es demostrable, por lo tanto, (Dem(I, sust(n,k,n))) es un teorema.
Ahora bien, empleando las reglas de transformación de la lógica elemental se obtiene la fórmula ~(∀ x)(~Dem(x, sust(n,k,n))). Esta fórmula es ~G. Por tanto,G y su negación son ambas demostrables lo que es una paradoja puesto que estamos demostrando que la proposición "Esta proposición no es demostrable" es demostrable, por lo que el sistema sería incoherente. Suponiendo que el sistema es consistente (sin contradicciones ni paradojas), entonces tanto G como su negación son no demostrables, por lo que el sistema seríaincompleto. Aún cuando se añadiera G al conjunto de axiomas del sistema, podría construirse una nueva fórmula verdadera pero indecidible siguiendo los pasos descritos anteriormente.
La pregunta que surge es: ¿si la aritmética es consistente, entonces es incompleta? O bien ¿si la aritmética es completa es entonces inconsistente? Para responder a esta cuestión se crea una nueva fórmula aritmética A, que representa la proposición "Existe una fórmula aritmética que no es demostrable". Usando la representación, tenemos que dicha proposición sería
(∃ y)(∀ x)(~Dem(x,y))
Literalmente, esta fórmula viene a decir que existe al menos una fórmula aritmética tal que ninguna sucesión de fórmulas aritméticas constituyen una prueba. Es decir, existe una fórmula que no es demostrable.
Si se consigue demostrar A, se demostraría la incompletitud del sistema. Podemos expresar la proposición "si la aritmética es consistente, entonces es incompleta" de la siguiente forma:
A ⇒ G
que sería
(∃ y)(∀ x)(~Dem(x,y)) ⇒ (∀ x)(~Dem(x,Sust(n,k,n)))
Puede probarse que la fórmula A no es demostrable, pues si lo fuese y suponiendo que A ⇒ G es demostrable, se tendría como demostrable A y por la regla de separación, sería demostrable también G. Por lo tanto, el cálculo sería inconsistente.
Con su teorema, Gödel vino a decir en definitiva, como se dijo antes,que si la aritmética es consistente, entonces es incompleta, y si la aritmética es consistente, su consistencia no puede probarse por ningún razonamiento metamatemático que pueda ser representado dentro de la aritmética.





Repercusiones

En la civilización occidental, desde la cultura griega hasta la fecha las matemáticas se han erigido como fortaleza del racionalismo. Sin embargo, hasta en la más precisa de las ciencias el hombre no puede huir de su finitud. Todo sistema matemático que pueda construirse estará condenado a la incompletitud. Gödel ha mostrado que existen en matemáticas problemas sin solución que no pueden formalizarse en un sistema completo.
Los matemáticos saben ahora que su mayor objetivo, el de llegar a lo más profundo de las cosas es inalcanzable. Su objetivo como tal ni siquiera existe. Las matemáticas no poseen una realidad autosustentable independiente del hombre; y aunque existiera, nuestra esencia finita nos impediría formalizar su descripción en un sistema completo. Más aún, el conocimiento racional nunca podrá llegar a la verdad última del universo.
Son muchas las repercusiones del trabajo de Gödel. La única condición para su aplicación es contar con un sistema de razonamiento basado en un conjunto finito de axiomas. A esta descripción responden todas las ramas de las matemáticas, física, astronomía, muchos planteamientos de la filosofía y la lingüística... Sin embargo, y relajando la condición podría extenderse a las ciencias sociales: economía, psicología, sociología, teología o historia; si bien hay que decir que la aplicación en dichos casos no gozará del rigor de su origen, y se puede llegar a conclusiones falsas.
La limitación que el teorema nos descubre supuso un duro golpe al formalismo y logicismo matemáticos que hasta entonces trataban de alcanzar lo que resultaría ser inalcanzable. Esta es pues su primera y más directa repercusión.

Formalismo

El sentir de Peanno, Boole, De Morgan, Hilbert, Gentzen, etc, partía de que para cualquier proposición bien construida del sistema matemático habría de existir o bien una demostración de ella o bien una demostración de su contraria porque en matemáticas no hay ningún "ignoraremos", kein 'ignorabimus' in der Mathematik. Entendiendo por sistema matemático un sistema formal, es decir, un conjunto de símbolos carentes de significado que lo adquieren mediante una serie de convenciones previas o axiomas. La demostración de este hecho que no se ponía en duda, fue el objetivo principal de Hilbert.

Gödel constituyó un duro golpe para esa concepción clásica, la naturaleza de la verdad matemática se suponía que era la demostrabilidad, pero no es así. Demostró los límites de los sistemas formales. La matemática siempre contendrá verdades indecidibles, siendo por tanto inagotable. El método axiomático resulta finitamente fecundo.
Como dijo Morris Kline uno de los formalistas de la época, "El fenómeno de la incompletitud constituye un importante defecto ya que entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema."
Tambien Herman Weyl apostilla en 1949: "Ningún Hilbert será capaz de asegurar la consistencia para siempre; hemos de estar satisfechos de que un sistema axiomático simple de matemáticas haya superado hasta el presente el test de nuestros elaborados experimentos matemáticos... Una matemática genuinamente realista debería concebirse, en parangón con la física, como una rama de la interpretación teorética del único mundo real y debería adoptar la misma actitud sobria y cautelosa que manifiesta la física hacia las extensiones hipotéticas de sus fundamentos."


Intuicionismo

Los resultados de Gödel son también decisivos para el intuicionismo de Brouwer. Aunque ya habían sido vistos por éste, de hecho le sorprendía la importancia que se le estaba dando a tal descubrimiento. El mérito de Gödel, sin embargo, radica en la construcción de las pruebas formales que muestran proposiciones indecidibles desde el formalismo de la aritmética elemental. Probó también que no era posible demostrar la consistencia dentro del sistema. Gödel por tanto les hizo ver que el uso de métodos formales podía llevar a conclusiones precisas que sólo podrían verse parcialmente y de forma incompleta.

Logicismo

En el último capítulo de su Introduction to Mathematical Philosophy, Russell escribe: "Si todavía hay quien no admita la identidad de la lógica y la matemática, podemos desafiarle a que nos muestre en qué punto de la cadena de definiciones y deducciones de los Principia Mathematica considera que concluye la lógica y comienza la matemática."
Es entonces cuando el teorema de imcompletitud arruina el objetivo del logicismo de construir un sistema lógico que permita incluir la aritmética. Descubre que la verdad matemática es de orden mayor a la verdad lógica, por tanto, no se puede reducir la matemática a la lógica.
Es reseñable la evolución de la opinión de Russell que queda plasmada en la siguiente cronología de citas:
1901
"el edificio de las verdades matemáticas se mantiene inconmovible e inexpugnable ante todos los proyectiles de la duda cínica".
1924
“la lógica y la matemática, al igual que, por ejemplo, las ecuaciones de Maxwell, son aceptadas debido a la verdad observada de algunas de sus consecuencias lógicas".
1959
“La espléndida certeza que siempre había esperado encontrar en la matemática se perdió en un laberinto desconcertante".
W. y M.Kneale señalan el "ataque” que realiza Gödel sobre la identificación entre lógica y matemática que hace Russell
"Desde Gödel, parece razonable responder que la lógica no se extiende más allá de la teoría de la cuantificación. Cuando decimos que la aritmética y, con ella, todos los llamados cálculos funcionales de orden superior, así como todas las versiones de la teoría de conjuntos, son esencialmente incompletos, estamos efectivamente admitiendo que esas teorías envuelven alguna noción, o más de una, de la que no cabe ofrecer una exhaustiva caracterización mediante el establecimiento de una serie de reglas de inferencia: y ésta parece constituir una buena razón para excluirlas del dominio de la lógica.... carecería de objeto afirmar la posibilidad de reducir toda la matemática a la lógica si, al mismo tiempo, hubiera que admitir que la lógica incluye dentro de sí todos y cada uno de los diversos apartados de la matemática."

Física

Implicaciones

Por su cercanía a las matemáticas, la física, tan cuidadosamente axiomatizada es la más afectada por el teorema de Gödel. Los físicos han comprendido a la fuerza que sus mayores limitaciones no serán económicas o tecnológicas, ni siquiera las asociadas a la capacidad humana. Su mayor limitación radica en que nunca alcanzarán solución a todos los problemas que puedan plantearse, ya que todo sistema racional de conocimientos es esencialmente incompleto.
Para entenderlo, consideremos que la física no existe a parte del universo, forma parte de él y su objeto es modelarlo. El hombre también forma parte del mismo. Dado que tanto el sistema como sus creadores forman parte del universo, parece evidente pensar que el universo trata de hacer un modelo de sí mismo. Por tanto, una pequeña parte del universo (el hombre y su sistema) tratan de modelar una realidad completa (el universo). Este es un claro ejemplo de autoreferencia, y como tal aparece una paradoja: el modelo como parte del universo tendría que ser mayor que el universo que pretende modelar.¿Una parte mayor que el todo?
Relaciones

Junto al teorema de Gödel surgen una serie de teoremas cuya suma establece una gran limitación sobre el alcance del conocimiento científico. Muere por tanto el ideal, u objetivo esencial de la ciencia en sí, consistente en establecer un sistema axiomático que explique los fenómenos de la naturaleza/universales.
Podemos relacionar el teorema de incompletitud con tres de los grandes principios o leyes fundamentales: la relatividad, la incertidumbre y la indecibilidad, estudiados por Albert Einstein,Werner Heisenberg y Alan Turing respectivamente.
Expliquemos a grandes rasgos dichos principios:
  • El principio de relatividad nos explica que no existen puntos de vista privilegiados para observar la realidad. Posición, tiempo y velocidad son relativos y según el punto de vista obtenemos resultados diferentes igualmente válidos.
  • El principio de incertidumbre asevera: Medir implica interactuar y por tanto cierta alteración. Pero aunque la medida sea ideal, la posición de una partícula es sólo la probabilidad de obtener una medición, no una cantidad absoluta. Se antoja imposible por tanto conocer exactamente a la vez dónde está y a qué velocidad se mueve una partícula.
  • El principio de indecibilidad: No es posible escribir un programa que decida si otro programa cualquiera está correctamente escrito (en el sentido de que nunca quedará colgado). La verificación algorítmica por tanto queda limitada.
Una vez introducidos todos los principios, ¿qué relación podemos encontrar entre ellos? Todos ellos supusieron el descubrimiento de diferentes limitaciones que existen en la lógica formal que empleamos para llegar a las verdades más profundas, ya sea en física, matemáticas, o cualquier otra aplicación. Pero éstas no son limitaciones a la ciencia en sí, sino a la forma en que la observamos. No debe ser por tanto fuente de desánimo sino llamada de atención.
Carlos Castillo, Doctor en Ciencias por la Universidad de Chile, nos relaciona éstos principios de la siguiente manera:
"Tanto la relatividad como la incertidumbre se originan en la física, mientras que la incompletitud y la indecidibilidad aparecen en la matemática. La incertidumbre y la indecidibilidad, a su vez, tienen que ver con la incapacidad de hacer predicciones, mientras que la relatividad y la incompletitud con el hecho de que las referencias son necesarias, pero impiden ciertas operaciones. No quisiera intentar llevar estas relaciones demasiado lejos: es probable que en el futuro descubramos nuevas limitaciones al quehacer científico, que completen esta imagen. Más bien, y para terminar, quisiera plantear otra analogía."
"En el ojo de los mamíferos observamos una construcción bastante curiosa, y es que todos los nervios que van desde la superficie de la retina hasta el cerebro, al salir del ojo se encuentran en un solo punto. Este diseño tiene una desventaja y es que justamente el punto donde se encuentran los nervios no es sensible a la luz. Esto genera un "punto ciego", una zona del campo visual en la cual no vemos. Al mismo tiempo y curiosamente, no vemos que no vemos. Primero, el punto ciego es bastante pequeño; segundo, el cerebro compensa la imagen para que no veamos una pelota negra flotando en el aire, y tercero, tenemos dos ojos y sus puntos ciegos no coinciden. Podemos ocupar el hecho de que sabemos que hay un punto ciego en el diseño de algunos aparatos, por ejemplo, en el diseño del tablero de control de un avión, pero aparte de eso en la vida diaria y para el 99.9% de la población no tiene ninguna relevancia."
"Sucede algo similar con las leyes que hemos discutido. Por una parte, restringen la mirada, pero podemos operar con ellas. Aún existiendo relatividad, si nos sorprenden a 120 kilómetros por hora en una zona de 100 km/hr tendremos una multa, sin importar que con relación a nosotros el automóvil estaba inmóvil, porque hemos fijado cierto marco de referencia. Aún existiendo incertidumbre es posible jugar al baseball porque la incertidumbre para un objeto del tamaño de una pelota es muchísimo menor que lo observable a simple vista. Aunque los sistemas deductivos son incompletos, la incompletitud le quita el sueño a muy pocos matemáticos, y cada año demostraciones increíblemente ingeniosas y difíciles son llevadas a cabo sin problemas. Aún existiendo indecibilidad, programas de primera calidad controlan sistemas de alta disponibilidad y la mayoría de los errores encontrados no provienen de oscuras condiciones de parada sino de meros descuidos a la hora de programar."
"Las reglas del juego científico incluyen relatividad, incertidumbre, incompletitud e indecibilidad. Desde el punto de vista de la ciencia, el entender estas limitaciones nos puede llevar a nuevos descubrimientos acerca de cómo funciona el universo. Aún a través de este punto ciego, podemos ver."

Inteligencia Artificial



John Lucas, filósofo de Oxford, defendía el punto de vista a partir del que Gödel, había mostrado que en los sistemas matemáticos existen proposiciones indemostrables dentro de los propios sistemas, y que sin embargo son evidentemente verdaderas.
De esta manera, argumenta: "Cualquier formalismo S que contenga PA es tal que al razonar sobre él, podemos establecer la existencia de una fórmula verdadera con respecto a la interpretación estándar de S pero indemostrable en S. Por tanto, esa fórmula será aceptable desde nuestro punto de vista, por ser verdadera, pero inaceptable para S –por ser indemostrable–, con lo que ningún cálculo será capaz de encapsular las habilidades formales del ser humano."
Lucas por tanto se basaba en que la capacidad de nuestro entendimiento sobrepasa a la del computador. El computador emplea únicamente algoritmos, es decir, series de precisas normas que definen los pasos a seguir para resolver un problema o demostrar la veracidad de una proposición. Pero no existe ningún algoritmo capaz de demostrar determinadas proposiciones que sin embargo nosotros percibimos como ciertas. De esta manera, el conocimiento de esas verdades no puede ser de orden algorítmico. Como los computadores funcionan únicamente sobre la base algorítmica, no somos computadores.
Roger Penrose retoma el argumento de Lucas y a partir de la versión del teorema de Gödel presentado por Turing, conocido como -demostración del insolucionable problema de la"detención"- (de una máquina en proceso de cálculo), afirma que ningún computador podrá alcanzar al ser humano en el ámbito del razonamiento matemático, ya que el ser humano posee capacidades intuitivas "no algorítmicas", además los modelos informáticos no garantizan jucios de verdad.

Vida Artificial

Los teoremas de Gödel han sido ampliamente empleados para criticar las ideas que defienden la creación de una auténtica Inteligencia Artificial. Sin embargo, muchas de las teorías que echan por tierra el sueño de crear una máquina con una inteligencia que pueda rivalizar con la del ser humano no pueden ser aplicadas al campo de la Vida Artificial sin más, a pesar de los muchos puntos en común que tienen ambos campos.
El propio Gödel dijo que su teorema de la incompletitud no impediría la posible creación de una mente artificial, y autores como Rudy Rucker emplean argumentos similares a los deLucas, utilizando también el teorema de incompletitud de Gödel para defender la posible creación de inteligencia artificial. Tales argumentos demuestran que el sólo uso de la incompletitud no sirve para negar la posibilidad de crear inteligencia artificial. Sin embargo, Gödel puede emplearse para restringir y cerrar muchos caminos en el campo de la Vida Artificial.
La Vida Artificial no persigue la meta de crear una inteligencia similar a la humana (esto queda dentro del campo de la Inteligencia Artificial), sino que profundiza en el estudio de la vida en su sentido más elemental, comparando y contrastando los conceptos de "vida tal como es" y "vida tal y como podría ser". Actualmente en el campo de la Vida Artificial existen dos opciones para la investigación y el desarrollo.Una de ellas considera la Vida Artificial como las herramientas necesarias para estudiar el mundo natural, mientras que la otra se centra en la idea de que se pueden diseñar programas, que ejecutados correctamente, constituyan una forma de vida por sí mismos. Donde el teorema de Gödel puede afectar más es en esta segunda acepción del concepto Vida Artificial, y más concretamente, en la idea de que se pueden crear realidades artificiales que puedan tener los requisitos mínimos para la creación de vida.
Para entender el concepto de Vida Artificial y las restricciones que Gödel pueda imponer se hace necesario conocer primero el término mecanicismo. El mecanicismo surge a partir del siglo XVII, y es la creencia de que el universo se rige y es explicable en términos de procesos mecánicos. El mecanicismo intenta demostrar que el universo no es más que un gran sistema. Si los físicos podían modelar el universo en función de las leyes físicas, la biología también podría ser modelada de acuerdo a esas mismas leyes. Según Descartes, los propios animales podrían ser considerados máquinas, y autores como Emmeche afirman que "un organismo no es más que una colección de átomos, una simple máquina hecha de moléculas orgánicas". Sattler definía los seres vivos en términos mecanicistas, y literalmente hizo las siguientes afirmaciones:
  1. Los sistemas vivos pueden y deben ser vistos como sistemas físico-químicos.
  2. Los sistemas vivos pueden y deben ser vistos como máquinas.
  3. Los sistemas vivos pueden ser descritos formalmente. Existen leyes naturales que describen por completo los sistemas vivos.
Sin embargo autores como Lucas y Penrose defienden la idea de que al menos en el caso de los seres humanos, esto no es así, y pese a la idea que se tenía de los seres vivos como entidades físicas que se rigen por procesos mecánicos, los avances en física hacen que esta concepción se tambalee ligeramente.
En lo referente a términos de Vida Artificial, la idea predominante es que puede ser descrita formalmente mediante las leyes físicas por las que se rigen los seres vivos. De los tres postulados anteriores sobre los sistemas vivos, puede eliminarse el primero, ya que no van a tratarse de sistemas físico-químicos. Sin embargo se mantienen los otros dos.
Los principales términos de la Vida Artificial, en resumen, son los siguientes:
  1. Los sistemas vivos pueden reducirse a las leyes descritas en los sistemas adaptativos complejos.
  2. Puesto que un sistema adaptativo complejo es reducible a procesos mecánicos, debe ser posible formalizar todas las leyes que rigen en ese sistema.
  3. Estas leyes pueden ser implementadas en una determinada arquitectura computacional.
Como conclusión, se tiene que un programa ejecutado en una arquitectura suficientemente compleja puede ser considerado como un ser vivo. Habiendo llegado a esta conclusión llega el momento de ver cual es la implicación de Gödel en la Vida Artificial. Para ello John P. Sullins emplea el artículo de Steen Rasmussen "Aspects of Information, Life, Reality, and Physics". En este artículo, Rasmussen dice:
  1. Una computadora universal como la máquina de Turing puede simular cualquier proceso físico.
  2. La vida es un proceso físico, por lo que la vida puede ser simulada en una computadora universal.
  3. Existen criterios que permiten diferenciar a los seres vivos de los no vivos, por lo tanto es posible determinar si un determinado proceso está vivo o no.
  4. Un organismo artificial debe percibir una realidad R2, la cual debe ser para él tan real como nuestra realidad "real" R1 lo es para nosotros, pudiendo ser R1 y R2 la misma.
  5. R1 y R2 tienen el mismo 'status ontológico. Gracias al quinto postulado y al corolario extraído del segundo postulado, se puede afirmar que el status ontológico de un proceso vivo es independiente del hardware que lo soporta. Puesto que el status ontológico de R1 y R2 es el mismo, los sistemas vivos pueden crearse en un computador.
  6. Es posible aprender algo acerca las propiedades fundamentales de las realidades en general, y de R1 en particular, mediante el estudio de los detalles de las diferentes R2's.
Teniendo estos postulados, para crear una realidad R2 equivalente a la realidad R1 se hace necesario que se rija por unas leyes físicas equivalentes a las nuestras, de tal modo que los entes vivos puedan interactuar con esa realidad. Estas leyes pueden ser una versión simplificada de las mismas, pero deben ser formalizadas. Se puede asegurar pues que existe un conjunto mínimo de axiomas formales que pueden ser empleados para crear una física artificial capaz de soportar vida artificial.
El teorema de Gödel afecta a esta realidad artificial tanto como a la nuestra. Sin embargo en nuestra realidad el teorema de incompletitud de Gödel afirma que en sistemas formales axiomáticos tales como la aritmética, existen proposiciones que aún siendo ciertas, no pueden ser demostradas. Es decir, dichos sistemas serían serían incompletos. Esto puede llevar a pensar que las matemáticas no son formalizables ni mucho menos mecanicistas. Si las matemáticas en muchos de sus campos no son formalizables, no podrían incluirse en la realidad artificial que se intenta crear. Se puede llegar a pensar que al igual que las matemáticas, otros muchos aspectos y "reglas" de nuestra realidad no podrían ser incluidas en R2. Siendo esto así, nuestra realidad y la realidad artificial no tendrían el mismo status ontológico. El postulado número 5 de Rasmussen se viene abajo.
Esto nos lleva a pensar que la vida artificial no podrá ser posible, pero como se dijo al comienzo, Gödel sólo cierra algunos caminos. Si bien puede no ser posible crear realidades artificiales con procesos como entes vivos, el campo de la robótica abre nuevas vías, de tal modo que pueden crearse seres vivos artificiales en nuestra propia realidad. Si se lograra que los robots interactuaran con el medio, y dotarlos de la capacidad de adaptación y reproducción, la Vida Artificial aún seguiría siendo posible.

Lingüística

La lingüística es un área que ha sido objeto de estudio para numerosas disciplinas, desde la filosofía a la psicología, pasando por la informática. Su fin es estudiar las estructuras gramaticales y sintácticas del lenguaje. La lingüística pues supone una base de comunicación. En el campo de la inteligencia artificial por ejemplo se pretende enseñar al computador a entender y enunciar formalmente enunciados comprensibles para el hombre. Aquí entra en juego también la semántica. Es por tanto vital comprender la suma importancia de la lingüística como base para la comunicación ya sea entre hombres como hombre-máquina.
La base de la lingüística es una serie finita de normas que establecen de qué manera debe realizarse la comunicación. Se puede entender por tanto como un conjunto finito de axiomas, siendo ésta la tesis del teorema de Gödel podemos por tanto sacar las conclusiones derivadas de su hipótesis. Podemos concluir por tanto que en todo sistema lingüístico consistente algo debe de resultar indecible.
Dado que a medida que nos alejamos de la rigurosidad científica vamos relajando los requisitos para aplicar el teorema, los resultados obtenidos son pues discutibles o parcialmente aplicables. Por ejemplo en el ámbito de la lingüística encontramos la poesía como clara excepción. La poesía no posee determinadas limitaciones, permitiendo darse contradicciones e incoherencias fruto de la aplicación de las numerosas figuras literarias que quedan fuera de la axiomatización inicial.

Filosofía

El teorema de Gödel ha influido de una forma especial en la filosofía de las matemáticas de Zubiri'.
El teorema es entendido por el filósofo como "Lo postulado tiene propiedades que no son deducibles de los postulados ni pueden ser lógicamente refutadas por ellos". "Jamás podrá demostrarse positivamente la no contradicción de un verdadero sistema de notas o conceptos objetivos."
Por tanto la matemática debe avanzar teniendo en cuenta los errores de los principios en los que se basa. Aquí es donde coinciden Gödel y Zubiri. Ambos tienen un mismo objetivo. La fundamentación matemática.
Zubiri crea su obra basándose en lo postulado por Gödel, es decir utiliza el teorema para demostrar sus escritos. De tal manera que si alguien estudia a Zubiri podrá ver que toda su filosofía se demuestra con Gödel, que a su vez es fácilmente interpretable desde Zubiri.

NUEVA FILOSOFÍA MATEMÁTICA ORIGINAL.


Aparece como consecuencia del teorema de Gödel, basándose en que la inteligencia matemática es sentiente. Esto ayuda a Zubiri a echar por tierra la antigua tradición en filosofía que se basaba en lo concipiente. Zubiri ayudado por la demostración de Gödel afirma que "la inteligencia concipiente se funda en la sentiente y el ser en la realidad y no a la inversa".Esto supone la gran revolución en filosofía.
Por tanto los postulados de Gödel y de Zubiri (en matemáticas y filosofía) atraviesan el corazón de la fundamentación del conocimiento. La idea de una matemática formal y lógica se derrumba. Frente a esto surge la realidad de que todo sistema formal tendrá proposiciones que no podrán demostrarse aunque sean ciertas.
Otro autor muy influido por el teorema fue Imre Lakatos, él cual, añadió a la matemática las bases filosóficas de la ciencia de Kart Popper.
“Por qué no admitir honestamente la falibilidad matemática y tratar de defender la dignidad del conocimiento falible frente al escepticismo cínico más bien que tratar de engañarnos a nosotros mismos creyendo que seremos capaces de arreglar invisiblemente el último jirón en el tejido de nuestras "últimas intuiciones".
Para el autor hay que tener muy claro que las matemáticas son incompletas (basándose en Gödel) y la incompletitud se haya en que existen procesos infinitos. Procesos que deben existir ya que gracias a los procesos falibles que nos acerquen a ellos podremos conocer nuestros errores e intentar corregirlos.
Los sistemas inteligentes, de acuerdo a este derrotero de las especulaciones lógicas, se justificarían en la necesidad permanente de plantear problemas que surgen de los conocimientos adquiridos y de los modelos y sistemas que los explican nuevo, para volver a generarlos nuevos superando esos problemas y generandolos nuevos.(Algo así como una alteridad de lo imperfecto que lleva en si misma la busqueda de la perfección). Entonces todo sistema es paradojal y perfectible. Es decir que conlleva en sus resutlados verdades no demostrables y falacias irresueltas.
Gregory Chaitin basándose en el teorema de Gödel (en todo sistema axiomático existen proposiciones en las que no puede decidirse la veracidad o falsedad de las mismas) obtiene lo que se conoce como la "Constante de Chaitin" que es un número entre 0 y 1, y que determina la probabilidad de un programa para detener una máquina de Turing. Esta constante es aleatoria, no puede calcularse, con lo que nunca se van a poder determinar cuales son sus bits. Para ello Chaitin por una parte define la aleatoriedad como lo incomprimible, carente de regularidad, y por otro lado define los números, que poseen regularidad.
La idea de Chaitin para definir la aleatoriedad se basa en el uso de la complejidad midiendo el tamaño del programa, expone que al examinar el tamaño de un programa, si se tiene en cuenta la complejidad de la información en lugar de la complejidad por tiempo de ejecución, se encontrará siempre incompletitud, puesto que es imposible determinar la complejidad de un programa en base a su tamaño, ya que para ello se hace necesario obtener el tamaño de los programas que calculan su complejidad. Con n bits de axiomas nunca se va a poder demostrar que se obtenga un programa más breve que el mismo, ya que al disponer de n bits axiomáticos no se puede obtener la complejidad por tamaño del programa si se superan los n bits axiomáticos.

Budismo Zen

Para hablar de la repercusión en los ámbitos tratados anteriormente, hemos utilizado términos como consistencia, completitud, etc. Confiriéndoles una importancia elemental. En contraposición, la cultura budista-zen trata de prescindir de dichos elementos para nosotros fundamentales. Defiende que no pasa absolutamente nada por ignorarlos, que la verdad se encuentra en los actos de la vida cotidiana.
Es tal la contraposición existente entre el teorema de Gödel y la cultura oriental que se sirve de paradojas, contradicciones, y planteamientos carentes de consistencia lógica para llevar a la la mente a un estado de calma y realizar un viaje místico hacia el Nirvana( la iluminación, la conciencia del universo, la verdad absoluta).
Por tanto, ante las limitaciones impuestas por Gödel, el budista zen opta por desentenderse de la lógica y buscar la verdad a través de la niveles de existencias por encima de la racionalidad del hombre, y formar parte todo, para llegar a ser el todo, es decir,fusionarse con el universo para entenderse a sí mismo.
Sin embargo no es el todo capaz de explicarse a si mismo, sino en las descripciones de las relaciones que establecen de formas dinámicas sus partes y de como estas se ubican y dispersan en relación de los espacios y los tiempos que lo limitan. Al igual que cualquier objeto solido, es, para la percepción,inhanimado si no existe fuerza que lo induce al movimiento, pero la falacia queda al descubierto cuándo se observa el movimiento de sus atomós y de las estructuras electrónicas en rededor de su núcleo, confirmando que toda masa por mas quieta que se nos ofrezca, es siempre energía en movimiento y masa en intercambio dinámico con esa energía. Dios, la naturaleza, la vida no pueden ser entendido por fuera de las dinámicas que se generan en el juego orden-caos/ equilibrio-desequilibrió/ masa-energía y en la complejidad de los elementos que las diereccionan y ubican en tiempos y espacios efímeros en las propias dinámicas de su existencia. En esos equilibrios casi inexistentes en el tiempo, que en los espacios permiten ubicarlos y percibirlos como quietos, juegan las paradojas que hacen imperfecto lo perfecto y mezclan a Dios con el Diablo como verdades necesarias de una misma dinamica paradojal.-

El origen de todo: ¿La particula de Dios?

Una prueba experimental de esto lo constituye lo que se transformo en el principal descubrimiento del año que dejamos atrás: la llamada partícula de Dios.
El bosón de Higgs o partícula de Higgs es una partícula elemental propuesta en el Modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de Higgs, para explicar el origen de la masa de las partículas elementales. Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente, su vida media es del orden del zeptosegundo. En algunas variantes del Modelo estándar puede haber varios bosones de Higgs.
La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del Modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs.
El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs», pero se necesita más tiempo y datos para confirmarlo.

La partícula de Dios: si el universo es la respuesta, ¿cuál es la pregunta? es un libro de divulgación científica de 1993 escrito por el físico ganador del premio Nobel Leon M. Lederman y el escritor de ciencias Dick Teresi. Con una narrativa ligeramente humorística, metafórica y vívida, el libro proporciona una breve historia de la física de partículas, iniciando con el filósofo griego presocrático Demócrito y continua con Isaac Newton, Roger Joseph Boscovich, Michael Faraday, y Ernest Rutherford y la física cuántica en el siglo XX
Lederman explicó que puso el apodo «La partícula de Dios» (The God Particle en inglés) al bosón de Higgs porque la consideró «demasiada central para la física de hoy en día, demasiado crucial para nuestro entendimiento final de la estructura de la materia, aún muy evasivo», pero en son de broma añadió que la segunda razón fue porque «la editorial no les dejó llamarla "La maldita partícula" (The Goddamn Particle), aunque ese sea un título más apropiado, dada su naturaleza villana y el costo que está causando»
La obra inicia con un epígrafe de Demócrito que recita: «Nada existe excepto los átomos y el espacio vacío. Todo lo demás es opinión» La historia empieza en el año 430 a. C. cuando un filósofo griego huele el pan que se cuece en el horno y se imagina que una partícula invisible es el responsable de construir toda la materia. Posteriormente, lo llama á-tomo (que significa «no divisible») y se convierte en la búsqueda más larga en la historia de la ciencia: 2,500 años de experimentos hasta la fecha.-
En una pintura, detalla la evolución de la física clásica hasta el nacimiento de la física cuántica.Menciona el desarrollo de los aceleradores de partículas, habla principalmente de la ruptura espontánea de simetría electrodébil y el bosón de Higgs y un capítulo con una descripción más extensa sobre el uso de la palabra «a-tomo» para referirse a la partícula fundamental e indivisible de Demócrito. .Finalmente, mira en la astrofísica y describe las evidencias sobre el Big Bang.
Pauline Gagnon, física del experimento Atlas del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), expuso estas conclusiones durante una conferencia impartida en Kioto (Japón) en el transcurso de la cual se presentaron los últimos datos del LHC, en noviembre de 2012: parece muy probable que la partícula sea, efectivamente, el buscado bosón de Higgs que da masa a la materia (la apodada "Partícula de Dios"). Pero en lugar de la esperada partícula exótica que abriría la puerta a nuevas realidades de la cosmología, los datos apuntan más bien a que se trata de un "modelo estándar de Higgs", esto es, uno que encaja en el concepto científico actual del universo. Y aún cuándo se logre determinar con certeza el hallazgo, la respuesta obedecería a la creencia de un Dios material. ¿Y que pasa con la energía que le dá origen? ¿Con las modificiaciones de presión y temperatura que permiten el paso de un estadio a otro? Es sabido que la teoría más aceptada sobre el origen del uni verso es el Big Bang o gran explosión. Tomando esta hipótesis, muchos de los fenómenos que hoy en día se observan en el universo, como su expansión, el fondo de
microondas, etc., pueden ser correctamente explicados . Según esta teoría, el universo habría nacido a partir de un tamaño infinitesimal y luego habría iniciado una expansión hasta alcanzar el tamaño actual. La pregunta que surge es ¿ cómo de pequeño era el universo en su inicio?

Colisionador de Hadrones

No podemos comprimir el universo indefinidamente ya que, en un momento dado, el tamaño alcanzará una escala en donde los fenómenos cuánticos serán apreciables. En ese mismo momento la gravedad será intensa y convivirán dos fenómenos que la física aún no ha sido capaz de unificar. Para estudiar el fenómeno se necesitaría disponer de una teoría cuántica de la gravitación, cosa que aún no está consolidada.
Existen unos primeros rudimentos sobre esta teoría y nos dice que, precisamente en esta escala es necesario detenerse. Cálculos matemáticos complejos permiten inferir que el universo sufrió una expansión comparable a la que sufriría un obj eto desde un tamaño inferior a un protón hasta el de una galaxia . Esta expansión se produce a una velocidad enorme que supone millones de veces más rápida que la de la luz c. Aunque esto parece violar la relatividad especial, la teoría general de la relatividad permite expandirse al espacio sin limitación alguna. En estos instantes, la métrica del espacio-tiempo es tal que arrastra a la luz consigo, alcanzando valores muy superiores al actual c. Para que el fenómeno tenga éxito es necesario que hacia 10-43 segundos se inyecte en el universo suficiente energía como para producir su expansión, ya que, en caso contrario colapsaría sobre sí mismo y el universo sería fallido.
La incógnita del origen de la energía restante sigue, no obstante, en pié. La teoría más aceptada que existe sobre este origen se denomina el bosón de Higgs. En ella se postula que existe una partícula (el bosón de Higgs) que verifica una relación matemática determinada que liga el valor de la energía potencial V que adquiere el bosón en un determinado campo escalar f. Dicha relación depende de
la temperatura T según una formula con estas variables identificadas que dibujaría curvas de representaciones vectoriales dependientes de las relaciones entre sus potenciales de energía y la temperatura. Estos procesos podrían darse en sucesos de las etapas finales de la vida de las estrellas (Soles) generando expansiones (universos) donde las masas y energías se intercambian a velocidades mas rápidas que la de la luz, hasta un punto donde esta expansión cesa, en cuyo instante, las relaciones energéticas de esa partícula determinaran la formación de materia y vacíos (agujeros negros) en esa constelación así formada. Dejando delimitada de maneras puede que sujetas a las dinámicas conocidas, puede que sujetas a otras aún desconocidas, las distintas formas de materia y energía y sus estadíos y pasos de equilibrio y desequilibrio enegético que les confieren distintos estados de agregación y consistencia temporo-espacial.- Pero siempre y en definitiva nada termina de explicarse en su existencia asi mismo y las formas, dinámicas, estados y procesos que podamos ir percibiendo cognitivamente o accediendo a partir de nuestras capacidades somato-sensibles de nuestros sistemas de percepción y nuestros cerebros y mentes, no pueden acceder de modos inteligibles a concepciones que no surgan de lo existente o previamente actuante de algún modo.
Volviendo al teorema de Gödel, la respuesta a la primera pregunta, ¿Cual es el origen de la existencia? Por cuanto autoreferencial es en escencia una paradoja que no puede ser respondida en termino de un sistema coherente de respuestas, sin la existencia probada de inconsistencias o incoherencias y que por tanto, no sería la respuesta a la pregunta. Lo que transforma a toda respuestas en autoreferencial, en paradojica o imperfecta (Y en los mismos términos las respuestas cognitivas, sensibles o sensitivas lo son por cuanto no existe la autotrascendencia en términos de prescindencia -Nadie puede conocer prescindiendo de sus propias habilidades para conocer-). La sálida práctica, es la que confiere mayor justeza y acercamiento, en términos críticos y de superación de falacias, pe-juicios e incosistencias y capaces de soportar aunque mas no sea en terminos temporales, refutaciones, a lo cierto con la limitación, precisamente, de lo autoreferencial, por lo que lo cierto es todo aquello que es a pesar de quien dice que es o le describe, conoce.-



Diablos o Santos, Dioses o Demonios, los origenes de la existencia y de las conformaciones complejas que constituyen lo vital y lo humano como una de sus multiples manifestaciones, como así las formas que estas dinámicas de intercambio entre diferentes estadíos energéticos (que incluso pueden no surgir de escencias y fuentes conocidas) generan realidades infinitamente pequeñas, tanto como expansiones infinitamente grandes que no se pueden explicar a si mismas como resultado de voluntad deíca, sucesos azarosos o modelajes creados en otras dimensiones que puedan haber originado estas, cubriendose asi misma en la explicación de algo pre-existente que como “particula de Dios” lejos de ser respuesta, es la pregunta eterna incontestada.-

Daniel Roberto Tavora Mac Cormack
Enero de 2013


Bibliografía:

Ingeniería Informática - Lógica y Computabilidad 2005/2006
Autores
  • Ana Mangas Ballester
  • Jose Antonio Cordero García
  • Francisco Javier Campos Granado
  • Elizabez Sánchez Gil
  • Castor Miguel Rodriguez Álvarez

El origen de la materia y la energía en el universo
PEDRO VILARROIG.
Universidad Politécnica de Madrid, Escuela Técnica Superior de Ingenieros de Minas. C. Ríos Rosas, 21 28003 Madrid.

Jáuregui, Pablo. «Peter Higgs: 'No soy creyente, pero la ciencia y la religión pueden ser compatibles'»,El Mundo, 28 de diciembre de 2012.

Leon M. Lederman - Dick Teresi
La partícula de Dios: si el universo es la respuesta, ¿cuál es la pregunta?
Crítica
Grijalbo Mondadori
Barcelona 1996.-

lunes, 7 de enero de 2013


Ciencia Iberoamericana: La tarea de una construcción de identidad propia.



         Estimados amigos, comparto en este texto algunas reflexiones que me sugieren la lectura de las primeras páginas del texto que nos han ofrecido para debatir : http://oei.es/documentociencia.pdf.
En primer lugar, la preocupación por el poco reconocimiento internacional, reflejado en el número de premios nóbeles, o en los reconocimientos internacionales por los esfuerzos de nuestros científicos e intelectuales de las ciencias y el pensamiento critico y racional, me sugiere un comienzo poco feliz, toda ves que, no solo por las diferencias económicas y de la disponibilidad de recursos que desde siempre, nos impiden desarrollos de igual a igual con aquellas naciones que se han reservado para sí las mejores herramientas y han impuesto tendencias y formas de validación y ejercicio de las prácticas científicas, mayoritariamente asociadas a las guerras y la proliferación bélica y coercitiva del resto de las naciones, son ademas, direccionadas a partir de las respuestas a sus propias necesidades y deseos, que se imponen como universales. En estos sentidos, si pretendemos verdaderamente contribuir, desde la ciencia y la tecnología, a los desarrollos globales, deberemos revisar desde donde, desde que lugar ideológico y conceptual vamos a exponer ideas y desarrollar aportes hacia tácticas y estrategias que contribuyan verdaderamente a conocimientos socializados que sirvan en concreto a nuestros pueblos y a nuestras naciones. Debemos modificar las intenciones a partir de lo que somos y queremos como Iberoamericanos. Reformular conceptos desde el lugar periférico en el que siempre nos colocaron, pero haciéndonos fuertes desde esa misma imposición universalmente sostenida como débil, porque son precisamente estos tiempos, tiempos de cambios profundos y estructurales. Tiempos de un conocimiento que deberá someterse a mentalidades nuevas, que comienzan a mirar al mundo de maneras diferentes.
Para proyectarnos al futuro es necesario reconocernos en el pasado, no con la intención de interpretarlo tal cual fue, sino como relato significante que nos acerca algo de luz a los porque somos lo que somos y actuamos como actuamos, tanto individuos, como colectivos, como naciones , como iberoamérica.. Esto implica el esfuerzo de desenterrar del olvido y la mentira las historias que forjaron nuestros presentes en los sentidos ciertos de dominación, injusticia, sometimiento y desvalorización de lo propio que han signado las relaciones globales para con esta parte del planeta, y que hemos, lastimosamente asimilado y repetido hacia nosotros mismos en nuestra relaciones, repitiendo xenofobias que nos separan y alimentan los rencores y resquemores que nos impiden vernos como hijos de una historia común y de una “pre-historia común”.
Esas Raíces vienen de tiempos ancestrales, negados y mentidos por conquistadores y asesinos a ambos lados del océano, Porque la historia Ibérica, no es menos sufrida y trabajada desde imposiciones que supieron relegar improntas regionales y someter diferencias y diversidades que enriquecían la vida de la península, del mismo modo que lo hacían las cientos de culturas que habitaron américa antes de la conquista.
El segundo punto y que tiene directa relación con lo expuesto, tiene que ver con las definiciones de la ciencia que pretendemos estimular, desarrollar y socializar. Los conocimientos, los verdaderamente iberoamericanos provienen de esa historia y de esa prehistoria, y del choque cultural, religioso, científico y de universos simbólicos e imaginarios colectivos diversos que coexistían, no sin conflictos, a uno y otro lado del océano. Esos conocimientos se fusionan en una impresionante mezcla a partir de la conquista, y ambos territorios se ven transformados radicalmente por ese intercambio, no igualitario, pero igualmente trransformador para ambos contextos. Fue tan impactante las transformaciones de las sociedades latinoamericanas y del Caribe, como las españolas y portuguesas. El choque multicultural, que duró hasta precisamente esas guerras de independencia que en esto tiempos cumplen los 200 años. Mas de 4 siglos se necesitaron para hacer de nuestras sociedades y de las relaciones que supimos mantener, para llegar hoy a ser lo que somos. No es menor el impacto de las migraciones de fines del siglo XIX y principios del XX , y las de la guerra y post guerra de a segunda contienda mundial, que provocaron migraciones masivas hacia estas tierras, que también impactaron culturalmente y socialmente a las jòvenes naciones a este lado del continente. De igual modo el comercio y trafico de esclavos que nos conecta con el Africa Negra y los Afrodescendientes. Todos estos fantasmas claman por una ciencia que los tenga en cuenta como parte de lo que somos, por esa herencia de lo que fuimos y nos hace en el presente.
Los conocimientos, y la ciencia como su instrumento, si se pretende social en términos de utilidad para los pueblos, debe considerar de maneras diferentes a las impuestas, las miradas sobre su origen, su objeto y su pertenencia, que no son iguales (Ni mejores, ni peores, solo distintos, propios), a los que definen nominaciones a los nóbeles o rankings internacionales.

Un tercer punto, y la numeración no supone importancia ni jerarquización de los temas, sino seguir el orden del relato del documento en el que baso estas reflexiones, es acerca de la definición de desarrollo, que en los mismos términos de replantearnos los orígenes, deberíamos revisar por esas mismas concepciones que nos imponen términos con significados ya adjudicados pero que, nuestra lengua madre es rica en ello, ofrece diferencias que pueden ayudarnos a distinguirnos en lo propio, en la búsqueda de los objetivos y deseos de los pueblos de donde surgimos y a los que deberíamos servir primero. En estos sentidos ¿Son los desarrollos que buscan optimizar producciones y consumos, los desarrollos deseados y buscados por nuestras sociedades iberoaméricanas?
Los conflictos ambientales y las oposiciones a ciertas dinámicas macro de los desarrollos globales, sugieren que no. Que hay otro desarrollo deseable por nuestras comunidades y nuestros pueblos que no tienen que ver con las lógicas de máxima renta y mayor consumo y producción como parámetros para alcanzar desarrollos que nos aseguren los aspectos mínimos de nuestra supervivencia, pero además, alcanzar grados de disfrute y de placer en las cosas que utilizamos y en las formas con las que compartimos la vida los seres humanos en el planeta. Aquí, como científicos deberíamos también animarnos a recorrer un camino inverso, quizás el que desde las ciencias sociales se han intentado recorrer, pero que siempre chocaban con ese Status Quo, que imponían los canones imperiales del conocimiento sectario y de Claustro, sujeto a verdades demostrables de modos experimentales, que obviamente limitaban por anti-ético, cualquier intento en esos sentidos referido a lo social y a lo humano.-
Las neurociencias, revalorizan el valor de esto y colocan a lo social en igualdad de capacidad de demostración empírica de postulados que eran negados e invalidados como ideológicos o filosóficos ajenos al verdadero espíritu científico, como las demostraciones que comprueban que es el altruismo y no el egoismo o la avaricia, el sentimiento que genera mayor placer y felicidad en el ser humano. Estas verdades ahora científicas, comienzan a modificar las direcciones de los flujos de información y conocimiento y es entonces imprescindible aprovechar estos canales para que sean verdaderamente bidireccionales y no establezcamos relaciones con las sociedades de modos de imponer nuestras creaciones y saberes, sino de proponer diálogos sinceros entre iguales, centrando nuestros esfuerzos, como aportes para ese dialogo y no como verdades per se. Objetivas. Unívocas
. Como aproximación a esto sugiero que comencemos a entender el desarrollo de modo complejo, y una aproximación que considero útil y valiosa, la da la APNUD Argentina al proponer el desarrollo humano y social entendido como la expansión de capacidades y potencialidades individuales, y las habilidades en practicas grupales, siempre en sentido multidimensional, que mejoren la calidad de vida de las personas y de sus comunidades, la expansión de sus libertades reales y su articulación comprometida en las construcciones colectivas.- Esta idea de desarrollo convierte a las personas en agentes activos de los cambios e innovaciones y de su propia transformación individual y social; y no como agentes pasivos y solo preparados para recibir instrucciones de cambios e innovaciones diseñados por otros. Esta concepción de desarrollo importa también, no centrar la medición y ponderación, únicamente en los niveles de ingreso, sino en el sentido adoptado por la APNUD Argentina, en el 2009, donde define una metodologia de calculo para cuantificar el desarrollo y la calidad de vida de las poblaciones(Indice de Desarrollo Humano (IDH) ) basada en 3 parametros:
Para la construcción de cada índice se tienen en cuenta las siguientes estimaciones:

1.-Índice de Esperanza de vida:

Índices de expectativa de vida.-
Índices de mortandad Infantil.-

2.- Índice de Educación:

Por niveles de escolaridad.-
porcentajes de inclusión -
Mediciones de competencias asimiladas

3.- Índice de Ingresos:

Índice de Ingresos.-
Índice de Ocupación.-
Índice de desocupación.-



Por el lado de la Innovación, es la introducción de productos o procesos de producción nuevos o modificados que generan mejoras significativas; o el desarrollo de nuevas metodologías de organización. Comercialización o utilización de conocimientos aplicados que optimizan resultados y aumentan el valor generado según la índole en que esta es aplicada.-
La relación positiva entre desarrollo e innovación, es identificable en las mediciones y cuantificaciones que detectan evoluciones en las capacidades y calidad de vida de las personas. Esto es en accesos mas fáciles y mejores al desarrollo de las capacidades creativas, participativas e inclusivas de las personas, en las habilidades físicas y cognitivas, el goce de una vida larga y saludable, la atención y dignidad de personas con capacidades diferentes y el acceso a los recursos materiales y a la satisfacción de las necesidades básicas, como el acceso a la participación en las decisiones de la vida comunitaria, el ejercicio de la ciudadanía y el control de las instituciones publicas.
En este sentido, las TIC están demostrando ser instrumentos formidables para los avances investigativos que permiten mejoras en la salud, calidad de la alimentación, en los servicios (medios de transportes, energías, Acceso al agua Potable, etc.), en la elaboración de nuevos materiales para la construcción, la detección de Catástrofes naturales, y la actuación ante estas,; el acceso y la mejora en la calidad de la educación, la comunicación y el acceso a la información; al uso racional de los recursos naturales y económicos, y al desarrollo participativo, en general, que desde lo local y regional aporte al desarrollo de la humanidad toda.

En cuarto lugar, y para terminar, por ahora, ya que el documento da para mucho, pero no es mi intención monopolizar ideas y espacios que deben ser para la reflexión común, Deseo hacer incapie en algunos conceptos que me parece no deberían estar al margen de las proposiciones en estos sentidos de fijar estrategias y acciones para que la ciencia sea verdaderamente un valor social y se instrumente de modos dinámicos y positivos en los espacios y formas que se creen y dinamicen para que esto sea posible. Se mencionó la idea de la sociedad del conocimiento, que como evolución conceptual, mejoro aquella primera de sociedad de la información, precisamente porque se comenzó a percibir un cambio en las relaciones entre los contenidos y datos -conocimientos- que como información se socializaban, no eran recibidos sin mas, como verdades fácticas e intocables, sino que por el contrario, se transformaban en impulsos, en detonantes de flujos de ida y vuelta que generaban mayor conocimiento, y mayor difusión de los contenidos de modos adoptados y adaptados por colectivos e individuos de maneras personales, propias, con identidad definida y generando entonces dialogo entre los agentes d e la información y creación con los agentes receptores, público o sociedad. En la actualidad, y esto avanza muy rápido lo que dificulta asentar conceptos a modo de actualizaciones de los que recién instalados comienzan a parecer insuficientes. Nos estamos situando en terrenos donde las visiones se corporizan y materializan de maneras ambiguas, porque conviven realidades locales, territoriales y geográficamente instaladas con otras virtuales y globales que trascienden las propias pertenencias y las transforman en espejos para vernos de modos distintos. Lo que nos sucede aquí y ahora, sirve como conocimiento para lo que sucede en otros lugares, al mismo tiempo o en tiempos diferentes. Esas sociedades del conocimiento se transforman entonces en sociedades glocales (donde lo local y lo global forman parte de la propia identidad) y es la acción territorial la que se torna inteligente por esas acciones de ciudadanías glocales que se asumen, al mismo tiempo, ciudadanos de un lugar pero parte de una raza global. En estos sentidos se diluyen las diferencias y confrontaciones que surgen de las polarizaciones, y aparece una única realidad, compleja, multiforme, multidimensional, que traspas los limites de los espacios y los tiempos, pero a la ves los incluye con toda la fuerza del presente y de los momentos proyectados hacia el futuro. NO es esto deseo o poesia, es lo que definitivamente esta caracterizando las relaciones entre conocimiento y ciudadanías y sus relaciones con los territorios concretos en los que desarrollan su vida de todos los días. Son los barrios, los pueblos, las ciudadades las que comienzan a adquirir centralidad por encima de las definiciones mas amplias que enmascaran los saqueos y los desarrollos que solo sirven para que otros se sacien con lo nuestro sin dar nada a cambio, sin sostener dinámicas parejas o relaciones entre humanos igualmente humanos. Por lo tanto también debe ser parte de esas definiciones nuestras, Iberoamericanas, las que se nutran de los desarrollos locales entendidos como actividades consientes fundadas en conocimientos del ejercicio pleno de las soberanias territoriales, ya no solo en lo referido a las plìticas globales, internacionales o Nacionales, sino y también a los derechos de los individuos de resolver como vivir y que conocimientos aceptar y desarrollar en sus territorios concretos de existencia, en sus espacios vitales, que son hoy tan reales como virtuales.
Todas las problemáticas económicas, sostenidas en mentiras de escasez y de propiciar desarrollos de máxima producción y consumo, se hacen posibles y necesitadas de mucha menos infraestructura y recursos financieros y técnicos, si se encaran cooperaciones desde lo general, para los desarrollos locales pertinentes y relevantes, de acuerdo a las características territoriales, históricas, culturales y sociales de las comunidades que las habitan y administran. Se trata de invertir la lógica de maximizar rentas y producciones por una lógica nueva que busque maximizar lo humano desde lo pequeño. Revisar y definir relevancias, pertinencias y criterios de excelencia desde nuestras propias realidades locales, como células que definen el organismo en su conjunto. Iberoámerica debe ser entendida, deberíamos entendernos en estas dimensiones complejas que hacen que seamos lo que somos, porque tuvimos un pasado común y nos proyectamos con ideas propias surgidas de nuestras propias lecturas del como llegamos hasta aquí, para generar lo nuevo de modos dialógicos y sustentables.
Las instancias institucionales como los organismos internacionales, estados, universidades, empresas, deberían modificar sus postulados de desarrollo y progreso en un dialogo sincero entre iguales, con las comunidades locales. La reprimarización de nuestras producciones demuestra que los mentados desarrollos emergentes de América Latina, no escapan a las mismas lógicas que provocan las crisis en España y Portugal, Porque el Capital sigue imponiendo las formas de saqueo, consumo exacerbado, despilfarro, transferencia de los desechos y de los riesgos a las naciones perifericas. Asumirnos como débiles es nuestra mas grande fortaleza, porque desde la debilidad, surge claro lo que resulta como imposición por la fuerza de aquello que representa sentires, deseos y conocimientos ciertos de los pueblos que buscan mejorar sus existencias, cuidando sus entorno y pensando en construcciones que no limiten los desarrollos de las futuras generaciones.
Pensar una ciencia desde la periferia, desde una pertenencia común Iberoamericana, es desandar los caminos de los desarrollos impuestos para generar los propios basados en conocimientos que representen ese dialogo entre la ciencia y lo social, pero en terminos locales y globales (Glocales concretos) para construir territorios verdaderamente inteligentes, y ciudadanías activas y democráticas que se comprometan en su construcción y sostenimiento, sabiendo que somos todos habitantes de un planeta, pero estamos pisando un pedacito cierto de este y es sobre el que tenemos mayores responsabilidades.
Daniel R. Távora Mac Cormack