Tag Archives: física

La irrazonable efectividad de las matemáticas

27 Oct

Desde hace muchos años, siglos, las grandes mentes humanas dedicadas a la física y matemática se han preguntado de forma insistente por qué las matemáticas describen la realidad. Este documental lo relata bastante bien.

Los formalismos matemáticos humanos no son más que una expresión de las intuiciones que hemos extraído de nuestra relación con la naturaleza y la realidad que percibimos. Cuando asumimos que 1+1 son 2 es porque lo observamos. El guarismo “7” no es más que los traducción del concepto de 7 unidades que observamos en nuestro día a día.

Partiendo de esta base, preguntarnos la razón sobre por qué las matemáticas se adaptan a la naturaleza es una perogrullada pues nacen de ella misma. Darle un sentido profundo a la pregunta implica apropiarnos de las matemáticas como algo creado por la Humanidad cuando no es así.

Al tratar de describir lo infinitamente pequeño, y dado que ningún ser humano ha percibido ni percibirá la naturaleza a ese nivel, la matemática clásica deja de ser una herramienta adecuada. Esa es la razón por la que la matemática cuántica es extremadamente compleja, pues se han tenido que retorcer la matemática nacida de nuestra realidad cotidiana para lograr describir entidades en otro nivel diferente de realidad.

Cuando el ser humano asuma los comportamientos cuánticos como intuitivos, logrará formular una nueva matemática que describirá el mundo cuántico de forma sencilla, del mismo modo que el cambio de origen del punto de referencia desde La Tierra al Sol produjo una simplificación enorme en las ecuaciones de los movimientos de los rellenéis del sistema solar. Para ello se necesita pues una revolución intelectual en la Humanidad para que deje de asumir que existen los puntos matemáticos y pase a considerar que todo, absolutamente todo, tiene extensión, erradicando el concepto de cero e infinito del formalismo matemático. Los infinitesimales son la pieza clave a eliminar de nuestros formalismos para poder dar el salto hacia una nueva matemática más universal.

Anuncios

Universo sin tiempo: Colapso y expansión

4 Sep

Inauguro mi blog con una entrada sobre Física. Sí, ya sé que es un totum revolutum muy raro, pero me apetece y punto.

Y lo hago nada menos que con una teoría cosmológica. Casi nada. Pero “como no sabía que era imposible, lo hice”, que dijo aquél.

Los físicos actuales han aceptado de forma general la hipótesis (bastante fea) de la “energía oscura” como una suerte de energía que tiene el vacío (densidad negativa de energía) y que tiende a expandir el espaciotiempo. Sería lo mismo que la Constante Cosmológica que introdujo Einstein en sus ecuaciones de Relatividad General para equilibrar la atracción gravitatoria (y que luego calificaría como su “peor error”), pero con un valor que no solo equilibra sino que excede a la atracción gravitatoria universal, provocando esa aceleración de la expansión que se ha observado recientemente. Basándose en estas observaciones, se vaticina que el Universo acabará desgarrado (Big Rip) al no poder frenarse nunca por no haber logrado alcanzar la densidad crítica (que se estima en 10−31 gr/m³, es decir, unos pocos átomos por m³). No es que no tengamos esa densidad crítica, es que según las mediciones no llegamos ni al 1% de ella.

Entendiendo la entropía como una medida de la homogeneidad de la distribución de energía en un sistema (ya que las diferencias de energía son las que pueden producir trabajo útil), de forma que cuantas menos diferencias de energía haya en un sistema, mayor es su entropía. La entropía siempre crece, o al menos eso dicta el 2º Principio de la Termodinámica que funciona perfectamente en nuestro universo observable (del cual se nos escapan los agujeros negros). Como la Entropía es inversa de la temperatura, es de cajón que la temperatura actual del Universo (menos de 3 ºK) esté mucho más cerca del 0 absoluto (0 ºK) que la del Big Bang (1032  ºK).

La única forma de que algo no tenga principio ni fin (puntos en los que la teoría del Big Bang se encuentra con serios apuros matemáticos e incluso conceptuales que trato en un post adicional) es que sea cíclico, circular, cerrado. Si no, se hallarían sin respuesta cuestiones como ¿qué inició la expansión, qué energía descomunal logró vencer las inimaginables fuerzas de atracción gravitatoria? Y lo del campo inflatón que todo lo expandió y alisó el universo, está muy bien para describir un proceso, pero el origen de su energía nunca se ha explicado convincentemente. Al final siempre aparece Dios, que viene a ser como el comodín que para todo vale.

Así pues, ¿cómo podría revertirse el proceso hacia otro Big Bang pasando por un Big Crunch (BCBB) con los datos experimentales de que disponemos actualmente? Pues creo que lo primero que hay que eliminar es la hipótesis de la homogeneidad en cosmología que nos lleva a soluciones tipo Big Rip o Big Crunch para todo el universo en su conjunto. Yo creo que ambas soluciones se dan de forma simultánea en el universo: mientras hay zonas colapsando hacia agujeros negros, absorbiendo más y más masa, ampliando el volumen ocupado por la singularidad, aumentando su horizonte de sucesos, el resto del espacio se va desgarrando hacia ellos, experimentando el Big Rip que he citado que concuerda con nuestras observaciones.

Creo que nadie ha manejado está hipótesis de que la expansión acelerada que observamos en la parte observable (valga la redundancia) podría experimentar esa aceleración en relación a nosotros “tirada” por el colapso multicentral de una red homogénea y masiva (del orden del 85 % de la masa del Universo-lo que ahora se llama “materia oscura”) de agujeros negros. No habría necesidad de introducir esa hipótesis moderna de corte esotérico que es la energía oscura. Así, el Universo estaría colapsando de nuevo hacia una nueva singularidad primigenia pero no de forma global sino local (multilocal, sería más correcto). Posteriormente los agujeros negros supermasivos acabarían absorbiéndose unos a otros hasta el redoble final, que sería de nuevo el comienzo de todo. El proceso que alimentaría de energía para lograr vencer las tremendas compresiones gravitatorias de este estado es una incógnita, pero al igual que la masa de un agujero negro debe de permanecer estable gracias a algún proceso de repulsión entre quarks, o algo parecido, cuando se rebase el límite de ese proceso estabilizante, el resultado será una liberación enorme de energía, del mismo modo que el comienzo de la fusión del carbono alimenta la explosión de una supernova.

Así, nosotros viviríamos en la parte del universo que se va expandiendo más y más (aumentando la entropía más y más, enfriándose más y más) mientras el proceso inverso ( la contracción cada vez  mayor, el calentamiento cada vez mayor, su absorción de entropía cada vez más intensa, su acumulación cada vez mayor de trabajo disponible) se daría en los agujeros negros (cada vez más numerosos y masivos) que se fundirían en el redoble final: la singularidad primigenia entendida como el agujero negro más colosal posible, fusión de todos los existentes. La curvatura de nuestro universo sería hiperbólica  mientras la del “universo oscuro” estaría en geometría cerrada de forma que el Universo global fuera completamente plano.

Sería un proceso parecido al de ascenso y descenso de un chorro de agua: al ascender lo hace de forma colimada y más o menos ordenada, pero al sucumbir a la gravedad, se acentúa cualquier fluctuación inicial y se produce un descenso desordenado y multicentral. También en una visión metafórica, sería algo parecido a lo que le ocurre a la superficie jabonosa de una bañera cuando abrimos un desagüe alimentado por múltiples agujeros, es decir, que aunque el destino es que la bañera se vacíe, si fuésemos un insecto flotando sobre el jabón observaríamos cómo todo nuestro universo plano se estira hacia todas direcciones (desagües, que no podríamos observar). La conclusión del insecto es que todo se aleja de todo, luego la superficie se expande, cuando la realidad es muy otra. No encuentro la analogía adecuada (tal vez no la haya) pero creo que se me entiende.

Además, esta relación espacio normal-agujeros negros es compatible con la definición de radiación de Hawking dado que esta radiación se origina porque en el interior de un agujero negro (donde no rigen nuestras leyes de la física) está en contacto fronterizo con espacio convencional (en el que sí rigen). Esta radiación es de menor intensidad cuanto mayor es el agujero negro, por lo cual es lógico que cuando ya no quede espacio convencional con el que tener frontera (momento del BCBB de la teoría que aquí expongo) no se emitiría radiación alguna.

Con esta teoría, la Constante Cosmológica y la energía oscura son innecesarias. La entropía marcaría la flecha del tiempo en nuestro universo observable, mientras los agujeros negros actuarían como sumideros de materia-energía y entropía, de forma que de forma global el Universo tuviera entropía constante (o nula) y careciera por tanto de tiempo, siendo éste un concepto sólo aplicable “localmente” a nuestro universo observable. El universo global (incluyendo ambas caras) sería estático y euclídeo en cuanto a carente de variable tiempo y curvatura.

No sé cómo expresarlo ni conceptualizarlo mentalmente pero el universo carecería de tiempo. Esto es inimaginable, pero seguro que se puede matematizar. En lugar de MÁS dimensiones (como proponen las teorías de cuerdas o la famosa Teoría M), lo que aquí propongo son MENOS dimensiones, sólo las 3 espaciales.
Bastaría con deducir una nueva métrica (diferente de la métrica FLRW) como solución a las ecuaciones de Relatividad General eliminando la hipótesis de homogeneidad.

En grandes líneas, la historia del universo de acuerdo con esta especulación sería de la siguiente forma:

-Etapa de explosión: partiendo de un estado muy denso (pero no infinitamente denso) gracias a la liberación de energía fruto de algún proceso desconocido hasta hora pero que operaría a escalas cercanas a la de Planck, el universo se expandiría explosivamente. Duración muy breve.

-Etapa de expansión decreciente: la fuente de energía deja de proporcionar energía nueva al sistema y la gravedad se opone a la inercia expansiva inicial.

-Etapa de comienzo del colapso: alrededor de unos 200 millones de años después del inicio, comienzan a formarse las primeras estrellas y por ende los primeros agujeros negros. El espacio empieza a contraerse dentro de esos agujeros negros y el espacio fuera de esos agujeros negros comienza a estirarse, de forma que la expansión general remanente se suma en estas regiones para empezar a experimentar una expansión sostenida.

-Etapa de aceleración del desgarro: según van aumentando el número y tamaño de los agujeros negros, el espacio entre ellos va experimentando una expansión crecientemente acelerada.

-Etapa incial: cuando los agujeros negros logran absorber cerca del 100% de la masa del universo, dejan de ser estables y liberan alguna clase de proceso explosivo que nos devuelve a la etapa de explosión.

De Ptolomeo a Einstein

31 Ago

Como continuación al post Incompatibilidad entre Relatividad y Cuántica: los diferenciales querría añadir que una de las razones por las que las 2 teorías actuales de la física moderna está en un estado de bloqueo mutuo es la complejidad inaudita de sus formulaciones. Querría asemejar la situación al estado de la astronomía tras el enorme y admirable trabajo geométrico-matemático de Apolonio y Ptolomeo en el siglo II a.d. que estableció el geocentrismo como paradigma fundamental.

Al contrario de lo que se dice frecuentemente, el geocentrismo no es erróneo sino complejo, que no es lo mismo. El considerar la tierra como centro del movimiento de todos los planetas es una opción igual de buena, físicamente hablando, que tomar el sol como centro, sólo que si tomamos a la Tierra, las ecuaciones son muy complejas (con epiciclos, centros ecuantes y centros deferentes) que nos dan un poco de repelús, mientras que si tomamos al sol, las ecuaciones se simplifican bastante. Querría puntualizar en este momento que el sol realmente tampoco está inmóvil respecto a nosotros mientras rotamos alegremente a su alrededor, sino que él también ha de oscilar ligeramente ante nuestros cambios de posición, sólo que al ser tan masivo respecto al resto de elementos de su sistema, y al estar nosotros y el resto distribuidos de forma  más o menos circular a su alrededor, compensando nuestros mutuos efectos “perturbadores”, su variación de posición relativa respecto a nosotros es muy pequeña. Lo anterior determina que si fuésemos rigurosos, también con el Sol en el centro de las ecuaciones, tenemos epicicloides de Apolonio, sólo que tan degradadas a elipses que no vale la pena a la hora de calcular, aunque sí al razonar. El efecto es tan imperceptible como la oscilación de un buque petrolero ante los pataleos de una gaviota que intenta mantenerse a flote al recibir los embates de su quilla, pero ahí está. Y es que en los detalles está el diablo, como diría aquél.

El sistema de Ptolomeo fue capaz de describir y predecir matemáticamente con exactitud la posición de los planetas y del sol, igual que el modelo heliocéntrico, pero con el primero, el tiempo que dedicaba un humano a dominar la matemática subyacente al modelo, era tan dilatado (casi toda su vida), que ya no le quedaban fuerzas para cuestionarse sus planteamientos o aportar nuevos enfoques. Es por ello que, en mi opinión y de forma concomitante a otros factores, por supuesto, la precisión y complejidad del modelo Ptolemaico determinó la parálisis casi total del desarrollo de la ciencia astronómica durante los siguientes 1.400 años (desde el siglo III hasta el s. XVI !!!). hubo que esperar a genios como copérnico, Kepler o Galileo para que encontraran indicios de cambio de paradigma y cambiasen el modelo.

Y aquí viene mi paralelismo: la complejidad y a la vez el éxito predictivo de la Cuántica y la Relatividad demandan de las personas interesadas y capaces de resolver el enigma un esfuerzo tal que cuando llegan a la comprensión de ambas teorías ya no están en sus momentos vitales para poder cambiar el paradigma que logre casarlas. La formulación hipercompleja está paralizando la refundación de la física en términos más sencillos del mismo modo que la teoría de Ptolomeo hiciera con la astronomía de su época.

Hace falta reformular la Relatividad y la cuántica en matemática discreta pero es una tarea que exige previamente dominar ambas teorías, por lo que tendremos que esperar a una mente privilegiada en un entorno favorable para que se ponga manos a la obra con 20 años de edad, lo cual puede significar esperar unos cuantos lustros, décadas e incluso siglos.

Incompatibilidad entre Relatividad y Cuántica: los diferenciales

27 Ago

Son muchos los esfuerzos que han dedicado multitud de físicos y matemáticos durante más de un siglo para poder conciliar estas 2 teorías físicas que se resisten a ser casadas. Ambas están atrincheradas en una concordancia sin igual con los resultados experimentales (a día de hoy sólo hay especulaciones sobre tal o cual posibilidad de discrepancia) pero nada que se haya demostrado convincente. Su acomodo a los resultados experimentales es extraordinario si bien hay diferencias serias a la hora de juzgar el mérito de su gestación.

Mientras que la Cuántica es la obra de un ejército de científicos (el propio Einstein entre ellos) que han ido perfilando la teoría a golpe de razonamiento o de experimento (que les determinaba qué razonamiento previo era el bueno), la Relatividad es obra de un hombre casi en exclusiva: Einstein. Si bien fue ayudado e interactuó con diversos matemáticos y físicos de los cuales bebió y aprendió de forma notable, el mérito del compendio y la síntesis de todos los saberes que atesoró, gracias a su colosal intuición, es exclusivamente suyo. Y además basándose en muy pocos resultados previos (en realidad únicamente basó la relatividad en la infructuosa búsqueda de valores diferentes para la velocidad de la luz) predijo numerosísimos resultados de experimentos que incluso muchísimo después de su muerte han ido corroborándose de forma implacable uno tras de otro a posteriori de formularse la teoría. Sólo hizo una variación a su teoría: la constante cosmológica para ajustar su teoría a la estaticidad del Universo compensando la atracción de la gravedad con una repulsión igual y contraria. Esta constante cosmológica la eliminó posteriormente calificándola de su mayor error (profesional) pero que actualmente se considera válida en concepto aunque no en el valor (el cual es objeto de intensa controversia) ya que el Universo se admite generalmente que se expande aceleradamente luego ambas tendencias se hayan descompensadas en favor de la constante cosmológica (aunque yo sostengo en otro post que la Relatividad era correcta en su formulación inicial sin constante alguna).

Bueno, voy a dejar de pelotear a Einstein aunque debéis disculparme porque es algo casi inevitable para mí.

A lo que iba: ambas teorías tienen un punto de incompatibilidad primordial que mientras no se resuelva seguirá impidiendo dicha reconciliación: LOS DIFERENCIALES.

Este operador omnipresente en la geometría Riemanniana con la cual se da sustrato matemático a la Relatividad General se ha demostrado inexistente y carente de validez física ya que si algo nos ha revelado la cuántica es que las cosas no pueden dividirse y hacerse pequeñas de forma indefinida, que es precisamente la hipótesis conceptual matemática que subyace en la formulación diferencial. El truco de reducir problemas complejos a la suma de infinitos problemas sencillos tiene un límite. El cero físico no es cero matemático sino que vale las dimensiones Planck, y eso significa que los infinitos tampoco existen, debiendo ser sustituidos ambos conceptos por números enormes (o diminutos) pero no infinitos (ni nulos).

Un ejemplo de que las magnitudes derivadas, como por ejemplo la velocidad instantánea, son incapaces de adaptarse a una realidad discontinua y discretizada, es la interpretación de la no conmutatividad encontrada por Heisenberg entre ciertos operadores (conjugados) una vez desarrollados por Fourier. Este genial físico dedujo que medir la posición y luego el momento lineal (masa por velocidad) respecto a medirlos en orden inverso no eran lo mismo ya que el operador [Posición-Momento]-[Momento-Posición] no era nulo sino que valía i·ħ, algo completamente antiintuitivo.

Según mi opinión, la interpretación del descubrimiento de Heisenberg es errónea (la interpretación exclusivamente, recalco, que nadie piense que oso corregir a Heisenberg ni a nadie de ese pelo) en el sentido de pensar que esto es así porque las cosas sólo existen cuando se las observa (interpretación de Copenhague). No hay realidades creadas por el observador ni mundos paralelos, tal y como le gusta divagar a numerosas corrientes new age con planteamientos esotéricos de libro de autoayuda de Paulo Coelho y chorradas planetarias del estilo. Para mí, es una cuestión de discretización espaciotemporal.

Si admitimos que las dimensiones de Planck son la variación mínima que puede darse en el espacio (Lp=1,62·10−35 m) o en el tiempo (Tp=5,391·10−44 s) y que su relación máxima de variación es evidentemente “c” (Lp/Tp=c≈3·10m/s). Si imaginamos una partícula (que tampoco puede ser puntual porque eso significaría extensión nula, pero démoslo por bueno de momento) avanzando en el espacio a lo largo del tiempo, el momento (masa-que depende de la velocidad- multiplicado por la velocidad), o la velocidad de forma más simplificada, es una magnitud DERIVADA de la propia posición, lo cual implica que para medir la velocidad, hay que tener VARIAS posiciones distintas, lo cual implica a su vez una indeterminación en la posición exacta a la que atribuir la velocidad calculada (¿es en x o en x+Lp?). La partícula en el “lugar espaciotemporal” siguiente no puede estar a menos “distancia” que la de Planck (en espacio y en tiempo) pues está claro que no podremos superar “c”. Si pretendemos obtener la distancia (Δx) que avanza una partícula en un solo cuanto de tiempo (Δt=Tp), resulta que sería menor que el cuanto de espacio (Lp), luego la posición seguiría siendo la misma y no se podría obtener velocidad alguna en ese intervalo de tiempo diminuto. Si, por contra, cogemos 2 posiciones separadas un solo cuanto de espacio (Δx=Lp), el tiempo medible será un múltiplo entero del tiempo de Planck, debiendo tener obligatoriamente un resto en su división con Tp, luego tendríamos un error de al menos un tiempo de Planck (Tp).

Como se observa, la matemática continua habitual, con sus números reales (que son lo más irreal del mundo de acuerdo con la concepción cuántica) no se acomoda a la realidad discreta observada, por lo que nunca se logrará casar ambas formulaciones. La cuantización, pues, implica desviaciones respecto a las leyes matemáticas “lisas” que manejamos los humanos en nuestras abstracciones matemáticas.

Sin embargo, las predicciones de la Relatividad son demasiado exactas como para desdeñarlas de buenas a primeras (¡no seré yo el que haga eso ni mucho menos!) por lo que la nueva teoría conciliadora de estos 2 grandes pújiles ha de consistir en una reformulación de la Relatividad en total ausencia de diferenciales en la métrica, sustituyéndolos por elementos finitos de dimensiones las de Planck (en espacio y en tiempo) y cuyas propiedades individuales sean las que se observan en las experiencias cuánticas. De entre todas las formas posibles de interacción entre estos elementos finitos habrá de escogerse aquella en la que las propiedades agregadas del sistema de multitud de ellos (el comportamiento físico estadístico del conjunto) se acomode a lo descrito por la Relatividad actual.

Yo carezco de la capacidad matemática suficiente para llevar a cabo semejante tarea, pero espero que alguien algún día la emprenda tras leer estas humildes líneas.