lunes, 21 de marzo de 2011

Planteo cosmogónico.


---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

¿Paradoja creacionista o astrofísica?

Cristiane, Cristino (kiosquero) y otros tantos:
Propuesta – explicación – simple pero no sencilla – grado de complejidad del modelo: infinita –: según él, Dios creo al universo y nadie creo a Dios. Dios siempre existió.

Sidney Coleman (físico teórico) y otros tantos:
Propuesta – explicación – ni simple ni sencilla – grado de complejidad del modelo: no infinito –: según él, durante una eternidad - pasado infinito –, existió algo denominado falso vacío. Mismo que, entre sus características indispensables contaba con: energía superior a la de nuestro actual universo, gravedad repulsiva y cierto grado de inestabilidad cuántica – aun siendo un proceso cíclico, debería haber transcurrido una primera infinidad de tiempo, en consecuencia: muy inestable no ha de haber sido –. Falso vacío, que llevado a cierto punto colapsa¿acaso debido a la inestabilidad psicológica de su/s creador/es? – transformando su espacio y energía en nuestro espacio-tiempovacío verdadero – y nuestra energía (espero que de forma instantánea, ahorrándonos así, otro modelo explicativo de ese estadio dinámico). Si en algo, el anterior proceso no les resulta convincente, tan solo debéis apelar al proceso fisicalista tendiente a alcanzar un estado de entendimiento instantónico, y todos esos interrogantes serán resueltos. Siendo, su posterior evolución descripta por la TBB.

De la nada, es obvio que algo surge: (¿afirmación que torna del ámbito científico a específicas características de la nada?)
No se preocupen, claro que de la nada, algo surge. Esto es perfectamente lógico – incluso evidente para algunos físicos teóricos trasnochados –, y para explicarlo convincentemente solo debemos aceptar unas pocas premisas, que en grado alguno son contradictorias entre sí. Ahí vamos: según parece, si tienes un universo cerradosi el espacio-tiempo se cierra sobre sí mismo –, entonces, es un hecho matemático¿cargándonos las observaciones de (Ω)? Que va, si estamos en el ámbito matemático. Menos mal, que si no, ¿dónde encuentro a tal omnisciente mensurador?que la energía total del universo resulta ser exactamente ceromenos mal que es un hecho matemático, que si no, pavada de manejo de datos experimentales, ¿no? –. Para tal proeza matemática, se toma el total de energía-momento (materia bariónica, materia bosónica, materia oscura y energía oscura) como positivo y a la gravedad cósmica (potencial gravitacional) como negativo (tensor de energía-momento « tensor de curvatura ® ( Energía-Momento: (8pG/c4)Tmn = Curvatura.E-T: Rmn-1/2Rgmn+Lgmn )) {¿sin por ello, dejar de ser parte de la nada?} [N] – y operado mediante la sustracción aritmética, resulta el valor numérico cero {¿acaso no resulta obvio, y en ello una perogrullada, que la nada resulta ser idéntica a la específica cantidad (propiamente numérica): cero? Y bue…} –. Y claro, no olvidemos comulgar con que: en mecánica cuántica, todo lo que no esté prohibido por leyes de conservación de energía, tiene alguna probabilidad de suceder.
Bien, al parecer ya contamos con todo lo necesario. Según estos supuestos, nada impide que el universo se crease espontáneamente a si mismo de la nada – si en algo, el anterior proceso no les resulta convincente, tan solo debéis apelar al proceso fisicalista tendiente a alcanzar un estado de entendimiento instantónico, y todos esos interrogantes serán resueltos –. Podrán criticar el anterior modelo, pero jamás se podrá argumentar que no es convincente, ¿verdad?
Nota: Vilenkin (cosmólogo), tomo como condición inicial una métrica espacial inexistente, denominándola: nada – o sea, un estado físico sin correspondencia en relatividad general –. Ahora, me pregunto si: ¿la nada, resulta idéntica, a un estado físico sin correspondencia en relatividad general?
Según Vilenkin, el universo fue creado mediante un efecto de tunelamiento cuántico de la nada, en un espacio de De Sitter. Una función de onda – forma de representar el estado físico de un sistema de partículas –, considerada como la función de onda del universo {¿será la nada lo que ondula?}, incide en una barrera de potencial {¿será una probabilidad incidente?}, siendo que al lograr atravesarla – tunelizarseemerge nuestro universo. En síntesis, nuestro universo fue creado de la nada – si en algo, el anterior proceso no les resulta convincente, tan solo debéis apelar al proceso fisicalista tendiente a alcanzar un estado de entendimiento instantónico, y todos esos interrogantes serán resueltos –. Sugiriendo esto, que las leyes y constantes físicas de nuestro universo, son las mismas, tanto ahora, como en el preciso instante de su creación – vía tunelación cuántica {¿otro componente de la nada?} – de la nada.
Nota: Por si acaso. Si la materia (CE+: carga eléctrica positiva), interactúa físicamente con la antimateria (CE-: carga eléctrica negativa), suele dar como resultado: fotones (CE0: carga eléctrica neutra). Incluso, si nos remitimos a la creación de pares partícula-antipartícula virtuales – termino que, no debe entenderse en su acepción de carente de realidad, sino como, de duración efímera (inmensurables) –, la energía empleada en tal interacción física, se toma de una previa aniquilación de pares y será reutilizada en una posterior creación de paresmientras estas reacciones sean sostenibles –. De ahí que, éste tipo de interacciones físicas, tomado como, un ejemplo de una nada creadora – similar a la creación de pares de partícula-antipartícula debido a fluctuaciones del vacío cuántico (tomado como: la nada) –, deviene siendo otra desafortunada confusión – ¿en forma alguna elucubración? –, de algunos físicos trasnochados.

[N]: ¿Energía negativa?: calma. Calma. Pronto verán, que incluso les resultara evidente. A ver. Según parece, al aproximarse dos cuerpos masivos, en un campo gravitatorio, la energía cinética del sistema físico, se incrementa. Consecuentemente. La energía del campo gravitatorio del sistema físico, se incrementa en igual proporción. Ante lo cual, ciertos físicos trasnochados – los otrora no, pero ahora sí, verdaderos conocedores de las Leyes de conservación físicas (modernos descubridores de la simetría verdadera y apologistas de la identidad entre energía negativa y la nada) –, propusieron:
Siendo la energía, aquello con capacidad de realizar un trabajo. Los aquí presentes, convenimos en opinar – al menos hasta obtener el nobel de física –, a pesar de que nuestros fans probablemente lo elevasen mucho antes, al grado de afirmación científica, que: desde este momento, dicha capacidad de realizar un trabajo, deberá ser aceptada como estando dividida en dos tipos/clases. A saber: una positiva, que solo realiza “trabajo positivo” y otra negativa que solo realiza “trabajo negativo” – no impidiendo, eso sí, futuros replanteos trasnochadamente convenientes –. Siendo, ejemplos de “trabajo positivo”: la energía, resultante de toda interacción Fermiónica, Bosónica y Oscuritas, a excepción arbitraria {para mí, que se les colaron algunas más}, de la gravitatoria. Misma que, nuevamente en forma arbitraria, será el único ejemplo de “trabajo negativo” – ¿a pesar de realizar un trabajo (físico) o de poseer ese potencial?; me da que, lo de negativo, resulta incongruente, pero bueno, es la fe del teórico trasnochado, contra eso, no se puede – ( pormenorización al respecto ). Si al menos, se mostraran así de explícitamente provisionales al comunicarlo, ¿verdad?
Nota: a pesar de que, la energía negativa de una partícula libre, carece de significación en mecánica clásica. No resulta así, en mecánica cuántica. Modelo, en el cual, son posibles las transiciones discontinuas desde un estado con energía positiva a otro con energía negativa. En principio, debido a que: las funciones de onda de los estados con energía positiva, no constituyen un sistema completo de funciones – en consecuencia: lo de negativo, remite tan solo, a una limitación de modelo –. Ahora bien. Una partícula con energía negativa, poseería características esencialmente diferentes al resto de partículas observadas. Por ej.: podría pasar de un estado de energía negativa (-|E1|) a otro de menor energía negativa (-|E2|), siendo (|E2|)>(|E1|); cuya diferencia se transformaría en una fuente inagotable de energía útil – violando el primer principio en termodinámica y consecuentemente la ley de conservación de la energía –. Con la intención, de evitar algunas de estas dificultades en el modelo estándar de física de partículas, Dirac, introdujo el concepto de vacío como: aquel estado del espacio en el que todos los estados con energía negativa estén ocupados por electrones, mientras que todos los estados con energía positiva están libres. En cada estado con energía negativa, según el principio de exclusión de Pauli, se encuentra un electrón.
§   Fuente: Mecánica cuántica, Volumen 3, Benjamin G. Levich
PD: el hacer, tan explícito el relato, conlleva la intención de aumentar la probabilidad de hacer presente lo absurdo de la propuesta. 

Paradoja: la nada, parece ser algo y además inestable (¿afirmación que torna del ámbito científico a específicas características de la nada?)
Como podrán suponer, existe respuesta para cualquier pregunta. Ahora bien, que sea coherente para quien la valora, es otra cosa. Una posible respuesta seria: la nada, es solo un constructo mental autoinconsistente. Que si además, lo comparamos con la eficiencia predictiva de los modelos físicos, podría llevarnos a concluir que tal constructo mental resulta prescindible – muerto el perro, se acabó su rabia –. O también, podríamos asumir que, nuestra nada-científica puede interpretarse como nada y alguna otra cosa diferente de nada, sin por ello dejar de ser nada. En cuyo caso, tendríamos una nada-mental – alternativa escasamente apreciada en el modelo científico y prescindible bajo el anterior análisis – y una nada-científica – en caso alguno, una alternativa de lucro potencial de algún físico teórico trasnochado –.
Bien, me resulta interesante, que en el afán de resolver problemas – en particular los paradójicos –, se suele apelar a un replanteo del mismo. Redefiniéndolo y esperando que ese nuevo enfoque – en ocasiones, apelando a un replanteo improcedente (como considero que suele ser el caso de los paradójicos) – lo resuelva, o al menos, se declare – en cierto ámbito académico – como un avance significativo en pos de su solución.
Volviendo a nuestro problema paradójico, si nuestra nada-replanteada creadora, se nos presenta como algo no tan absurdo – bueno, como exprese antes, dependerá de a quién y en qué circunstancias se lo planteen –. Podríamos caracterizar, esa causa incausada – nuestra nada-científica –, como una entidad-constructo físico-matemático denominada: falso vacío – que en dicho modelo, sería una región de espacio de características singulares –, más un instantón Coleman-De Lucciaentidad-constructo físico-matemático de la teoría cuántica de campos –.
Ahora, si bien, este replanteo parece provocar un avance – al menos respecto de un: no lo sé –, bajo cierto criterio, no resulta suficiente, dado que: seguimos partiendo de una región de espacio – misma que al parecer, se resiste a salir de nuestra modelización cosmogónica –. Pero qué tal si, apelamos a un nuevo replanteo, suponiendo que nuestro modelo anterior, caracterizase exclusivamente una entidad-constructo físico-matemático diferente denominada: instantón Hawking-Turok – de la teoría cuántica de campos –. La cual, en un contexto topológico {limitación que sería prudente no mencionar a sus creadores}, no necesita partir de un falso vacío {¿apelando a una absurdidad de grado superior?}. Debido a lo cual, sentenciamos, eso sí, en forma convincente, que: hemos eliminado la necesidad de una región de espacio preexistente {que va, ¿teniendo el concepto de minisuperespacio quien necesita una región de espacio preexistente?} – y ya que estamos, también nos cargamos el estado inicial de materia altamente excitada – {¿el absurdo tendrá límite? No lo sé, pero de seguro no será matemático}.
Nota: este modelo – teoría cosmológica cuántica –, exige aceptar la propuesta de no-fronteras (reglas que nos dicen qué ocurre en las fronteras del universo, los bordes del espacio y el tiempo) – condiciones de contorno vacías (∂A=Φ) –.

Condiciones de contorno: (matemática)
Las condiciones de contornoecuación diferencial –, son los valores restringidos que toma la función para determinados valores particulares de la variable independiente. Por ejemplo, si la ecuación implica a la velocidad, la condición de contorno podría ser la velocidad inicial. Con objeto de tener una solución completa, debe haber una condición de contorno para cada orden de la ecuación – dos condiciones de contorno para una ecuación de segundo orden, una sola solución para una ecuación diferencial de primer orden, etc. –. Si se encuentra una solución de la ecuación diferencial que satisfaga todas las condiciones de contorno, entonces es una ecuación diferencial de solución única – es lo que se denomina como: teorema de la singularidad (se considera un enfoque razonable en la búsqueda de soluciones a las ecuaciones diferenciales en los problemas físicos, utilizar una solución de prueba y tratar de forzarla para que se ajuste a las condiciones de contorno. De tener éxito, se considera de solución única) –.

PD: ¿cuántos de estos tipos de replanteos serán necesarios para declarar improcedente al primero?
Bien, espero haber esbozado correcta y entendiblemente esta singular forma de resolver problemas.

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Teoría de la inflación eterna: (Andrei Linde (1984) – descripción somera –)
Según esta teoría, el espacio del cosmos está compuesto de una enorme cantidad de energía con una distribución uniforme. Dicha energía, provoca que el espacio se expanda a una gran velocidad. De tanto en tanto, surgen regiones donde la concentración de energía¿tendrá límite el abuso que hacen del término energía? – es tal, que origina un nuevo BBexpansión métrica del espacio. En dichas regiones, luego de un periodo de expansión métrica exponencial, la tasa de expansión se reduce significativamente, transformándose en expansión métrica lineal estándar. Evidentemente, esta teoría implica un multiverso {¿término científico para denominar la característica versera de estos físicos teóricos?} – o mejor cosmos –. Este modelo, afirma evitar el problema de la sintonía fina de ciertas constantes físicas. Por ejemplo, si el valor de la energía oscuraconstante cosmológica (L) {aunque actualmente parece estar en aumento (¿cambiamos a parámetro?)} – fuese solo 5 órdenes de magnitud mayor a lo que es – o sea, de 10^-35 a 10^-30 –, las estrellas no se formarían.

Catástrofe del Vacío: en cosmología, el límite superior de densidad de energía del vacío – según los cálculos obtenidos por la Voyager 2 (análisis de los cambios fraccionales en los periodos orbitales promedio de Urano y Neptuno: <10^14 GeV/m^3) –, resulta ser unos 10^107 órdenes de magnitud menor al predicho por la teoría cuántica de campos (tratamiento perturbativo: 10^121 GeV/m^3) – siendo sinónimos en este ámbito: energía de punto cero, energía del vacío y energía oscura (fundamento moderno de la reflotada constante cosmológica) –.
Considerado actualmente – quizás en el futuro también lo refloten –, como el peor error de estimación de la física hasta la fecha.
§  Experimentalmente: <10^14 GeV/m^3.
§  Teóricamente         : 10^121 GeV/m^3.
Nota: actualmente, son consideradas como prueba experimental de la existencia de energía del vacío, los denominados efectos Casimir – aunque, personalmente, no descartaría que dichos efectos sean producidos por contribuciones desconocidas (por ej.: deficiencias experimentales) de otras fuerzas/interacciones físicas –.

Teoría del Big Bang: (TBB) (descripción somera)
Asumido, un estadio inicial universal con una presión, curvatura espacio-temporal, densidad y temperatura (esto último, creaba una paradoja pues: a mayor densidad menos movimiento, presuntamente resuelta, apelando a vibraciones de cuerdas unidimensionales en dimensiones extras ¡y, bue!) inmensa (nunca después acontecida) – incluso, no pocos, lo presumen como un empírico infinito actual –, se presume, un comienzo de expansión métrica – consecuencia modelada por el teorema de singularidad de Hawking – de nuestro universo a partir de lo que Lemaître denomino – átomo primitivo/huevo cósmico –, este modelo, describe sus interacciones físicas posteriores. A grandes rasgos, podríamos dividirlo en tres periodos:
1.    Periodo de la gran unificación: (entre BB hasta aprox. 10^-43s) {interacción única}.
2.    Periodo de comienzo de la ruptura de la Gran Unificación: (entre aprox. 10^-43s hasta aprox. 10^-36s) {Se separan: la interacción gravitacional y la interacción nuclear fuerte}.
3.    Periodo de inflación cósmica: (entre aprox. 10^-36s hasta aprox. 10^-33s) {expansión exponencial del espacio – aunque, en la actualidad, se pretende identificar al BB con este periodo de expansión métrica del espacio –}.
4.    Periodo de expansión lineal estándar (decreciente): (entre aprox. 10^-33s hasta aprox. 2,59^17s – comienzo aprox. de la era de la energía oscura).
4.1. Periodo pos inflación cósmica: (entre aprox. 10^-33s hasta aprox. 10^-12s) {recalentamiento, bariogénesis y leptogénesis}.
4.2. Periodo electrodébil: (entre aprox. 10^-12s hasta aprox. 10^-06s) {Se separan: la interacción electromagnética y la interacción nuclear débil}.
4.3.
5.    Periodo de expansión lineal estándar (creciente): (entre aprox. 2,59^17s hasta aprox. 10^18sla actualidad (4,33^17s) –).
Nota (interesante): durante, el periodo de la bariogénesis (una transición de
fase más, en la evolución de nuestro universo/cosmos) – proceso de formación de bariones (sobrevivientes) –, se presume ([P]), aconteció una aniquilación de pares barion-antibarion, a escala universal/cósmica. Presumiendo, en consecuencia, una asimetría cosmológica entre materia y antimateria – al menos, localmente, observacionalmente hablando –. Misma que, desde la segunda mitad del siglo XX, ha sido comprobada experimentalmente en por ej.: la violación de la conjugación de carga (C) y la violación de la paridad-conjugación de carga (CP) en la desintegración de los kaones – y si bien, es una presunción coherente con lo observado, también sería necesaria una violación del número barionico (B), así como, de los diferentes números leptónicos ((L(x)), por ej.: de sabor (electrón, muon o tau) –. Siendo que. Al menos, hasta donde tengo conocimiento respecto de esta hipótesis científica (asimetría en la bariogenesis), sería suficiente que: hubiese habido, un quark extra (“de materia”) por cada 10^9 pares quark-antiquark, para poder modelar el universo/cosmos (observable) {de ajuste fino, nada, ¿verdad?}.
Posteriormente, cuando la temperatura (energía) del universo/cosmos descendió lo suficiente, como para difícilmente alcanzar la energía de creación y aniquilación de barion-antibarion, se presume, aconteció otra transición de fase: periodo de la leptogénesisproceso de formación de leptones (sobrevivientes) –, donde aconteció la aniquilación de pares leptón-antileptón, a escala universal/cósmica. Siendo que, toda esa energía producto de las aniquilaciones anteriormente descriptas, se presume, como transformada en fotones. Lo que llevo a denominar, al periodo subsecuente, como: la era de la radiación.
Y he ahí, lo interesante de esta nota. Según mi experiencia, no pocos, físicos/divulgadores de ciencia, exponen esta hipótesis científica, haciendo énfasis, en:
§  Sea, en la desaparición de toda la energía producto de las aniquilaciones partícula-antipartícula acontecidas en estos periodos evolutivos – sin al parecer, siquiera percatarse que tal afirmación, implicaría una violación de la ley de la conservación de la energía total {no temporal} –.
§  Sea, en su trasformación en “energía pura – como si eso, no fuese un sinsentido –.
Menos mal, que el resto, hace mención de su transformación en fotonescientíficamente consistente, al menos, con las observaciones actuales –.

[P]: hipótesis científica, derivada de relacionar, el principio de conservación de la carga – a saber: en toda interacción electromagnética, la carga total de un sistema aislado, se conserva – y, la inobservancia de un universo/cosmos constituido exclusivamente por radiación – a saber: la inevitable consecuencia de la creación y aniquilación simétrica de materia y antimateria –. Que propone, la existencia de especificas violaciones de simetrías, como por ej.: (CP), (C), (B) y (L(x)) – aunque actualmente, las dos últimas, son solo mas hipótesis científicas –.

Ahora. Este modelo, no está exento de problemas, como ser:
§  Condiciones iniciales.
§  Problema del horizonte.
§  Problema de la aparente curvatura nula.
§  Constante cosmológica.
§  Asimetría entre materia y antimateria.


Nota: tengo una pega con denominar teoría científica a la TBB, pues, si bien es falsable, desconozco, hasta el momento, que haya sido reproducible. Es decir: si bien, existen pruebas reproducibles – nos es posible reproducir interacciones físicas a cierta energía, densidad, etc. – de algunos de sus estadios de evolución universal. De momento, existen limitaciones experimentales que nos impiden reproducir algunos de ellos.

Inflación cósmica: (Alan Guth (1981) – descripción somera –)
Se denomina así, al conjunto de propuestas físico-teóricas que intentan describir las interacciones físicas entre los aprox. 10^-34s y los aprox. 10^-4s posteriores al BB; con la intención de resolver el denominado: problema del horizonte. Es decir, modela el periodo de expansión métrica exponencial, y cuya hipotética partícula elemental/campo se denomina inflatón.
Según este modelo, el periodo de inflación exponencial duro aprox. 10^-30s. Incrementando el diámetro de nuestro universo desde aprox. unos 10^-35m hasta aprox. 10^-4m o 10^25m (diámetro aproximado actual de nuestra galaxia) – aumentando entre un orden de 10^30 a 10^60 veces (según diferentes ajustes teóricos) –.

Falso vacío: concepto de la teoría cuántica de campos, relacionado con el de vacío cuántico, que alude a una región metaestable en el espacio – aunque estable clásicamente – que parece estar vacía – es decir, desprovista totalmente de materia –, pero que en realidad contiene en su interior alguna forma de energía a nivel de fluctuaciones cuánticas.
Siendo su característica singular, poseer una (pr=p*c^2: presión negativa) donde (pr: es la presión) y (p: la densidad).

Instantón:
En el contexto físico-matemático, se trata de una solución autodual (caso de las ecuaciones de Yang-Mills (F(mn)=±*F^(mn))) – por tanto su tensor energía-momento es idénticamente nulo –, que posee las siguientes cualidades destacables:
§  Buen comportamiento – ausencia de singularidades – en todo S^4 {nota: el instantón Hawking-Turok, no está completamente ausente de singularidades}.
§  Carga topológica – integral de densidad (F(mn)**F^(mn)), en todo S^4 – cuantificada.
Su nombre deriva de que la solución está concentrada en una región de S^4. Se ha asociado este tipo de soluciones a la existencia del efecto túnel entre estados de vacío topológicamente caracterizados en teorías estáticas Yang-Mills  acopladas a un campo Higgs en espacio Minkowski.
Básicamente, es un objeto clásico con una interpretación mecano-cuántica. No se le considera partícula, sino la representación de una transición mecano-cuántica entre dos estados físicos de un sistema físico – manifestación del fenómeno conocido como: efecto túnel –. Uno de los ejemplos más sencillos de un sistema con un efecto instantón, es el de una partícula situada en un potencial de dos pozos.
Síntesis: o sea, estos instantónes, transforman ecuaciones de campo. Más precisamente, transforman ecuaciones de campo del espacio de Minkowski, en ecuaciones de campo del espacio Euclidiano – con una probabilidad finita, aunque infinitesimal –.

Solución instantón:



La idea, es calcular la amplitud de probabilidad de que una partícula se quede en mismo mínimo o cambie de un mínimo a otro. Dado que, la energía que posee la partícula se presupone inferior al máximo del potencial. Esto, solo sucedería por medio del efecto túnel.
La solución instantón, nos indica la transición de una partícula en el potencial de un mínimo a otro. Es decir, nos indica la excitación – a este tipo de excitación se la denomina partícula en teoría de campos, por ej.: una molécula se excita al absorber un fotón – de esa partícula. O sea, cuando cambia de mínimo de potencial, se excita por medio del instantón. Y siendo, que dicha excitación sucede en cierto instante de tiempo, se la denomina: instantón. Además, dado el principio de conservación, deberíamos considerar existente a su anti-partículaanti-instantón (ØI) –, que vendría siendo el instantón que recorre la dirección opuesta. Por último, si el instantón está confinado a tiempos infinitesimales, significa que deben existir soluciones aproximadas de la ecuación estacionaria que involucra pares instantónes-anti-instantónes – físicamente representaría que la partícula (excitación del campo), rebota de un mínimo a otro –.
§   Instantones, por Jonathan van der Henst Solis.

Motivación del empleo de instantónes en el problema cosmogónico:
Aceptada la teoría de la expansión métricas del universo, un tiempo de expansión métrica finito – al menos del presente ciclo de expansión métrica – y el teorema de singularidad de Hawking, en base a observaciones científicas. Se deduce que: en los instantes iniciales de su expansión métrica la mecánica cuántica, debió ser dominante – y en consecuencia, la ecuación de onda de Schrödinger –. Asumida tales suposiciones, se buscó lo que luego se denominó: función de onda del universo. Que sumado, a que, en relatividad general, el campo gravitatorio se describe como deformaciones del espacio-tiempo – específicamente, como una modificación de la métrica –. Es decir, un campo gravitatorio evoluciona de una configuración a otra. En cosmología, es común restringirse a métricas que correspondan a espacios homogéneos e isótropos – ej.: métrica de De Sitter –. A ese espacio de configuraciones de la relatividad general, se le denomina: minisuperespacio (mSE).
Aplicada la mecánica Hamiltoniana en el espacio-tiempo de la relatividad general, obtenemos la ecuación Wheeler-De Witt (H½ψñ=0) – específicamente una constricción de Hamilton –. Donde, el estado Hartle-Hawking – propuesto como función de onda del universo (en nada, una magnitud física, ¿verdad?) –, es una solución válida de dicha ecuación.
Entonces. Asumida, una expansión métrica exponencial de nuestro universo en sus primeros estadios – inflación cósmica –, podríamos considerar la métrica de De Sitter como un modelo descriptivo de dicha fase – obviamente, dado que una métrica de De Sitter, posee una integral de caminos de Feynman convergente (por estar constituida en S^4) pero no posee singularidad inicial; por sí sola, no podría dar cuenta de las observaciones –.
Consecuentemente, en cosmología cuántica canónica – aunque no exclusivamente en ella –, la interacción entre los conceptos de minisuperespacio y efecto de tunelamiento cuántico, constituyen un modelo descriptivo valido de la emergencia y posterior evolución universal. Dicho universo, poseería una singularidad inicial para (t=0) y comportamiento tipo De Sitter para (0<t<10^-4s) – comportamiento invalido en relatividad general, por no ser una solución exacta de las ecuaciones de campo de Einstein –.
En cosmología cuántica canónica – al igual que en mecánica cuántica –, se emplea la herramienta matemática integral de caminos de Feynman, para calcular la probabilidad de transición entre dos específicas configuraciones espacialessumando las probabilidades respecto de todas las geometrías espacio-temporales intermedias posibles –. Aunque, en la práctica se utiliza una aproximación semi-clásica, se asume que, la mayor parte de las geometrías 4-dimensionales dadas en esta integral de caminos de Feynman contribuyes escasamente a dicha integral; debido a lo cual, son ignoradas. Dejando así, un pequeño grupo de geometrías 4-dimensionales de contribución significativa – las denominadas: instantónes –.
§  Instantón Coleman-De Luccia: (I.C-DK)
Según este modelo, la transferencia cuántica de la energía en el universo primigenio, procedió vía la formación de núcleos de burbujas nucleación (analogía del comienzo de un cambio de estado) – alojadas en un falso vacío, cuya energía en descomposición se transcurrió hacia el vacío verdadero. En este modelo, sorprendentemente se puede llegar a consignar que el interior de cada burbuja corresponde a un universo abierto y potencialmente infinito, en el cual puede darse una inflación cósmica.
Nota: esta propuesta, consiste en la integral de caminos de Feynman, que resulta de la suma de una geometría tetradimensional, con una inicial y otra final tridimensionales.


§  Instantón Hawking-Turok: (I.H-T)
Según este modelo – propuesto por Hawking-Turok –, el instantón hace emerger un universo abierto potencialmente infinito – semejante al propuesto por Coleman y De Luccia –, pero sin el requisito de un falso vacío ni de un estado de excitación para la materia inicial.


La desventaja de esta propuesta radica en que estos instantónes tienen singularidades espacio-temporales en aquellos lugares en donde la curvatura del universo se hace infinita – singularidades, en donde dejan de funcionar las leyes de la física conocidas –.
Nota: esta propuesta, consiste en eliminar las geometrías tridimensionales de la integral de caminos de Feynman, y sólo emplear una geometría tetradimensional, que al final se empareja con las geometrías tridimensionales – inferido por mí de lo que creí entender del estado Hartle-Hawking –.

§  Función de onda de Vilekin: (función de onda del universo)
Supongamos que el universo comienza en el estado simétrico de vacío – que por alguna razón, resulta no ser una magnitud física para Vilenkin –, y es descrito, por una métrica cerrada de Robertson-Walker: (ds^2=dt-a^2(t)[ dr^2/(1-r^2)+r^2dΩ^2]). Asumido (=da/dt), la solución de la ecuación evolución: (ἁ^2+1=8/3pGrna^2), resulta ser un espacio de De Sitter: (a(t)=H^-1cosh(Ht)) donde (H=(8pGrn/3)^1/2) y (a(t) su factor de escala). Dicha configuración, describe un universo que se contrae en (t<0), alcanzando en (t=0) su diámetro mínimo (a(min)=H^-1), y se expande para (t>0) – comportamiento análogo al de una partícula rebotando frente a una barrera potencial en (a=H^-1) –. Asumido el efecto de tunelamiento cuántico – en la modelación del surgimiento de nuestro universo –, éste ha surgido {y bue…} con un diámetro finito (a=H^-1) y velocidad (=0). La versión euclidiana de la ecuación evolución es: (-ἁ^2+1=H^2a^2), y su solución instantónica: (a(t)=H^-1*cos(H*t)), describe una 4-esfera S^4 – dicha solución está definida solo para valores de (abs(t)<p/(2H)) –.
Síntesis: el instantón: (a(t)=H^-1*cos(H*t)), puede interpretarse como la descripción del efecto de tunelamiento cuántico (surgimiento de nuestro universo), en un espacio de De Sitter: (a(t)=H^-1cosh(H*t)) de la nada – de acuerdo a este especifico instantón – {Y bue++…}.
Así que ya saben, cuando alguien les pregunte: ¿cómo de la nada – que en este contexto, incluso podríamos llegar a reducirla a: algo incapaz de hacer surgir el cosmos, surgió algo – específicamente: el cosmos?, tan solo deben mostrarles ese último par de ecuaciones – que ni tan siquiera, representan un comportamiento de la nada –, y señalándolas, acotar enfáticamente: [así]. Acto seguido, en una, al menos para mí, desconocida y específica coordenada espacio-temporal – lógicamente inexistente – de la nada (minisuperespacial/superespacial/trasnochada: alias paradójica y, posiblemente producto de confundir específicas limitaciones experimentales {actualmente remitidas a las leyes y constantes físicas conocidas} respecto de específicas fluctuaciones cuánticas, con un ejemplo {suceso físico} de creación ex-nihilo) POP”, un cosmos, como el nuestro comienza a existir – sí, lo sé. Ese sonido, viene siendo un específico quale. Sepan disculpar, ¿quizás me deje llevar por “el modelo”? –. Imponente capacidad causal (ontológica), la de esas ecuaciones, ¿verdad?

Figura anterior: en dicho modelo, el espacio-tiempo, es representado en forma de cono de punta redondeada – punta hacia abajo –. La diferencia entre el espacioeje horizontal del cono – y el tiempoeje vertical del cono –, disminuye conforme nos acercamos al BB. En cuya coordenada temporo-espacial – específicamente dentro de la región instantón –, el tiempo adquiere las propiedades del espacio – transformando la coordenada temporal (-t) en la espacial (+ict), mediante la herramienta matemática denominada: continuación analítica o rotación de Wick –.

Entonces, ¿la función de onda del universo (x), explica, sin lugar a dudas, el surgimiento de nuestro – estadísticamente, no tan afortunado – universo desde la nada?
§  Quizás deberíamos tomar en consideración que: toda función de onda del universo, que afortunadamente logremos inventar – disculpen, esto es física, debería haber escrito: descubrir –, incluso aquellas que resultasen ser distintas a cero – cantidad que pretende representar, la probabilidad de existencia de una específica métrica –, vendrían siendo invenciones (más precisamente: modelos) – nuevamente perdón: descubrimientos –, exclusivamente restringidos a nuestra experiencia (empírea). Es decir, respecto de que consideramos como: lo existente (lo físico Ì lo percibible) – no sea que, por entreabrirle una puerta a alguna trascendencia físico-matemática, se termine colando alguna deidad, ¿verdad? –.
En síntesis: de la nada – al menos de momento –, no poseo experiencias – obviamente físicas –, que me permitan pretender modelizar un estadísticamente probable y en forma alguna paradójico, traspaso – a falta de un mejor termino {qué tal: ¿tunelación nadica?} – de lo inexistente/lo no-algo (Que inmersos en un boceto minimalista, vendría siendo: aquello, absolutamente carente de características {afirmación paradójica por encontrarnos en el ámbito de lo relativo}; que de alguna no-paradójica forma, posee la características de no necesitar explicación causal, así como, la de no necesitar lidiar con el consecuente problema de un pasado infinito, la de existir metafísicamente (trascendental) y la de crear – a pesar de no poseer, en sí misma, dicha característica –: lo físico), a lo existenteel cosmos –. Estadios paradójicos los de estos físicos teóricos trasnochados, ¿no creen?
§  Nota: la interpretación de los universos múltiplesmecánica cuántica –, de momento, es tan solo una hipótesis física – es decir: no-comprobada empíricamente –. En consecuencia: no debería emplearse como argumento científicoconocimiento científico –, y como tal, capaz de refutar argumentos no-cientificos.
§ 

Cambios significativos en nuestro cosmos – modelo instantónico –:
Dado que, en la presente esquematización, considero que la nada no puede dejar de serlo, ni algo puede convertirse en nada; es que, modelo cronológicamente un intervalo temporal: (-¥«+¥) – obviamente me estoy cargando el problema de un pasado infinito –.
ü  (FV+CI+LyC)[x, -¥®0]«LyC({I.C-DL/ØI.C-DL})[0]«(VV+LyC)[x, 0®+¥].
ü  (mSE+CI+LyC({I.H-T/ØI.H-T}))[x, 0] « (VV+LyC)[x, 0®+¥].
ü 
§   http://tesis.ipn.mx/bitstream/handle/123456789/8296/CUANCAN.pdf?sequence=1
§   http://arxiv.org/abs/hep-th/0505104

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Horizontes cosmológicos: (descripción somera de algunos)
Se deducen, de las observaciones astrofísicas la existencia de un corrimiento en el espectro electromagnético – característico de los elementos componentes de ciertos objetos astronómicos (candelas estándar) –. Dicho corrimiento, puede ser hacia el (rojo: recesión) o hacia el (azul: contracción), respecto de la distancia entre dos objetos astronómicos – esta diferencia puede modelarse como una velocidad de recesión o contracción entre objetos astronómicos –.
Debido a la ecuación (V=D*H(0)), deducida principalmente de otra (1+z=longitud de onda (observada)/longitud de onda (emitida) – basada en observaciones astrofísicas –). Se acepta – actualmente –, como significativo que la constante de Hubble tendría un valor entre (H=(60-80)km/s/Mpc). Un valor más preciso – devenido del análisis de fondo de microondas cósmico – seria: 71 (+/-4)km/s/Mpc. Otros cálculos arrojan magnitudes menores: alrededor de 61 km/s/Mpc.
A partir, de esta constante, podemos incluso deducir la edad aproximada del universo observable. Tomando, ese H(0) actual y dado que (V=D*H(0)®H(0)=V/D), o sea, (1/H=D/V=T) tendríamos que: el tiempo universo observable=1/H=1/71km/s/Mpc=13.7*10^9 (+/- 700*10^6) años {!bueno, a mí no me dio!}.
Si bien, ese sería el horizonte observable, existen otros – al menos en teoría –, entre los cuales está el horizonte de Hubble (HH), determinado por (V=D*H(0)®D=V/H(0)). O sea, a partir de (3*10^5/H(0)=4615 Mpc), los objetos estarían alejándose a la velocidad de la luz respecto de nosotros. Por lo tanto, cabría esperar que, la luz nunca lograra llegar hasta nosotros – lo cual, no resulta ser necesariamente el caso (1) –. Según se piensa actualmente, está constante de Hubble, no es tal a distancias superiores a los 4615Mpc. Además, si bien, en un contexto clásico (V=c*z), lo cual nos daría un (V) superior a (c), en un contexto de relatividad especial (V=c*(1-1/(1+z)^2)^1/2), lo cual nos daría un (V) inferior a (c). También, debemos tener en cuenta que: no se trata de la velocidad de un objeto astronómicovelocidad peculiar –, sino de un cambio en la geometría del espacio-tiempoexpansión métrica del espacio –.
§  (1): ¿Podremos observar galaxias cuya velocidad de recesión sea superior a (c)? Una vez en ese estadio, los fotones emitidos por dicha galaxia no deberían alcanzarnos. Aunque, podrían hacerlo – dependiendo de la relación entre la velocidad de expansión métrica del espacio y su distancia al horizonte de Hubble (tomado desde fuera de éste), donde: si ("t: H≤H(0)), entonces: terminaría por alcanzarnos –. ¿Pero cómo? Bien, esto es debido a que, el horizonte de Hubble (linealmente: dH~(c/H(0)) y esféricamente: HH~(c/H(0))^3, por lo tanto: HH(0), es directamente proporcional a H(0)), permanecería constante (H=H(0)) o incluso se expandiría (H<H(0)) – obviamente, en dirección a dichos fotones –. Ahora que, si se dice que ("t: H>H(0)), entonces podrían existir objetos astronómicos inobservables – más allá del horizonte observable –. Debido a que, su luz jamás nos alcanzaría. Este tipo de cálculos, se realiza en un sistema de referencia comovil. Donde, el sistema de referencia, se mueve junto con una partícula y, por lo tanto, respecto a un sistema de referencia comóvil, una partícula siempre está en reposo.
§  Futuro de la cosmología: de continuar, la expansión métrica del espacio acelerada, en un futuro extremadamente lejano, habitantes de nuestra galaxia (o de cualquiera, según el principio cosmológico), solo podrán observar, al menos a simple vista y con instrumentos actuales, las galaxias del grupo local – puesto que, en estas, es dominante la mutua atracción gravitatoria, por sobre la expansión métrica del espacio (probablemente, éstas, terminen por combinarse en una especie de super-galaxia y finalmente en un super-AN) –. Según los cálculos actuales, en aproximadamente 150^6 años, todas las galaxias situadas fuera del grupo local, se encontrarán a la distancia donde su velocidad de recesión estará próxima a (c). Consecuentemente, sus longitudes de ondas EM, sufrirán un desplazamiento al rojo, en un factor aproximado de 5000. Y, en aproximadamente 2^9 años, su desplazamiento al rojo será tal, que: dejaran de ser observables, al menos, por instrumentos actuales.
§  El parámetro de Hubble, mide la velocidad de expansión o contracción del espacio, en comparación con la escala del universo: (H= /a; para =a/t).
§  El tiempo de Hubble, representa la edad del universo, si se hubiese expandido desde el BB a la velocidad actual de expansión del espacio.
§  La longitud e Hubble (dH), representa la distancia que ha logrado viajar la luz en un tiempo de Hubble.
§  El volumen de Hubble (HH), representa región del universo que rodea a un observador (según el principio cosmológico), más allá de la cual, los objetos astronómicos, se alejan a mayor velocidad (aparente) que (c).
§ 
Nota: ¿Por qué razón, no decreció la energía total del cosmos mejor no violemos la ley de conservación de la energía total de un sistema cerrado, ¿sí? –, dada la explicación física del fondo de microondas cósmicoexpansión métrica del espacio –? A mi entender actual, la energía total del cosmos debería decrecer – y no solo respecto de su disponibilidad –, puesto que, según la explicación física que creo conocer: la energía de los fotones primigenios decreció a consecuencia de la – al menos en promedio – constante expansión métrica del espacio.
Aunque, probablemente, este planteo provoque cierta adaptación de las leyes y teorías físicas que explican el vacío explicativo propuesto en mi planteo por parte de ciertos físicos trasnochados, con argumentos como: la energía perdida por el fotón, es absorbida por el vacío cuántico – aunque no se tenga, al momento de mi planteo, un desarrollo matemático conforme a dicha explicación, menos aún, su confirmación experimental –. Ésa, fosa insondable, donde ciertos físicos trasnochados parecen arrojar todo cuanto les resulta problemático – en forma alguna, una actitud similar, a la parodiada por ciertos ateos, respecto de la adaptación que ciertos teístas/deístas parecen manifestar a consecuencia de específicos avances científicos: el Dios de los huecos –.
Siendo, el modelo explicativo de esos fotones emancipados: hasta aprox. 380000 años desde el BB, la totalidad del universo/cosmos plasma primigenio {principalmente compuesto por electrones, fotones y bariones (protones y neutrones)} –, resultase ser opaco al electromagnetismofotones (incapaces de resistir interactuar con partículas con carga eléctrica) – {nota: los neutrinos, serian una excepción (aprox. 1s después del BB)}, por estar estos interactuando constantemente con el plasma de esa época del universo – estado debido a la densidad y temperatura de la época –, no pudiendo avanzar largas distancias en una dirección. Pasado ese tiempo, la densidad y temperatura descendieron lo suficiente – expansión métrica del espacio –, como para que los átomos se formasen – volviendo suficientemente neutro al universo, y permitiendo que los fotones pudiesen avanzar largas distancias en una dirección –. Fotones que, alargada su longitud de onda EM debido a la expansión métrica del espacio acumulada hasta nuestros días, observamos y denominamos fondo de microondas cósmico – diámetro aprox. del universo: en esa época (DER (época de la recombinación): 0,033Mpc » 107631,6al) y en la actualidad (28513,93Mpc » 9,3*10^10al) –.

¿Inconsistencia en el modelo Lambda-CDM (DER y FMC)?:
Bien. !!Si, los diámetros anteriores fuesen correctos¡¡ Ya que, una variación de este modelo cosmológico, establece un diámetro pos-inflacionario aprox. de (DpI’: 1,90*10^-10MPc » 0,62*10^-3al, diámetro actual aprox. del sistema Solar), en lugar de (DpI: 0,031MPc » 101108,48al, radio actual aprox. de la Vía láctea), éste último, presupuesto en mi análisis posterior; y en cuyo caso, dicho análisis, resultaría invalido. Aunque, no siéndolo, necesariamente por partir de (DpI’) en lugar de (DpI), puesto que, se podría resolver apelando a una desaceleración de la expansión métrica del espacio menos abrupta o, aumentando proporcionalmente la edad del universo, etc. – obviamente, siempre y cuando, sean variaciones afines al modelo y en concordancia con el infinitesimal grado de anisotropías actualmente observado –. Deberíamos concluir, que. El anterior modelo explicativo, resulta consistente, al menos hasta cierto punto, debido a que: el diámetro del universo/cosmos observable en la (DER), la constancia de (c) y una velocidad de expansión métrica del espacio promedio (pos-inflación cósmica) aprox. de (2,08*10^-6Mpc/a=(28513,93Mpc-0,033Mpc)/(13,72*10^9a-380000a)»6,78al/a), nos remiten a: una expansión métrica del espacio promedio (pI) de aprox. (1,08*10^-6Mpc/a»5,78al/a), sobre la capacidad de recorrido de cada fotón pos-edad oscura – representación: cono de luz (RE) futura[U]. En consecuencia: actualmente, deja fuera del alcance de cada fotón pos-edad oscura, una esfera de diámetro promedio aprox. de (14817,19Mpc»51,96% del universo/cosmos observable), esfera que, irá en aumento – al menos, mientras continúe dándose una expansión métrica del espacio promedio por sobre (c) –.
Bien. Lo de hasta cierto punto, viene a colación de ([U]) y a que: necesariamente – debido al modelo –, o deberían existir fotones emancipados’ de nuestro universo/cosmos – lo de observable, aquí, no viene al caso – o deberían existir fotones “rebotados” en algún paradójico no-borde del universo/cosmos.
Nota: siendo que, de (DpI) podemos descubrir un (%DpI(x)-DER: porcentaje de expansión métrica (DpI-DER)) aproximado del 6,45%, respecto de (DER (0,033MPc)-DpI (0,031MPc)=D(0,002MPc » 6523,13al)). Mientras que, si tomamos ese porcentaje de expansión métrica (DpI-DER) y lo aplicamos directamente a (DpI’) – relación que, no necesariamente debería respetarse –, obtenemos un nuevo (D(0,40*10^-4al) ® (DER=2,02*10^-10MPc » 0,66*10^-3al)). Y, en consecuencia, cambios necesarios en el modelo.
Nota: también existe, lo que he denominado como: el problema de la moda científica. En donde, suele ser mucho más fácil sostener un modelo ad-hoc (modificado para dar cuenta de sus nuevas inconsistencias observacionales/teóricas), que reevaluarlo profundamente – al menos, hasta que cierta masa crítica de especialistas científicos sea alcanzada – ante el descubrimiento de inconsistencias observacionales/teóricas. Por citar posibles ejemplos: desestimando – a mi entender actual, en forma insuficientemente justificada (o por mi conocida) –, errores residuales en los instrumentos del WMAP/Planckactualmente no detectados –, fuentes contaminantes de microondasactualmente no detectadas (por ej.: algo mucho más significativo que los resultados de la colaboración BICEP2, KECK y PLANCK (14/04/2015): imprecisión, respecto de la contribución del polvo intergaláctico en los modos de polarización (ondas gravitacionales primordiales) presentes en el fondo de microondas) – en las vecindades de nuestro sistema solar o extra galácticas, así como, otras interpretaciones para los mismos datos observacionales (por ej.: alguna variante de la luz cansada) – actualmente desestimadas –.
Ahora. Una consecuencia inevitable, del modelo anterior, es la necesaria existencia de espacio inobservable – es decir: por fuera de HH –. Necesidad ésta que, lógicamente hablando – lógicas no para-consistentes –, no incrementa la probabilidad de que el universo/cosmos sea infinito – un infinito actual –.
Dato: el modelo Lambda-CDM, representa el actual paradigma cosmológico (modelo) – restringido exclusivamente a la evolución del universo –, cuyos principales constituyentes son: TBB, Lambda (L) – (W(L)»0,70: constante cosmológica) relacionada con la energía oscura –, RG, cuasi invariancia de escala, planitud espacial y Materia oscura fría – materia oscura (no-bariónica) infra-lumínica –.
[U]: obviamente, que no se encuentre lo suficientemente cerca de algún paradójico no-borde universal/cósmico – puesto que, actualmente se modela como: carente de fronteras –. Ironía extensible, a modelos con pretendida dimensionaldad cerrada (en sí misma); donde, la pretendida solución a la paradoja, consiste exclusivamente, en aumentar el número de dimensiones del modelo, sin siquiera preguntarse, sí ello, tan solo extiende dicha paradoja a esa/s dimensión/es extra/s: (una especie de razonamiento del homúnculo).

 Luz cansada (interacción radiación-materia):
El efecto de disminución de la longitud de onda debido a la interacción radiación-materia esta estadísticamente comprobado e inevitable cuando la radiación se propaga por un espacio con partículas distribuidas, provocando la dispersión de los fotones que interactúan con ellas. Estos fotones pierden energía, modificando su trayectoria en general; por lo cual se cree actualmente, que no integran el haz que llega al instrumento de medición. Aunque al respecto, recientemente se han publicado varios trabajos sobre: absorción y emisión en medios gaseosos de radiaciones, sin cambio de dirección de la radiación incidente. Por lo que este tipo de interacción debería ser tenido en cuenta, como una posible componente del corrimiento al rojo del espectro característico de objetos estelares.

Breve relato cuantitativo de un crecimiento:
§  al = 9,4*10^15m.
§  pc = 3,26al = 3,1*10^16m.
§  Mpc = 3,1*10^22m.
§  H(0) = 70 (km/s)/Mpc, (+2,4/-3,2) = 7*10^4 (m/s)/Mpc {2013.Según Planck Surveyor: 67,80 ±0,77 (km/s)/Mpc}.
§  Vía láctea. [radio: actual] = 100000al = 9,4*10^20m = 0,03Mpc.
§  Periodo de recombinación = aprox. 380000 años desde el BB, y límite del fondo de microondas cósmico (FMC).
§  Segundos por año = 365*24*3600 = 31536000s = 3,1536*10^7s.
§  Universo. [tiempo: pre-inflacionario] = 10^-34s.
§  Universo. [diámetro: pre-inflacionario] = 10^-30m; fin del intervalo para lograr la uniformidad.
§  Universo. [tiempo: pos-inflacionario] = 10^-4s.
§  Universo. [diámetro: pos-inflacionario] = entre (10^-4m=3,24*10^-26Mpc y 10^25m=3240,78Mpc), arriesgándome diría que: 10^5m=3,24*10^-17Mpc.
§  Universo. [tiempo: inicio periodo de recombinación] = 12,6*10^12s.
§  Universo. [diámetro: inicio periodo de recombinación] = 10^21m = 0,033Mpc.
§  Universo. [tiempo: actualidad observable] = 13,78*10^9 años = 4,36*10^17s.
Universo. [diámetro: actualidad observable] = 93*10^9al = 87,4*10^25m = 28513,93Mpc.
Diferencias respecto de los diámetros:
§  La diferencia entre el diámetro pos-inflacionario y el inicio del periodo de recombinación, es de: entre (10^20 y 10^23); arriesgándome: aprox. 10^21m.
§  La diferencia entre el diámetro al inicio del periodo de recombinación y la actualidad, es de: aprox. 87,4*10^25m.
Intentando verificar algunas cantidades: (claro que para hacerlo debo saber, ¿cómo diablos se calcula la expansión métrica para un tiempo(x)?)
Bueno, asumiendo en el más simple de los casos que la (H) sea uniforme y constante desde el BB y descartando la velocidad peculiar de la materia – energía estructurada – en expansión.
§  Espacio(x)/Tiempo(x) = Espacio(x+k)/Tiempo(x+k); siendo (H) constante.
Universo. [tiempo: pos-inflacionario]/Universo. [diámetro: pos-inflacionario] = Universo. [diámetro: inicio periodo de recombinación]/Universo. [tiempo: inicio periodo de recombinación].
10^5m/10^-4s = Universo. [diámetro: inicio periodo de recombinación]/12,6*10^12s.
Universo. [diámetro: inicio periodo de recombinación] = (10^5m/10^-4s)*12,6*10^12s = 1,26*10^23m (diferencia: aprox. 10^23) = 1,26*10^23m.
Esta formulación, resulta completamente dependiente de Universo. [tiempo: pos-inflacionario], que es solo un promedio – no sé cuál es el de la teoría –.

























Datos observacionales:
El objeto astronómico más alejado conocido actualmente es un quásar (PC 1247+3406), situado a 13,2*10^9 años luz (al) = 124,872*10^21km.
Sistema de Medidas:
§  1 año luz = 9,46*10^12km
§  1 pársec = 3,2616 años luz = 3,0857*10^16m= 30,857*10^12km
§  1 Mpc = 30,857*10^12km*10^6 = 30,857*10^18km
Universo. [diámetro]:
93,0*10^9al = 9,46*10^12km * 93,0*10^9al = 879,780*10^21km
Universo. [radio observación]:
13,7*10^9al = 9,46*10^12km * 13,7*10^9al = 129,602*10^21km
Universo. [radio de Hubble]:
Distancia a la que, la velocidad de recesión de una galaxia es igual a la velocidad de la luz: 30,857*10^18km*4615Mpc= 142,405*10^21km.

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Métrica:
La métrica, define cómo se puede medir una distancia entre dos puntos cercanos en el espacio – en términos de las coordenadas de esos puntos –. Un sistema de coordenadas, ubica puntos en un espacio – de cualquier número de dimensiones –, asignando números únicos conocidos como coordenadas a cada punto.
§  La métrica, es una fórmula que convierte las coordenadas de dos puntos en una distancia.
§  Analogía de la FLRW: (específica métrica {universo no-estático})
Siendo (d: la distancia entre dos puntos cualesquiera del universo), dicha distancia puede determinarse mediante: (d^2=(x^2+y^2+z^2)) {vía pitadora, en una geometría plana – para simplificar la analogía –}. Y dado que, nuestra analogía es no-estática, agregamos un término para modelizar dicha variación en las distancias (distancia en función del tiempo): (d^2=a^2(t)*(x^2+y^2+z^2) {(a(t): factor de escala)}). En consecuencia: para (t=0) ® (d=0) {es decir: todos los puntos del universo coexistían en un mismo punto (la distancia, entre cualquier punto del universo, seria exactamente: cero) – la famosa singularidad pos-BB –}. Además, la densidad de materia en función del tiempo: (R(t)=R0/a^3(t); siendo a(t)=R0/R(t) {R0=R(t0), densidad de materia en la actualidad}). En consecuencia: para (a(t)=0 ® R(t), tiende a infinito).
Ergo. De esas correlaciones matemáticas – consistentes con algunas observaciones físicas –, se concluye que: este modelo, nos deposita en una singularidad pos-BB donde una densidad que tiene a infinito (aunque, se la suela mal entender como un infinito concretado) se concentra en un solo punto.
Dato: (a(t)<1 ® pasado), (a(t)=1 ® actualidad {t=t0}) y (a(t)>1 ® futuro). También, resulta ser significativo que: asumido un universo finito, este no puede ser homogéneo, pues debe necesariamente contener contorno – es decir: limitado espacio-dimensionalmente –.
§ 

Factor de escala (cosmológico): a(t)
En cosmología, se denomina así al factor que representa el aumento en la distancia entre dos partículas fijascoordenadas comoviles –, conforme avanza el tiempo. Este factor, es siempre positivo, puesto que resulta de la distancia entre dos puntos.
§  Caracteriza el tensor métrico expresado en dichas coordenadas.

Integral de caminos de Feynman:
 []

Ecuación Wheeler-De Witt:
Ecuación de Schrödinger aplicada al universo entero. Esta ecuación describe una función de onda del universo, que debería satisfacer cualquier teoría cuántica de la gravedad, la cual es en realidad un funcional – función de funciones –, que específica la geometría del universo en cada punto del espacio tridimensional.
[]

Estado Hartle-Hawking: (función de onda Hartle-Hawking)
Hipótesis de la física teórica (cosmología cuántica), respecto del estado del universo/cosmos, previo a la época de Planck.
Supuesta función de onda del universo, calculada mediante una integral de caminos de Feynman en un contexto de tiempo imaginarioplano de coordenadas temporales, donde el tiempo imaginario (números complejos) es ortogonalmente coordenado al tiempo real – y ausencia de bordes – más precisamente, se trata de un hipotético vector en el espacio de Hilbert de una aproximación a la teoría de la gravedad cuántica, que describe esta función onda –.
Según la propuesta, al retorcer, más allá de la época de Planck, el tiempo, se vuelve indistinguible del espacio¡alerta de artificio matemático! –. De la anterior equivalencia matemática, se propone un temerario y paradójico acto de fe: el aceptar que, en esa singularidad conveniente e improcedentemente replanteada – gráficamente achatada y no puntual –, ya no existe el tiempo – incluso, como si fuera algo diferente a una abstracción de 2do nivel (ritmos de cambios entre lo no-abstracto) –. Apelando a fundamentos similares a:
§  “…de acuerdo con la propuesta de Hartle-Hawking, el universo, no tiene un origen como nosotros lo entendemos. Dado que, el universo – pre-propuesta de Hartle-Hawking –, tenia, respecto de su origen, una singularidad tanto en el espacio como en el tiempo pre-Big Bang”.
§  “…la componente imaginaria del tiempo, se hace más y más prominente hasta que, en último término, lo que debería ser la singularidad de la teoría clásica se desvanece. El Universo, existiría porque es una estructura matemática autoconsistente”.
§  “…expresado por medio de números imaginarios, el tiempo, se asemeja al espacio, y de su combinación resulta algo parecido a un espacio-tiempo de cuatro dimensiones espaciales, en lugar del habitual de tres dimensiones espaciales y una temporal.
§  “…si se miden, las direcciones del tiempo, utilizando números complejos, se obtiene una simetría total entre espacio y tiempo, que es, matemáticamente, un concepto muy bello y natural”.
§  “…el modelo Hartle-Hawking, en RG, tiene singularidad en el BB, sin embargo, en MCRmecánica cuántica relativista –, carece de singularidad en el BB”.
§  “…el propio espacio-tiempo, estaría curvado en un universo de cinco dimensiones. Lo que permite evitar las limitaciones teóricas de la RG al modelar singularidades espacio-temporales. Dado que, el tiempo imaginario se comportaría matemáticamentesí, lo de comportamiento matemático, no es aclarado por el autor de la cuasi-cita, ¿a poco lo esperaban? –, como lo hace el espacio. Lo que, nos llevaría a hipotetizar que: el universo simplemente Es. Lo que fue y será en el tiempo real, solo reviste importancia para los seres conscientes que lo habitan y no para explicar su esencia misma.
Y, finalmente. Preguntar: ¿qué había antes del BB – en una superficie (hiperesfera 5D y en ausencia de borde) –?, es lo mismo que preguntarse, ¿qué hay más allá del polo norte – en una superficie (esfera 3D) –? Es decir: una demostración de que: no sabes de lo que se habla – frase casi inevitable, arribados a este estadio de una discrepancia –.
Nota: haciendo a un lado, el que, nunca me han realizado este planteo con tanto detalle – lo que me hace dudar de sí, quien me interpelaba, conocía realmente el modelo, dada la seguridad y sorna con que se conducía –. Dicha pormenorización, me conduce a complejizar mi respuesta. Que, actualmente seria:
Dado que, planteado así, se pretende restringir la respuesta a un específico modelo – propuesta de Hartle-Hawking o al menos, a una teoría (B) del tiempo –, sería coherente responder en consonancia con el planteo. Ahora. Que dicho replanteo improcedente del problema cosmogónico – específicamente: evitar una específica singularidad espacio-temporal, donde la teoría pierde su representatividad (y en ello, su capacidad descriptiva/explicativa), que terminara por depositarnos, en un estadio de comienzo de existencia (dado que, presumir un estadio dinámico o estático infinito en el tiempo, que hace 13720 millones de años colapso/transmuto, nos depositaria irreversiblemente, en el problema de un pasado infinito), donde necesariamente, o se deba apelar o a una creación ex-nihilo o a un creador increado (para evitar, el consecuente problema de un pasado infinito) – y, en principio, exclusivamente matemático, se considere, no solo como una explicación convincente, sino incluso, una hipótesis científica, confirma mi diagnóstico de que: la ciencia moderna, parece estar plagadas de teóricos trasnochados y de entusiastas divulgadores de fácil agravio.
Bien. Puesto que, mis justificaciones, respecto de lo improcedente de esta propuesta, se encuentran detalladas en otros post, solo expresare los principios en los que me apoyo. Esta inconsistente – en lógicas no-para-consistentespropuesta de pseudo-comienzo cósmico, se fundamenta principalmente en la presunción de ausencia de bordes – es decir: si algo te jode, busca la forma de eliminarlo de la ecuación, por más que, al hacerlo, ya no te estés atacando lo fundamental del planteo original – y en la apelación, a una selectiva ceguera de consistenciasí, tienes que ir adicionando/eliminando dimensiones de cualquier tipo, no te preocupes, tan solo debes concentrarte en desestimar todo aquello, capaz de hacerte dudar (por ej.: “un perímetro, que no delimite dos áreas”, “lo causalmente separado, permanezca temporal y circunstancialmente unido, a pesar de contener distancias no-causales”, “un desplazamiento en 2D, en forma alguna, implica un desplazamiento en 3D, para ello, tan solo debes abstraerte de la dimensión extra (deja de centrarte en los inconvenientes/inconsistencias: tu, calla e idealiza)”, etc.) –.
Ruego final (aunque repetitivo): ¿no va siendo hora, de dejar de apelar a modelos inconsistentes – en lógicas no-para-consistentesy con insuficiente poder descriptivo/explicativo de teóricos trasnochados? Que va. Seguro, solo soy yo, que no se de lo que se habla.
§ 
También, según ellos. Si la propuesta de ausencia de bordes fuese correcta, no habría ninguna singularidad espacio-temporal, y las leyes y constantes físicas¿y sin condiciones de inicio? – serían siempre válidas – incluso, al comienzo del universo/cosmos –. En consecuencia, el universo/cosmos, no poseería ninguna frontera, tras la cual, fuese necesario apelar a un creador. Ya que éste, sería increado y jamás destruido – ¿eterno y dinámico? –. Simplemente existiría (¿otro pésimo intento matemático, de eludir el problema de un pasado infinito?) –.
[]

Espacio de configuración:
Se denomina así, en mecánica clásica y lagrangiana, al espacio de todas las posibles posiciones instantáneas de un sistema mecánico.
Nota: dado que, la relatividad general representa el campo gravitatorio como deformaciones del espacio-tiempomodificación de su métrica –. Éste, puede evolucionar de una específica configuración a otra.

Superespacio:
Se denomina así, en cosmología relativista, al espacio de configuraciones de la relatividad general. Es decir, se denomina así: al espacio de todas las métricas posibles.
§  Mini-superespacio: (mSE)
Se denomina así, en cosmología relativista, a las métricas que corresponden a espacios homogéneos e isótropos – ej.: métrica de De Sitter. Es decir, un espacio de configuraciones homogéneo, isótropo y con solo un grado de libertad.

Métrica de De Sitter: (espacio de De Sitter)
Variedad lorentziana, donde el espacio (S^4) resulta ser completamente vacío – es decir: completamente desprovisto de materia – aunque, provisto de una constante cosmológica positiva – es decir: fuente de su estructura dinámica (esencialmente, en expansión métrica) {en una métrica de anti-De Sitter (AdS: anti-De Sitter Space) la constante cosmológica es negativa} –. Además, es homogéneo e isótropo – respecto del espacio y del tiempo –. Es decir, un modelo en donde todos sus puntos son idénticos – poseen la misma densidad, curvatura, etc. –. Y poseedor de una característica singular: no presenta singularidad inicial.
§  Espacio-tiempo de la (RG): ( Curvatura.E-T: Rmn-1/2Rgmn = Energía-Momento: (8pG/c4)Tmn )).
§  Espacio-Tiempo de De Sitter: ( Curvatura.E-T: Rmn-1/2Rgmn+Lgmn = Energía-Momento: 0 ), siendo (L=~10^-52 m^-2).
§ 

Función de onda del universo: FOU
Básicamente, remite a la ecuación de Schrödinger aplicada al universo observable. En decir, una propuesta físico-teórica – en el contexto de cosmología cuántica –, sobre el estado del universo previo al tiempo de Planck. Calculada a partir de la integral de caminos de Feynman – misma que nos entrega, desde vaya yo a saber que, la probabilidad de tunelación cuántica a través de un específico instantón hacia nuestro universo. Un ejemplo de esta función de onda del universo, resulta ser el estado Hartle-Hawking.
Nota: ahora, ¿no resulta paradójica, la existencia de especificas deformaciones espacio-temporales, independientes de la energía (materia)?

Fondo de microondas cósmico: FMC»(CMB en inglés)
Se denomina así, al presunto eco electromagnético tardío del BBaprox. 380000 años (fin era oscura cosmológica): aprox. 1,99*10^13s –. Esta composición de temperaturas – radiación electromagnética – del universo observable, resulta ser:
§  A escala cósmica, resulta ser isotrópica.
§  A escalas menores, resulta ser anisótropica.
Actualmente, se acepta que las anisotropías en la temperatura del FMC, son consecuencia de un proceso denominado: oscilaciones acústicas bariónicas (BAO).

Oscilaciones acústicas bariónicas: (vibraciones cósmicas primigenias)
Se presume que, en el plasma primigenio – principalmente compuesto por electrones, fotones y bariones (protones y neutrones) –, se presentaban oscilaciones de presión locales debido a las interacciones físicas entre un efecto compresivo – debido a la interacción gravitatoria – y un efecto expansivo – debido a interacciones físicas como los efectos Compton –. Estas oscilaciones de presión locales, generarían unas ondas que se propagarían por dicho plasma primigenio.
Nota: ahora. Un universo con menos bariones, produciría un FMC con anisotropías más pronunciadas – eso sí, manteniendo el mismo porcentaje de materia y energía oscura –. Finalmente, disponemos de lo que se denomina escala del BAO – distancia promedio entre galaxias/crestas de las oscilaciones acústicas bariónicas –.

Polarizaciones del FMC: (polarización fotones fin era oscura cosmológica)
Según parece – a mí no me lo parece –, estos fotones emancipados, lograron mantener hasta nuestros días, la polarización de su última interacción física con el plasma primigeniofin era oscura cosmológica –. Y analizando, dicha polarización – duro de alterar (10^18-1,99*10^13).0 –, es posible determinar, no solo configuraciones posibles de ese plasma primigenio al final de la era oscura, sino incluso, hasta quizás unos pocos instantes pos-BB – debido a que: la presencia de Temblequeos en el FMC, se cree actualmente, es prueba de la existencia de ondas gravitacionales primigenias (es decir: del BB) y en consecuencia de que la gravedad es un fenómeno cuántico –.
Básicamente. Puesto que, la polarización resultaría ser dependiente de: la temperatura, densidad y energía cinética del plasma primigenio. Observar una polarización del FMC a (45º) respecto del gradiente de temperatura de su respectiva región de origen, significaría la presencia de Temblequeos – producto de ondas gravitacionales {que según análisis de BICEP2.B-Señal estaría próximo al (aprox. 15%)} – y observar una polarización del FMC a (0º/90º/180º/270º) respecto del gradiente de temperatura de su respectiva región de origen, significaría la presencia de Grumos – producto de fluctuaciones de densidad {que según análisis de BICEP2.E-Señal estaría próximo al (aprox. 85%)} –.
Nota: posterior a este otrora no, ahora sí, presunto descubrimiento del BICEP2, se determinó se había subestimado la contribución del polvo galáctico. Por lo que, este fallido descubrimiento, ha sido relegado a tan solo un interesante estudio del polvo galáctico en una región donde se creía que era insignificante.




Supernova Tipo 1A: (expansión acelerada del universo observable)
Actualmente, una de las formas preferidas de calcular la expansión métrica del espacio, es empleando las candelas estándar (ej.: 1Asupernovas de enanas blancas, de brillo intrínseco característico (curva de luz) –). Conociendo la intensidad lumínica intrínseca (ILI) de esta candela estándar, y que la intensidad lumínica (IL), disminuye con la distancia (d): (IL=1/d^2), nos permite calcular la distancia hasta la candela estándar. Dicho calculo, es corroborado por otros métodos de medición (ej.: la paralaje trigonométrica), en candelas estándar cercanas – dentro del rango de método por la paralaje trigonométrica –. Método conocido como: escalera de distancias cósmicas.
Nota: hasta 1998, no se tenían pruebas de que el universo se estuviese expandiendo aceleradamente – las galaxias más lejanas, se alejan más rápido que las cercanas –. Debido a ese descubriendo, Saul Perlmutter, Brian Schmidt y Adam Riess, recibieron el nobel de física en 2011 – analizaron 50 S1A, alcanzando una confianza máxima de 3,9 sigmas –. En 2016, un artículo controversial – J. T. Nielsen, A. Guffanti y S. Sarkar, (Marginal evidence for cosmic acceleration from Type Ia supernovae) –, pone en duda, incluso que la expansión sea acelerada – analizaron 740 S1A, alcanzando una confianza máxima de 3,0 sigmas –. Lo que al parecer los creadores de este articulo olvidan, es que el análisis de las S1A, es solo una de las formas de determinar la evolución del universo. Combinadas, sus fuentes actuales de información: (por ej.: Oscilaciones acústicas bariónicas, Emisión de rayos (x) en cúmulos galácticos, micro-lentes en FMC y Supernovas Tipo 1A), alcanzan una confianza estadística superior a los 5,0 sigmas – recordemos que: 5,0 sigmas, se consideran suficientes para anunciar un nuevo descubrimiento científico –.

Cosmología cuántica canónica: CCC
Rama de la cosmología remitida a la descripción de los primeros instantes de nuestro universo. Intervalo temporal donde se asume que nuestro universo desarrollo un comportamiento cuántico.

Cosmología cuántica de bucles: CCB»(LQC en inglés)
Modelo cosmológico finito, de simetría reducida, que parte de la llamada gravedad cuántica de bucles (LQG) y predice un gran rebote cuánticopuente cuántico – entre las fases de contracción y expansión. Características distintivas de este modelo:
§  Gran rebote cuántico: fase expansiva – actualmente observable – en nuestro universo, posterior a una fase contractiva. Esta dinámica se debe a que en (LQC): a densidades muy elevadas – y tiempo menor al de Planck –, la gravitación se torna repulsiva.
§  Independencia de las condiciones iniciales: el estado del universo en la singularidad inicial no necesita de condiciones iniciales (CI). La evolución del universo, tras este estado, viene determinada por la fase de contracción anterior debido a la naturaleza de las ecuaciones diferenciales que gobiernan su dinámica.
§  A mí, ni me miren.
Critica: menos mal, que no debemos preocuparnos ni por el problema de un pasado infinito, ni como dispuso el cosmos de la energía, la dinámica, necesarias para esa específica evoluciónmodelo cíclico –.



Cosmología de branas (universo cíclico): (modelo Steinhardt-Turok)
Dos branas contiguas – universos 3S+1T –, presumiblemente planas y paralelas entre si – debido a los efectos de la energía oscura en su época de primacía (fin del ciclo predecesor: aprox. un billón de años) – separadas por una distancia – dimensión espacial extra dimensional – presumiblemente menor a un trillón de veces el diámetro relativista de un átomo – en el bulk –, son atraídas entre sí, por una fuerza energía cinética inversamente proporcional a su distanciaextra dimensional –. Al colisionar entre sí, dicha energía cinética, se transforma en la energía y dinámica de los BB – en ambas branas –, dando comienzo, a una separación entre las mismas. En este modelo, la energía oscura, resulta ser directamente proporcional a la planitud de la brana ¿será que dicha variación en el total de energía oscura de la brana deberá remitirse al bulk?. Constituyéndose así, un ciclo perpetuo de creación y muerte térmica. A mí, ni me miren.





§   Dos visiones del universo: teoría del big bang y teoría cíclica (Ángel, Gutiérrez)
Más limitaciones teóricas:
§  Máquinas inferenciales limitadas: (el hombre sería un ejemplo)
Según parece, el físico David Wolpert, en un artículo publicado en Physica D – vol. 237 –, ha demostrado que a lo mucho, podemos alcanzar una teoría del casi todo. Básicamente, demostró lógicamente que: la incapacidad de predecir la totalidad de conclusiones – inferencias – de al menos una maquina similar. Tal demostración, resulta ser independiente de las leyes y constantes físicas, así como de las capacidades computacionales de dichas máquinas.

Teorema No Free Lunch: (no hay almuerzo gratis {la ciencia, no puede validarse a sí misma})
Teorema matemático, que remite al análisis de la eficiencia de algoritmos de búsqueda. Básicamente, postula que: ningún sistema resulta ser necesariamente mejor que otro. Suele ilustrarse con el ejemplo del campo oscuro: nos encontramos ante un campo sin luz y debemos encontrar el monte más alto. Para ello, uno puede caminar hasta encontrar una pendiente y dar un par de pasos a la derecha y continuar caminando. Esto nos garantiza, estar subiendo la mayor parte de nuestra caminata, pero no garantiza llegar al monte más alto. En esencia, uno tiene las mismas probabilidades de llegar al monte más alto, simplemente caminando en línea recta.
§  Teoría M--: (es decir: una teoría de casi todo)
Básicamente. Si asumimos que para explicar – científicamente hablando – cualquier suceso físico, tan solo necesitamos del (modelo: T) – mismo, que determina un específico conjunto de características observables (valores medibles) para nuestro cosmos –. Bien, pero de seguro cabría preguntarnos: ¿por qué razón – científica –, nuestro cosmos es como (T) lo modela, en lugar de ser de cualquier otra forma lógicamente posible? Obviamente, tal (explicación: X), no puede estar contenida en (T), puesto que: ninguna explicación puede auto-explicarse. En tal caso, debemos agregarla a (T), lo que la transformaría en (T++). Volviendo falsa, nuestra presunción respecto de (T). Dicha limitación, resulta aplicable a cualquier transformación de (T). En consecuencia: resulta ser lógicamente imposible, construir una teoría del todo.
§ 

Cosmos-Holográfico:
El principio holográfico – conjetura de la gravedad cuántica –, afirma que: una descripción matemática del universo requiere solo dos dimensiones espaciales. Con lo anterior en mente, y nuevamente confundiendo el modelo con lo modelado {quiero creer que solo a nivel divulgativo}, se afirma como una hipótesis científica (paradigma explicativo dimensional) – usufructuando su prestigio a mi entender –, que lo que percibimos como (3D), pueda tan solo ser, una proyección holográfica {lo ilusorio}, de nuestro universo {la realidad: sustrato proyector} – en (2D). Análogo, a la entropía del horizonte de suceso (2D) de su agujero negro (3D) {correspondencia holográfica: cuya entropía, deviene siendo, directamente proporcional al área de la superficie del horizonte de sucesos de un agujero negro. Y siendo estos, presumiblemente objetos de entropía máxima (la entropía máxima de un volumen, no puede superar a la del mayor agujero negro que pueda contener (frontera Bekenstein))} – es decir: toda la información contenida en cierto volumen (3D), esta codificada en su frontera –. También afirma que: por cada 4 Unidades de Planck1 nat = 1.44 bits (0 o 1) –, existe al menos 1 grado de libertad.
Este modelo explicativo, pretende explotar cierta correspondencia matemática, entre las teorías gravitacionales en espacios anti-de Sitter y teorías de cuántica de campo (2D: baja dimensión), que trasladada a la correspondencia holográfica, se propone como paradigma explicativo dimensional de nuestro universo. Si bien, observacionalmente nuestro universo, no sería un espacio anti-de Sitter; en la actualidad, se ha logrado establecer esas correspondencias con espacios planos – observacionalmente similares a nuestro universo –. Asumiendo que: una teoría de la gravedad cuántica, debe lidiar con el entrelazamiento cuántico y puesto que, éste está relacionado con la entropía de entrelazamiento – es decir: cuan entrelazados están los componentes del sistema entrelazado -. El descubrir, que ésta, tiene idéntico valor en una teoría de la gravedad cuántica plana y en una teoría cuántica de campos (2D: baja dimensión), aumenta la confianza de esos físicos, respecto de que nuestro universo sea holográfico.


Razones del empleo del principio holográfico como paradigma explicativo dimensional de nuestro universo:
Partiendo de la analogía entre un agujero negro y algún tipo de convertidor espectral de tipo Fourier. Toda señal codificada, absorbida por un agujero negro, será transformada por éste – transformada de Fourier –, en una serie infinita de ondas, integrándose a las preexistentes en su horizonte de sucesos. Es decir, según el principio holográfico (correspondencia holográfica) – paradigma explicativo dimensional –, la información (2D), contenida en el horizonte de sucesos (impregnada energéticamente al ser atravesado), estaría relacionada con la información (3D) contenida en el agujero negro (rastreable energéticamente dentro de éste) – lo absorbido –; pudiendo incluso, ser teóricamente recreada mediante una transformación de Fourier
§  Área de Planck: (A(p) = G/h^3=10^-66 cm^2).
§  Radio de Schwarzschild: (r(s) = (2GM)/c^2).
§  Serie de Fourier: función expresada como suma infinita de ondas sinusoidales.
§  Transformada de Fourier: desarrollo en serie de Fourier de una función continua.


Paradoja Holográfica:
La información de una masa macroscópica, es proporcional a su volumen. Sin embargo, cuando dicha masa se concentra en un radio circular igual a: (rc^2/2G), la información es proporcional a su área.

Solitones:
La solución de las ecuaciones de onda depende del medio:
§  Medios lineales:
Ondas con dispersión y atenuación
§  Medios no-lineales:
Solitones. Su nombre deriva de onda solitaria. Son, pues, entidades ondulatorias localizadas con propiedades de estabilidad que se propagan, sin deformarse y en condiciones muy concretas, en un medio no lineal.
Su existencia, tiene como fundamento que son soluciones de ecuaciones de ondas (ecuaciones diferenciales) no lineales. Ecuaciones de este tipo se conocen en torno a un centenar.
§  Solitones temporales:
Son pulsos de luz que, bajo específicas condiciones se desplazan sin distorsión a casi cualquier distancia. Es una solución especial de pulso viajera, que es la única solución estable de una ecuación dispersiva. Intuitivamente corresponde a un pico de luz desplazándose aisladamente.
§  Solitones espaciales:
Son haces espaciales de luz, robustos, autoguiados, que se propagan sin distorsión en específicos métodos ópticos y presentan un comportamiento corpuscular. Se constituyen, por el enfocado y atrapado mutuo de ondas en medios no lineales.
§   Fuente: http://bellota.ele.uva.es/~lbailon/Docencia/MUI-TIC/30.APOM/Presentacion_30.APOM.pdf

Entropía de agujero negro: (algo de Historia)
De la teoría de cuerdas, puede derivarse la formulación de la entropía de Bekenstein-Hawking para agujeros negros. Obtenida mediante la enumeración de los estados microscópicos de las cuerdas que formarían un agujero negro. Para que esto ocurra, se debe admitir que: el área del horizonte de sucesos resulta ser análoga a la entropía. Consecuentemente, tanto su gravedad superficial, así como su temperaturaequilibrio térmico –, debe de ser la misma, para todos los puntos del horizonte de sucesos.
Al crearse un agujero negro, mediante un colapso gravitatorio continuo, aceleradamente entra en una situación estacionaria caracterizada sólo por tres parámetros: la masa (m) – gravedad de superficie –, el momento angular (l) – velocidad angular – y la carga eléctrica (q) – potencial eléctrico –. Además de estos tres parámetros – información –, un agujero negro, no conserva ninguna otra característica del objeto colapsado – el teorema de no pelo: durante el colapso, se pierde el resto de la información del objeto colapsado –.
Según el principio de incertidumbre, una partícula de masa (m) se comporta como una (onda de longitud: (h/(m*c))). Según parece: para que un sistema de partículas colapse en un agujero negro, dicha longitud de onda debe ser inferior al diámetro del agujero negro así creado. En consecuencia: el número de configuraciones susceptibles de formar un agujero negro de una específica masa, momento angular y carga eléctrica, aunque muy grande, {debe} ser una cantidad finito. Siendo que según Bekenstein: el logaritmo de dicha cantidad finita, puede interpretarse como la entropía del agujero negro – una medida del volumen de información irremediablemente perdida durante el colapso, al atravesar el horizontes de sucesos al crearse el agujero negro. Ahora. Si un agujero negro posee una entropía finita, que resulta ser proporcional al área de su horizonte de sucesos, debe poseer también temperatura finita, que a su vez, seria proporcional a la gravedad de superficie. Con lo cual, cabría la posibilidad que el agujero negro se encontrase en un equilibrio térmico, no siendo su temperatura el cero absoluto.
Recordemos que en un contexto de la mecánica clásica, los agujeros negros debería absorber toda radiación térmica en su campo de atracción gravitaría y menos aún, irradiarla.
Hasta que en 1974, Hawking, formulo la radiación de Hawking – emisión de partículas a un ritmo constante por creación de pares –. Según esta formulación: un agujero negro, emite partículas como si fuese un cuerpo cálido ordinario, con una temperatura directamente proporcional a su gravedad superficial e inversamente proporcional al su masa. Volviendo consistente la afirmación de Bekenstein, respecto de la entropía finita de los agujeros negros.
En la formulación de Bekenstein, se establece que los agujeros negros obedecen la denominada (ley del área: (dm=KdA)), siendo (A: el punto del área del horizonte de sucesos) y (K: una constante de proporcionalidad – que según el caso correspondería a: (m: totalidad de la masa del agujero negro gravedad de superficie –), (q: potencial eléctrico en la proximidad del horizonte de sucesos potencial eléctrico –) y (l: velocidad angular de rotación velocidad angular –). Ley, que resulta similar a la de la entropía en termodinámica (dE=TdS). Por otra parte, Hawking, determino que la temperatura de un agujero negro deviene siendo proporcional a: (T=4K, siendo (K) la constante de proporcionalidad, en este caso, correspondiente al: área de gravedad). En consecuencia, la entropía de un agujero negro resulta ser proporcional a: (S=A/4).
Notas:
§  En Teoría M, las D-comas resultan equivalentes a las D-branas. Loas D-comas, también fueron utilizadas para describir los estados cuánticos degenerados – del campo gravitacional y de la radiación de Hawking – en tipos específicos de agujero negro, logrando reproducir matemáticamente de forma precisa, las propiedades termodinámicas de Bekenstein-Hawking.
§  En ausencia de momento cinético, un agujero negro seria perfectamente esférico, pero en presencia de momento cinético, adoptará una forma ligeramente achatada.
§  Gravedad de superficie:
Representa la velocidad a la que el campo gravitatorio de un agujero negro se vuelve infinito.

Límite de densidad informativa: (Juan Maldacena)
La entropíaconsiderada como información –, puede cuantificarse en bits o nats. Existe una correlación entre el total de bits y el total de grados de libertad de la materia/energía. Los bits mismos, codificarían la información acerca de los estados ocupados por esa materia/energía.
Todo volumen, posee un límite superior en la densidad de la información – respecto de la posición de las partículas que aloja –. Necesitando, eso sí, que la materia, no pueda dividirse infinitamente – es decir: necesita que exista un nivel básico de partículas fundamentales –, pues terminaría violándose el límite máximo de la densidad de entropía.
§  Todo es información cuántica (Vlatko Vedral). Critica: ¿todo, es una ontológica representación diferenciación cuantitativa?
§  Según Vlatko Vedral, solo si aceptamos como postulado que: el origen de todoprincipio radical del universo –, es la información, podemos resolver el problema de una regresión infinita de justificaciones. Sólo un universo – entendido como información pura –, podría justificarse a sí mismo como información a partir de la nada. Sería una explicación ex-nihilo que corta la regresión infinitaCritica: una metafísica paparruchada más.
§ 

Tensor del campo electromagnético: F(mn)
En electrodinámica clásica y sobre todo en teoría de la relatividad, el campo electromagnético o tensor de Faraday (F(mn)), puede representarse mediante un tensor 2-covariante y antisimétrico. Dada la específica forma tensorial del campo electromagnético, solo seis de sus componentes son independientes – tres de los campos eléctricos (E) y tres de los campos magnéticos (B) –. Donde, (m : representa las columnas del tensor) y (n: representa las filas del tensor).
§  Inverso o co-tensor del campo electromagnético: (F^(mn)).
§  Tensor dual del campo electromagnético: (*F(mn)).
§  Este tensor es antisimetrico: (F(mn)=-F(nm)) – o sea: (F(mn)¹F(nm)) –.
§  Los términos de su diagonal son nulos: (F(mm)=0).
Dato: respecto de soluciones autoduales.
§  Condición de autodualidad: (F(mn)=±*F^(mn)).
§  Condición de anti-autodualidad: (F(mn)+*F^(mn)=0).
§  Condición de identidad: (F(mn)*F^(mn)=*F(mn)**F^(mn)).
§ 

                   ( 0               -E(x)/c         -E(y)/c         -E(z)/c )
F(mn)=           ( E(x)/c        0                 -B(z)            B(y)    )
                   ( E(y)/c        B(z)             0                 -B(x)  )
                   ( E(z)/c        -B(y)            B(x)             0        )

                   ( 0               E(x)/c           E(y)/c           E(z)/c )
F^(mn)=        ( -E(x)/c       0                 -B(z)            B(y)    )
                   ( -E(y)/c       B(z)             0                 -B(x)  )
                   ( -E(z)/c       -B(y)            B(x)             0        )

                   ( 0               -B(x)            -B(y)            -B(z)   )
*F(mn)=         ( B(x)           0                 E(z)/c           -E(y)/c )
                   ( B(y)           -E(z)/c                   0                 E(x)/c )
                   ( B(z)           E(y)/c           -E(x)/c         0        )

Rotación de Wick:
En física, se denomina así, al método con el cual se busca una solución a un problema en el espacio de Mikowiski, a partir de una solución de un problema similar en el espacio Euclidiano.
§  Métrica de Minkowski: s^2 = -(t^2) + x^2 + y^2 + z^2.
§  Métrica Euclidiana: s^2 = t^2 + x^2 + y^2 + z^2; para (t=-it).

Continuación analítica:
Técnica para extender el dominio de definición de una dada función analítica.
[]

Acción (principio de acción física): S(x)
En física, representa la magnitud que expresa el producto de la energía implicada en un proceso por su duración.

Efecto túnel (cuántico):
En mecánica clásica, las trayectorias permitidas para una partícula tienen que ser extremos de la acción (física). Por lo que, la restricción principal de toda trayectoria es: respetar la ley de conservación de la energía total del sistema. Por el contrario, en mecánica cuántica, una de sus relaciones de incertidumbre nos indica que: (DE*Dt³ħ/2). En consecuencia, dicha conservación de energía, puede ser violada en ciertas escalas de tiempo – aunque, debemos recordar que: dicha creación de energía, no remite a una creación ex-nihilo, sino una fluctuación de un falso vacío/vacío cuántico preexistente (de donde, presuntamente se toma temporalmente prestada, esa energía faltante) –, en consecuencia: solo sería una violación temporal de la ley de conservación de la energía total, respecto de un sistema físico que excluya al falso vacío/vacío cuántico – en caso contrario: tan solo, sería un error en la delimitación del sistema físico. Lo relevante de esto, es que una partícula cuya energía es (E<V), puede superar una barrera potencial de valor (V).
Nota: ¿se ha comprobado el efecto túnel cuántico, de a una entidad física (por ej.: un electrón) por vez – temporalmente, suficientemente espaciados, como para descartar una alteración acumulativa en la barrera – contra una barrera potencial de longitud variable (de un material/campo, que no contenga electrones, y evitar así, la posibilidad de que las detecciones, correspondan a las entidades físicas del material/campo empleado como barrera) – comprobando así, la correlación entre la longitud de la barre potencial y la cantidad de electrones que logran atravesarla – con la intención de descartar la posibilidad de que sean entidades físicas detectadas no sean las emitidas?
Dato: me gusta, cuando dicen como si fuese una prueba definitiva de la precisión del modelo, que: los resultados experimentales, coincide exactamente – se dejaron llevar por el momento, ¿verdad? – con las predicciones de la mecánica cuántica. ¿A poco, la creación de un modelo representativo, debe necesariamente excluir lo que pretende representar? Cierto. Otra vez se dejaron llevar por el momento, ¿verdad?

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Densidad crítica: p(c)
Es la densidad necesaria para que la curvatura del universo sea cero. Esta, depende del valor de la constante de Hubble actual (H(0)) y de la constante gravitacional (G). Según los cálculos, (p(c)) está próximo a: 3*H(0)^2/8*Pi*G=4,77*10^-31 gr/cc. Implicando que, si la materia estuviese homogéneamente distribuida: equivaldría a tener un átomo de hidrogeno por cada 77 cm – obviamente, su densidad decrece mientras el universo se expanda –.
§  Actualización: nuevos cálculos, están inclinando la balanza hacia una geometría espacial local hiperbólica, en lugar de ratificar la hipótesis dominante de una geometría espacial plana.

Parámetro de densidad (Omega): (Ω)
El parámetro de densidad (Ω), se define como la relación de la densidad actual (p: observable) respecto de (p(c): densidad crítica) de un universo tipo Friedmann: (Ω=p/p(c)). La densidad actual del universo (p), se puede calcular sumando las densidades totales de materia y energía.
Según datos experimentales, estas están próximas a (p(c)), la cual se fracciona de la siguiente manera: PD(Bariónica) = aprox. 5%, PD(Radiación) = aprox. 0.02%, PD(M. Oscura) = aprox. 30%, PD(E. Oscura) = aprox. 70%.
§  Ω < 1, universo abierto y potencialmente infinito, tiene una geometría espacial local hiperbólica (tipo silla de montar). Futuro probable: Big Freeze gran enfriamiento: la intensidad de la aceleración no será lo suficientemente alta como para descomponer la materia en sus unidades más simples, por lo que los astros continuarán alejándose sin que su expansión se detenga –.
La suma de los ángulos interiores de un triángulo de escala universal análisis realizado respecto del fondo de microondas cósmico, resulta ser <180º.
§  Ω = 1, universo abierto y potencialmente infinito, tiene geometría espacial plana o Euclídea. Futuro probable: Big Rip – gran desgarro: hasta los átomos serán desintegrados en sus componentes y los fotones llegarían a tener longitudes de ondas extremadamente largas –.
La suma de los ángulos interiores de un triángulo de escala universalanálisis realizado respecto del fondo de microondas cósmico, resulta ser =180º.
§  Ω > 1, universo cerrado y finito, tiene una geometría esférica – puesto que su volumen es finito –. Futuro probable: Big Crunchuniverso oscilante: el universo colapsara sobre sí mismo y se podría desencadenar un nuevo BB –.
La suma de los ángulos interiores de un triángulo de escala universal análisis realizado respecto del fondo de microondas cósmico, resulta ser >180º.
Nota: hasta donde entiendo y puedo recordar. La energía oscura – interacción física del vacío cuántico “gravitacionalmente repulsiva (efecto)” –, se modela como una magnitud extensiva – es decir: para el caso, dependiente de su cantidad (apreciable a escala intergaláctica y en menor medida a escala interestelar): densidad energética –. La cual, resulta ser infinitesimal, al menos de momento, respecto de nuestro cuerpo, ecosistema e incluso respecto de nuestro sistema solar. Por lo que, en nuestro caso, el resto de interacciones físicas “atractivas (efectos)”, anulan dicha insignificante influencia. En consecuencia, no se presentan efecto de dilatación temporal o expansión métrica espacial a nuestra escala.
Finalmente. Si bien, existe una hipótesis científica respecto de la evolución del universo observable, donde incluso todo átomo se desintegraría en sus componentes – Big Rip –, también existen otras en las que no. Es decir. De momento, solo es eso: una hipótesis científica.

Resistencia al cambio: (¿inercia de la comunidad científica?)
Al principio, la propuesta de Lemaître tropezó, no sólo con críticas, sino con una abierta hostilidad por parte de científicos que reaccionaron en ocasiones violentamente. Varios científicos, incluso Einstein, veían con desconfianza la propuesta de Lemaître – aun siendo una hipótesis científica seria –, dado que en su opinión, podría favorecer a las ideas religiosas acerca de la creación.
Nota: Nature 127.Abstract (09/05/1931): {pos reconocimiento de Einstein-De Sitter}
Lemaître publica un artículo titulado: el comienzo del mundo desde el punto de vista de la teoría cuántica:
Sir Arthur Eddington señala que, filosóficamente, la idea de un comienzo para el actual orden de la Naturaleza es repugnante para él. Preferiría inclinarme a pensar que el estado actual de la teoría cuántica sugiere que el comienzo del mundo fue muy diferente del actual orden de la Naturaleza. Los Principios termodinámicos, desde el punto de vista de la teoría cuántica, pueden expresarse de la siguiente manera: (1) La cantidad total constante de energía se distribuye en cuantos discretos. (2) El número de cuantos distintos es cada vez mayor. Si nos remontamos en el tiempo tenemos que encontrar cada vez menos cuantos, hasta encontrar toda la energía del universo comprimida en unos pocos o incluso en un único quantum.
Now, in atomic processes, the notions of space and time are no more than statistical notions ; they fade out when applied to individual phenomena involving but a small number of quanta. If the world has begun with a single quantum, the notions of space and time would altogether fail to have any meaning at the beginning; they would only begin to have a sensible meaning when the original quantum had been divided into a sufficient number of quanta. If this suggestion is correct, the beginning of the world happened a little before the beginning of space and time. I think that such a beginning of the world is far enough from the present order of Nature to be not at all repugnant. It may be difficult to follow up the idea in detail as we are not yet able to count the quantum packets in every case. For example, it may be that an atomic nucleus must be counted as a unique quantum, the atomic number acting as a kind of quantum number. If the future development of quantum theory happens to turn in that direction, we could conceive the beginning of the universe in the form of a unique atom, the atomic weight of which is the total mass of the universe. This highly unstable atom would divide in smaller and smaller atoms by a kind of super-radioactive process. Some remnant of this process might, according to Sir James Jeanss idea, foster the heat of the stars until our low atomic number atoms allowed life to be possible. Clearly the initial quantum could not conceal in itself the whole course of evolution ; but, according to the principle of indeterminacy, that is not necessary. Our world is now understood to be a world where something really happens ; the whole story of the world need not have been written down in the first quantum like a song on the disc of a phonograph. The whole matter of the world must have been present at the beginning, but the story it has to tell may be written step by step.

---------------------------------------------------------------------------------------------
[ Liturgia fisicalista de la rama trasnochada ] ------------------------------------
---------------------------------------------------------------------------------------------

Proceso fisicalista tendiente a alcanzar un estado de entendimiento instantónico:
Repetimos, ante cualquier interrogante cosmogónico – tantas veces como sea necesario –, el específico credo del astrofísico-trasnochado, con la intención de provocar en nosotros el estado de entendimiento instantónicoiluminación cosmogónica – buscado. Siendo, ese específico credo: paradigma astrofísico – en este caso: específicas correspondencias matemáticas –, y como tal, plausible de ser usado para denostar otros modelos descriptivos/explicativos. Que así sea.

Credo del astrofísico-trasnochado: yo, a quien, entre otras cosas, no me preocupa descubrir: ¿qué es, lo que ontológicamente ondula?, ¿cómo lo-separado, estadísticamente, está superlumínicamente unido a pesar de la distancia?, ni explicar, el vacío explicativo de la conscienciaqualia –. Creo que: transcurrida una cantidadpropiamente numéricainfinita de tiempo, un específico grupo de condiciones iniciales, junto a un específico grupo de leyes y constantes físicas, que regían un específico espacio-tiemporepresentado por una específica entidad-constructo físico-matemático de la teoría cuántica de campos denominado: falso vacío –, causaron inexorablemente, hace aproximadamente trece mil setecientos veinte millones de años (Planck Surveyor.UTC), su transformación, representada mediante el efecto de tunelización cuánticaanalogía de un comportamiento no-clásico –, a través de una específica barrera potencialrepresentada por una específica entidad-constructo físico-matemático de la teoría cuántica de campos denominado: instantón Coleman-De Luccia, en un específico espacio-tiempovacío verdadero – y energía. Es paradigma astrofísico – al menos, hasta que otro lo desplace –. Que así sea.

Credo potenciado del astrofísico-trasnochado: yo, a quien, entre otras cosas, no me preocupa descubrir: ¿qué es, lo que ontológicamente ondula?, ¿cómo lo-separado, estadísticamente, está superlumínicamente unido a pesar de la distancia?, ni explicar, el vacío explicativo de la conscienciaqualia –. Creo que: hace aproximadamente trece mil setecientos veinte millones de años (Planck Surveyor.UTC), cuando ni el espacio, ni el tiempo existían, de alguna forma, existía un específico grupo de condiciones iniciales, junto a un específico grupo de leyes y constantes físicas, sin olvidarnos del minisúperespacio representado por una específica entidad-constructo físico-matemático de la relatividad general – constituyentes estos, de: ¡la nada!. Mismos que, causaron inexorablemente su transformación – convirtiéndonos en una específica nada-transformada –, representada mediante el efecto de tunelización cuánticaanalogía de un comportamiento no-clásico –, a través de una específica barrera potencialrepresentada por una específica entidad-constructo físico-matemático de la teoría cuántica de campos denominado: instantón Hawking-Turok, en un específico espacio-tiempovacío verdadero – y energía. Es paradigma astrofísico – al menos, hasta que otro lo desplace –. Que así sea.

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Escala de complejidad explicativa: (otra licencia del autor)
§  Grado de complejidad de modelo no infinita: causas impersonales (pre-personalidad).
§  Grado de complejidad de modelo infinita: causas personales (personalidad) – dicen por ahí, que la complejidad de Dios es infinita [C] –.

[C]:
§  Lo simple, remite a menor cantidad de suposiciones o en igualdad numérica, mayor credibilidad en las suposiciones.
§  La simplicidad, como todo juicio de valor, remite a la subjetividad.
§  La simplicidad, no implica estar en lo cierto – aunque podría significar ser estadísticamente más probable –.
§  La comparativa entre modelos, remite fundamentalmente a su conmensurabilidad – en cierta forma remite a las tesis de inconmensurabilidad de Kuhn/Feyerabend en filosofía de la ciencia –.
§  Dios, poseería un grado de complejidad muy superior al de toda su creación/descendencia (a contra corriente de la teoría de la evolución de las especies).
§  Ergo: a mi entender, el grado de complejidad y paradojicidad de un Dios creador de un cosmos, resulta ser superior al grado de complejidad y paradojicidad de un cosmos.
§ 

Respecto de algunas asociaciones improcedentes:
Quizás, sea debido a cierto sesgo cognitivodeformación profesión: si tu única herramienta es un martillo, todo te parece un clavo –, pero algunos físicos teóricos trasnochados, pretenden vendernos la hipótesis científica – que sus apóstoles elevaran al grado de cuasi-certezas (siendo generosos) – de que: existe, una significativa correspondencia matemática, entre las diferentes formas (10^500) de ensortijar dimensiones compactadas y la cantidad de universos que un multiverso podría contener. La de telemetría comprobatoria que estarán enviando las miles de zondas inter-universales, ¿verdad? Cierto. De momento, tan solo es una hipótesis científica que en forma alguna debería elevarse a algo más que teoría de supercuerdasmatemática (topología) –.

Respecto de un cosmos contradictorio: (sea uno o infinitos los universos que lo constituyen)
De momento, se me ocurren las siguientes contradicciones debidas a su existencia:
1)   Un problema cosmogónico (creación ex-nihilo/pasado infinito): ser no contingente.
2)   Un todo limitado (un perímetro que no deslinde dos áreas).
3)   Una extensión infinita concretada (un infinito actual físico) {característica no necesaria}.
4)  
En este contexto, el cosmos, tendría un grado de complejidad establecido por al paradigma cosmogónico reinante.

Respecto de un Dios contradictorio: De momento, se me ocurren las siguientes contradicciones y complejidades debidas a su existencia:
1)   Un problema cosmogónico (atemporalidad/pasado infinito): ser no contingente.
2)   Un todo limitado (un perímetro que no deslinde dos áreas).
3)   Una extensión infinita concretada (un infinito actual físico) {característica no necesaria}.
4)   Una vidaneguentropia: entropía, que un sistema dinámico (sistema abierto capaz de mantener su homeostasis), exporta para mantener baja la propia –, implicando mayor complejidad y comparativamente mayor entropía a lo inerte – respecto de un átomo primitivo –. En consecuencia. Siendo Dios, un sistema cerrado, se constituye una contradicción. Puesto que: Dios, no puede ser un organismo y su entorno/ambiente a la vez – así como: el universo, no es un organismo, sino su entorno/ambiente de ellos –.
5)   Una consciencia (personalidadautoconsciencia –, implicando una mayor complejidad y comparativamente mayor entropía a lo inerte – respecto de un átomo primitivo –. Constituyendo el sustrato para algunas contradicciones:
ü  Racionalidad (entendimiento + practicidad + consistencia).
Razonamiento discursivo:
Referencia, la actividad que nos permite correlacionar información recién adquirida, con elementos de nuestro bagaje – ideología, cultura, etc. –, mediante un pensamiento o discurso oral/escrito.
Por ejemplo. En la comprensión lectora, el razonamiento discursivo, manifiesta el esfuerzo del lector por alcanzar una profundidad superior a la simple lectura – es decir: se busca, establecer un dialogo con el texto en cuestión, tomando una postura crítica frente a él, y en ello, se construye una interpretación del mismo –.
ü  Omnipresencia (ubicuidad – finita/infinita –).
ü  Omnisciencia (omnipresencia/evolución predeterminada + observación arbitrariamente precisa).
ü  Omnipotencia (carente de limitacionesfísicas, lógicas, e incluso procedimentales –, aunque, de alguna no-paradójica forma, restringidas a la lógica bivalente).
ü  Libre albedrio (incondicionada intencionalidad – y para colmo: toda decisión divina, devendría siendo un proceso atemporal –).
ü 
En este contexto, el cosmos, tendría el mismo grado de complejidad de un cosmos contradictorio, mas, ninguna de sus contradicciones – puesto que: el cosmos (sea finito o infinito), limitaría con Dios –.

. . . [ Síntesis final ] . . .

Tomando en consideración lo antes expresado. Es mi opinión actual, que: todo intento por resolver esta paradoja cosmogónica – aceptadas las premisas, definiciones, reglas de inferencias y demás componentes del sistema lógico que así la derivan –, terminara, en el mejor de los casos, en un replanteo improcedente. Es decir: toda cosmogonía, nos remite indefectiblemente a los factores limitantes del conocimientoy en este caso en particular, primordialmente a: la contextualidad intrínseca –. En conscecuencia, cualquier solución de este problema modelo explicativo, contendrá irremediablemente cierto grado antinómico.
O sea, en un improcedente intento de declararla resuelta, declarar cierto avance o incluso declararla inexistente, mediante el cambio de algunas premisas, definiciones, reglas de inferencias o algunos otros componentes del sistema lógico en que se la derivo inicialmente. Lo cual, resulta ser erróneo, debido a que: obviamente no se estaría resolviendo el problema inicial – paradoja cosmogónica –, sino una modificación conveniente e improcedente.

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Regalo:
§  ¿Dioses o endiosados?

                                                    
§  Literalitas Bíblicos:


§  Christopher Hitchens vs. concepto del Dios personal:





§  ¿Evolución de la física o qué?


§ ...



-----------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------