domingo, 16 de diciembre de 2012

la sorprendente teoría del todo.

Olvídense de la física cuántica y la relatividad. Indicios de una teoría definitiva podrían surgir de un lugar inesperado. Cuando las revoluciones surgen, sus orígenes son fortuitos , según Max Planck, son un "acto de desesperación". En 1900, el propuso la idea de que la energía viene en porciones discretas, o cuantos, simplemente porque los perfiles continuos de la física clásica no podían explicar el espectro de energía re-irradiada por un cuerpo absorbente. Sin embargo, rara vez fue una revolución tan absoluta. Dentro de una década, las leyes de hierro fundido que habían sustentado la física desde los tiempos de Newton fueron barridos.La certeza clásica cedió su administración de la realidad a la regla probabilística de la mecánica cuántica, así como la revolución paralela de la relatividad de Einstein desplazó nuestras nociones acariciadas del espacio y tiempo. Este fue un cambio de régimen completo. Excepto por una cosa. Una reliquia única del viejo orden se mantuvo, una que ni Planck ni Einstein ni ninguno de sus contemporáneos tuvieron la voluntad o los medios para eliminarla. El astrofísico británico Arthur Eddington resumió la situación en 1915. "Si su teoría se encuentra que está en contra de la segunda ley de la termodinámica no puedo darle ninguna esperanza, no hay nada que hacer más que colapsar en la más profunda humillación", escribió.
desde sus origenes en el diseño de la máquina de vapor ,la influencia de la segunda ley de la termodinámica se ha incrementado en los últimos 200 años.Crédito.Newscientist.


En este artículo, se va a explorar la fascinante pregunta de por qué, desde sus orígenes en el siglo 19, las leyes de la termodinámica han demostrado ser tan formidablemente robustas. El viaje recorre las profundas conexiones que fueron descubiertas en el siglo 20 entre la termodinámica y la teoría de la información - las conexiones que nos permiten trazar vínculos íntimos no solo entre la termodinámica y la teoría cuántica, sino también, más especulativamente, con la relatividad. Por último, se va a argumentar, que esos vínculos nos muestran cómo la termodinámica en el siglo 21 nos puede guiar hacia una teoría que sustituirá a las dos. En sus orígenes, la termodinámica es una teoría sobre el calor: cómo fluye y lo que se puede hacer con él(ver el diagrama). El ingeniero francés Sadi Carnot formuló la segunda ley en 1824 para caracterizar el hecho trivial de que las máquinas de vapor en aquel entonces impulsando la revolución industrial nunca podrían ser perfectamente eficientes. Una parte del calor que se bombea en ellas siempre desembocaba en el entorno más fresco, en lugar de quedarse en el motor para realizar trabajo útil. Esa es una expresión de una regla más general: a menos que se haga algo para detenerlo, el calor fluirá naturalmente desde un lugar más caliente a un lugar más frío para igualar las diferencias de temperatura que encuentra. Unas décadas después de Carnot, el físico alemán Rudolf Clausius explicó este fenómenos en términos de una cantidad que caracteriza el desorden la que llamó entropía. En esta imagen, el universo funciona sobre la base de los procesos que aumentan la entropía - por ejemplo disipando el calor de los lugares en donde se concentra, (y por lo tanto estás más ordenado), a zonas más frías, donde no lo está.Esto predice un destino sombrío para el propio universo. Una vez que todo el calor se disipe al máximo, ningún proceso útil podría suceder más en él: sucede la "muerte térmica". Una pregunta desconcertante tambien se eleva en el otro extremo de la historia cósmica. Si la naturaleza siempre favorece a los estados de alta entropía, cómo y por qué el universo comienzó en un estado que parece haber sido relativamente bajo de entropía? En la actualidad no tenemos ninguna respuesta, y luego se va a mencionar una visión alternativa interesante. Tal vez debido a estas consecuencias no deseadas, la legitimidad de la segunda ley fue durante mucho tiempo puesta en duda. La carga fue formulada con la claridad más sorprendente por el físico británico James Clerk Maxwell en 1867. Él estaba convencido de que la materia inanimada no presentaba ninguna dificultad para la segunda ley. En un sistema aislado, el calor siempre pasa desde el punto más caliente al más frío, y un grupo ordenado de moléculas de colorante se disuelve fácilmente en agua y se dispersa aleatoriamente, nunca a la inversa. El desorden representado por la entropía siempre aumenta. El problema de Maxwell era con la vida. Los seres vivos tienen "intencionalidad": ellos deliberadamente hacen cosas que hacen la vida más fácil para ellos mismos. Posiblemente, ellos podrían tratar de reducir la entropía de su entorno y con ello violar la segunda ley de la termodinámica. Esta posibilidad es muy preocupante para los físicos. O algo es una ley universal o no es más que una tapadera para algo más profundo. Sin embargo, fue sólo a finales de 1970 que el demonio jugetón de entropía fue sepultado. Su asesino fue el físico estadounidense Charles Bennett, quien se basó en el trabajo de su colega en IBM, Rolf Landauer, utilizando la teoría de la información desarrollada unas décadas antes por Claude Shannon (ver aquí y aquí). Un ser inteligente sin duda puede reorganizar las cosas para disminuir la entropía de su entorno. Pero para hacer esto, primero debe llenar su memoria, obtener información sobre cómo las cosas se ordenan en primer término. Esta información adquirida debe ser codificada en algún lugar, probablemente en la memoria del demonio. Cuando esta memoria está finalmente llena, se acaba o expira,por lo que se debe restablecer. Al arrojar toda esta información ordenada y almacenada de nuevo al medio ambiente incrementando la entropía - y este aumento de entropía, Bennett mostró, en última instancia, será siempre al menos tan grande como la reducción de la entropía que el demonio originalmente alcanzó. Así, el estado de la segunda ley estaba asegurado, aunque anclado en una mantra de Landauer que habría sido incomprensible para los progenitores de la termodinámica del siglo 19: que "la información es física". Pero, ¿cómo esto explica que la termodinámica sobrevivió a la revolución cuántica? Los objetos clásicos se comportan de manera muy diferente a los cuánticos, por lo que lo mismo es probablemente cierto de la información clásica y cuántica. Después de todo, los ordenadores cuánticos son notoriamente más poderosos que los clásicos. La razón es sutil, y se encuentra en una relación entre la entropía y la probabilidad contenida en tal vez la fórmula más profunda y bella de toda la ciencia. Grabada en la tumba del físico austriaco Ludwig Boltzmann en el cementerio central de Viena, se lee simplemente S = k log W Aquí S es la entropía - la entropía macroscópica, medible por ejemplo de un gas, - y k es una constante de la naturaleza que hoy lleva el nombre de Boltzmann. Log W es el logaritmo matemático de una microscópica y probabilística cantidad, W - en un gas, la cual sería el número de formas de las posiciones y velocidades en que sus muchos átomos individuales se pueden ordenar. A nivel filosófico, la fórmula de Boltzmann representa el espíritu de reduccionismo: la idea de que podemos, al menos en principio, reducir nuestro conocimiento exterior de las actividades de un sistema a básicas leyes físicas microscópicas. En un nivel práctico, físico, nos dice que todo lo que necesitamos para entender el desorden y su aumento son las probabilidades. Sumar el número de configuraciones de los átomos de un sistema puede estar en resolver sus probabilidades, y lo que emerge no es otra cosa que la entropía la cual determina su comportamiento termodinámico. La ecuación no plantea preguntas acerca de la naturaleza de las leyes fundamentales, no nos importa si los procesos dinámicos que crean las probabilidades son clásicos o cuánticos en origen. Hay un punto importante adicional que debe mencionarse aquí. Las probabilidades son cosas fundamentalmente diferentes en la física clásica y cuántica. En la física clásica son cantidades"subjetivas" que cambian constantemente cuando nuestro estado de conocimientos cambia. La probabilidad de que una moneda arrojada al aire dará lugar a cara o cruz, por ejemplo, varía desde ½ a 1 cuando se observa el resultado. Si hubiera un ser que conozca todas las posiciones y cantidades de movimiento de todas las partículas del universo – (conocido como un "demonio de Laplace", después de que el matemático francés Pierre-Simon Laplace, fuera el primero en respaldar la posibilidad )- sería capaz de determinar el curso de todos los acontecimientos posteriores en un universo clásico, y no tendría necesidad de las probabilidades para describirlos. En la física cuántica, sin embargo, las probabilidades surgen de una verdadera incertidumbre acerca de cómo funciona el mundo.Los estados de los sistemas físicos de la teoría cuántica son representados en lo que el pionero de la teoría cuántica Erwin Schrödinger llamó catálogos de información, pero ellos son catálogos en los que la adición de información en una página la borra o restrega a ella hacia fuera sobre otra. Conocer la posición de una partícula más precisamente significa saber menos bien cómo se está moviendo, por ejemplo. Las probabilidades cuánticas son "objetivas", en el sentido de que no pueden ser totalmente eliminadas mediante la obtención de más información. Esto arroja una intrigante luz a la termodinámica como original y clásicamente se formuló. Allí, la segunda ley no es más que una impotencia escrita en la forma de una ecuación. No tiene un origen profundo físico en sí, sino que es un empírico cerrojo para expresar la de otro modo inexplicable realidad que no podemos conocer, predice o presenta todo lo que puede ocurrir, como las leyes de la dinámica clásica sugieren que podemos. Pero esto cambia tan pronto como usted mete a la física cuántica en el cuadro, con su noción de que la incertidumbre está aparentemente conectada en el tejido de la realidad. Arraigadas en las probabilidades, la entropía y la termodinámica adquieren un nuevo y más fundamental anclaje físico. Cabe señalar, también, que esta relación profundamente arraigada, parece ser mucho más general. Recientemente, Vlatko Vedral y Markus Müller del Instituto Perimeter de Física Teórica en Waterloo, Ontario, Canadá, junto a Oscar Dahlsten del Centro Quantum Technologies en Singapur, han visto lo que sucede con las relaciones termodinámicas en una clase generalizada de teorías probabilísticas que abarca a la teoría cuántica y muchas más. Allí también, la relación fundamental entre la información y el desorden, como se cuantifica por la entropía, sobrevive (ver aquï). En cuanto a la gravedad - (la única de las cuatro fuerzas fundamentales de la naturaleza que no está cubierta por la teoría cuántica )- un más especulativo grupo de investigación sugiere que podría ser poco más que la entropía encubierta. Si es así, también traería a la teoría general de la relatividad de Einstein, con la que actualmente describimos la gravedad, firmemente dentro del alcance de la termodinámica. Tome todo esto junto, y comenzamos a tener una idea de lo que hace a la termodinámica tan éxitosa. Los principios de la termodinámica se encuentran en sus raíces que tienen que ver con la teoría de la información. La teoría de la información no es más que una forma de expresión de la forma en que interactuamos con el universo - entre otras cosas, construye teorías para mejorar nuestra comprensión del mismo. La termodinámica es, en términos de Einstein, una "meta-teoría": construida a partir de los principios por encima de la estructura de cualquier ley dinámica que diseñemos para describir el funcionamiento de la realidad. En ese sentido, se puede argumentar que es más fundamental que la física cuántica o la relatividad general. Si podemos aceptar esto y, como Eddington y otros, poner toda nuestra confianza en las leyes de la termodinámica, ello incluso nos puede dar un vistazo más allá del orden físico actual. Parece poco probable que la física cuántica y la relatividad representen las últimas revoluciones de la física. Nuevas pruebas podrían en cualquier momento fomentar su derrocamiento. La termodinámica podría ayudarnos a discernir a cualquier parecida teoría usurpadora . Por ejemplo, a principios de este año, Esther Hänggi y Stephanie Wehner, mostraron que una violación del principio de incertidumbre cuántica - la idea de que usted nunca puede deshacerse de las probabilidades en un contexto cuántico - implicaría una violación de la segunda ley de la termodinámica. Vencer al límite de incertidumbre significa extraer información adicional sobre el sistema, lo que requiere que el sistema haga más trabajo que la termodinámica permite hacer en el correspondiente estado de desorden. Así que si la termodinámica es una guía, todo lo que un mundo post-cuántico podría lucir, nos dejaría con un grado de incertidumbre. (ver aquí). El físico de la Universidad de Oxford David Deutsch, piensa que hay que llevar las cosas mucho más lejos. No sólo cualquier física futura se debería ajustar a la termodinámica, sino que toda la física se debería construir en su imagen. La idea es generalizar la lógica de la segunda ley tal como fue formulada rigurosamente por el matemático Constantin Carathéodory en 1909 (ver aquí): que en las proximidades de cualquier estado de un sistema físico, hay otros estados que físicamente no pueden ser alcanzados si prohibimos cualquier intercambio de calor con el medio ambiente. Los experimentos en el siglo 19 de James Joule con la cerveza se pueden utilizar para ilustrar esta idea. El cervecero Inglés, cuyo nombre perdura en la unidad estándar de la energía, selló la cerveza en una tina térmicamente aislada que contenía una rueda de paletas que se conectaban a pesos que caian bajo la acción de la gravedad. La rotación de la rueda calentaba la cerveza, aumentando el desorden de sus moléculas y por lo tanto su entropía. Pero por más que se intente, simplemente no se puede utilizar el sistema de Joule para disminuir la temperatura de la cerveza, ni siquiera por una fracción de un millikelvin.El enfriador de cerveza es, en este ejemplo,un estado lamentablemente más allá del alcance de la física. La cuestión es si podemos expresar la totalidad de la física simplemente enumerando posibles e imposibles procesos en una situación dada. Esto es muy diferente de la forma como la física es normalmente expresada, tanto en los regímenes clásico y cuántico, en términos de los estados de los sistemas y las ecuaciones que describen cómo estos estados cambian en el tiempo. Los callejones sin salida por donde el enfoque estándar puede conducir son los más fáciles de entender en la física clásica, donde las ecuaciones dinámicas que se derivan permiten toda una serie de procesos que evidentemente no ocurren - tenemos que evocar las leyes de la termodinámica expresamente para prohibir ejemplos tales como moléculas de colorante reagrupándose espontáneamente en el agua. Invirtiendo la lógica, nuestras observaciones del mundo natural pueden volver a llevar la iniciativa en la obtención de nuestras teorías. Observamos las prohibiciones que la naturaleza pone en su lugar, ya sea en la disminución de la entropía, obteniendo energía de la nada, viajando más rápido que la luz, o lo que sea. La última y "correcta" teoría de la física - la de la lógica más ajustada - es aquella en la que la más pequeña desviación nos da algo que rompe los tabúes. Hay otras ventajas en reconstruir la física en tales términos. El tiempo es un concepto perennemente problemático en las teorías físicas. En la teoría cuántica, por ejemplo, el entra como un parámetro extraño de origen desconocido que no puede ser cuantificado. En la termodinámica, por su parte, el paso del tiempo es el aumento de la entropía . Un proceso tal como moléculas disueltas de colorante aglomerándose ofende nuestra sensibilidad, ya que parece equivaler a correr el tiempo hacia atrás tanto como cualquier otra cosa, aunque la verdadera objeción es que disminuye la entropía. Al aplicar esta lógica más general, el tiempo deja de existir como una entidad independiente, fundamental, pero cuya corriente se determina únicamente en términos de procesos permitidos y rechazados. Con él van problemas como el aludido antes, de por qué el universo empezó en un estado de baja entropía. Si los estados y su evolución dinámica en el tiempo dejaran de ser la pregunta, entonces cualquier cosa que no rompa cualquier regla de transformación se convierte en una respuesta válida. Este enfoque probablemente complacería a Einstein, quien una vez dijo: ". Lo que realmente me interesa es si Dios tuvo alguna elección en la creación del mundo" Una formulación termodinámicamente inspirada de la física no puede responder a esta pregunta directamente, pero deja a Dios sin otra opción más que ser un termodinámico. Eso sería un premio singular para aquellos maestros del siglo 19 del vapor de agua: que se toparon con la esencia del universo, totalmente por accidente. El triunfo de la termodinámica sería entonces una revolución a escondidas , a 200 años de su creación. Si bien la termodinámica parece flotar sobre el contenido preciso del mundo físico que describe, ya sea clásico, cuántico o post-cuántico, su conexión con el otro pilar de la física moderna, la relatividad general, puede ser más directa. La relatividad general describe la fuerza de la gravedad. En 1995, Ted Jacobson de la Universidad de Maryland en College Park afirmó que la gravedad podría ser una consecuencia del desorden, cuantificado por la entropía (ver aquí). Su argumento matemático es sorprendentemente simple, pero se apoya en dos relaciones teóricas en disputa. La primera fue argumentada por Jacob Bekenstein en la década de 1970, quien examinaba el destino de la información de un cuerpo tragado por un agujero negro (ver aquí,aquí y aquí). Este es un reto desnudo para la validez universal de la termodinámica: cualquier aumento en el desorden en el cosmos podría ser revertido tras lanzar al sistema afectado en un agujero negro. Bekenstein mostró que esto sería contrarrestado si el agujero negro simplemente creciera en área en proporción a la entropía del cuerpo que estaba tragándose.Entonces, cada pequeña parte de su superficie se correspondería con un bit de información que todavía cuenta en el libro mayor del universo. Esta relación desde entonces ha sido elevada a la categoría de un principio, el principio holográfico, que se apoya en una serie de otras ideas teóricas - pero no todavía por ningún experimento. La segunda relación es la sugerencia de Paul Davies y William Unruh, también por primera vez en la década de 1970, de que un cuerpo acelerado irradia pequeñas cantidades de calor(ver aquí,aquí, aquí y aquí). Un termómetro agitado en torno a un vacío perfecto, donde no hay átomos en movimiento que nos puede proporcionar una concepción normal de su temperatura, grabaría una temperatura distinta de cero. Esta es una idea atractiva pero contraria al sentido común, ya que aceleraciones más allá de las que actualmente se pueden lograr son necesarias para generar radiación suficiente para probar experimentalmente esta idea. Ponga estas dos relaciones especulativas junto con las conexiones estándar, indiscutibles entre la entropía, la temperatura, la energía cinética y la velocidad, y es posible construir una cantidad que matemáticamente se parece a la gravedad, pero que se define en términos de la entropía. Otros ya han sido tentados por la misma ruta, el más reciente Erik Verlinde de la Universidad de Amsterdam en los Países Bajos (ver aquí).Estas teorías, que son de ningún modo universalmente aceptadas, sugieren que cuando los cuerpos caen no es por el efecto de una fuerza separada fundamental llamada gravedad, sino porque el calentamiento que se produce responde mejor a los dictados termodinámicos de que la entropía del universo siempre aumenta.





artículo del físico Vlatko Vedral para Newscientist.





fuente de la información:



http://www.newscientist.com/article/mg21628861.700-the-surprise-theory-of-everything.html?cmpid=NLC|NSNS|2012-1510-GLOBAL|mg21628861.700&utm_medium=NLC&utm_source=NSNS&utm_content=mg21628861.700

viernes, 14 de diciembre de 2012

porqué el Higgs del modelo estándar podría ser un desastre.

Si la partícula descubierta en el CERN este mes de julio es todo lo que se cree que es, hay buenas razones para querer que sea algo diferente . Peter Higgs no logró el Nobel de física de este año después de todo. Ello hubiera sido un final tipo Hollywood para una historia que comenzó hace medio siglo con unos pocos garabatos en su cuaderno, y culminó el 4 de julio de este año con una lágrima en sus ojos cuando los físicos armados con un colisionador de partículas de $ 6,000,000,000 anunciaron que habían encontrado la partícula que lleva su nombre. O algo muy parecido de todos modos.Higgs no era el único que se sentía un poco emotivo ya que el bosón de Higgs completa el gran edificio que es el "modelo estándar" de la materia y sus interacciones fundamentales.Trabajo realizado.

Si las cosas fueran así de simple. Los físicos de partículas se siguen preguntando si esa partícula verdaderamente es el plato fuerte del modelo estándar. Y mientras tanto, pensamientos aún más subversivos están haciendo rondas: si lo es, ¿aún la queremos?Los garabatos de Higgs estaban dirigidos a resolver un problema bastante difícil de comprender. De vuelta en la década de 1960, los físicos estaban excitados con su capacidad para describir los campos y fuerzas electromagnéticos a través del intercambio de fotones sin masa. Desesperadamente querían una teoría cuántica similar para la fuerza nuclear débil, pero rápidamente se toparon con un problema: los cálculos exigían que las partículas que transmitían esta fuerza, ahora conocidos como los bosones W y Z, deberían tambien ser sin masa ,pero en realidad, pesan alrededor de 80 y 90 gigaelectronvoltios (GeV), casi 100 veces más pesados que un protón.La solución que se le ocurrió a Higgs y otros fue un nuevo campo que llena el espacio, dando al vacío una energía positiva que a su vez podría impregnar a las partículas con diferentes cantidades de masa, de acuerdo con lo mucho que interactán con él. La partícula cuántica de este campo era el bosón de Higgs.A medida que el modelo estándar fue tomando forma, se puso de manifiesto lo importante que era encontrar esta partícula. El modelo exigía que en el universo caliente muy temprano las fuerzas nucleares débiles y ectromagnéticas eran una. Fue sólo cuando el campo de Higgs surgió aproximadamente a una mil millonésima parte de un segundo o menos después del Big Bang que el par de fuerzas se dividieron, en una transición catastrófica conocida como ruptura de la simetría electrodébil. Los bosones W y Z engordaron y se retiraron a los confines subatómicos, el fotón, por su parte, escapó sin masa y la fuerza electromagnética ganó su actual infinito alcance. Al mismo tiempo, las partículas fundamentales que componen la materia - cosas tales como los electrones y quarks, colectivamente conocidos como fermiones - interactuaban con el campo de Higgs y adquirieron tambien su masa. Un universo ordenado con una jerarquía establecida de masas surgió de un manicomio sin masa.Es una bonita historia, pero que algunos encuentran un poco artificial. "El mínimo Higgs del modelo estándar es como un cuento de hadas", dice Guido Altarelli del CERN cerca de Ginebra, Suiza. "Es un modelo de juguete para que la teoría coincida con los datos, una muleta para permitir que el modelo estándar camine un poco más, hasta que venga algo mejor". Su problema es que el modelo estándar es manifiestamente incompleto. Predice el resultado de los experimentos con partículas normales a una precisión de varios decimales, pero es frustrantemente mudo con respecto a la gravedad, la materia oscura y otros componentes del cosmos que conocemos o sospechamos que existen. Lo que necesitamos, dicen Altarelli y otros, no es un Higgs estándar en lo absoluto, sino algo sutil o radicalmente diferente - una clave para una teoría más profunda. Sin embargo, hasta el momento, el bosón de Higgs parece frustrantemente simple y llano. La partícula nacida el 4 de julio fue descubierta tras examinar a través de los desechos de miles de millones de colisiones entre protones dentro de los poderosos detectores ATLAS y CMS en el Gran Colisionador de Hadrones del CERN. Para empezar, se ha visto desintegrarse en los bosones W y Z, exactamente lo que usted esperaría de una partícula que los dota a ellos con masa. Aun así, una identificación definitiva depende de las mediciones más incómoda de las propiedades cuánticas de la partícula "La tarea que tenemos ante nosotros ahora es diez veces más difícil de lo que el descubrimiento era", dice Dave Newbold, de la Universidad de Bristol, Reino Unido, un miembro de la colaboración CMS.

 
el bosón de Higgs del modelo estándar tiene que pasar por muchos test,cualquier desviación de su comportamiento esperado podría ser el signo de una largamente esperada "nueva física".Crédito.Newscientist.


Más allá de esto, un Higgs del modelo estándar tiene que decaer no sólo en bosones transmisores de fuerza, sino también en fermiones que componen a la materia. Aquí las aguas son un poco más turbia. La partícula también fue vista desintegrándose en dos fotones, lo cual es una prueba indirecta de que interactúa con el más pesado tipo de quark, el quark top: de acuerdo con la teoría, el bosón de Higgs no puede interactuar directamente con los fotones, ya que no tiene carga eléctrica, por lo cual primero se divide en un par de quarks y antiquarks tops que a su vez irradian fotones. Otra prueba provisional para las interacciones fermionicas provienen de los EE.UU., donde los investigadores del ahora difunto colisionador Tevatron en el Fermilab en Batavia, Illinois, han visto un atisbo de la partícula decaer en quarks bottoms (ver aquí). Pero igualmente, el detector CMS ha medido un déficit de desintegraciones en leptones tau, un primo más pesado del electrón. Si se consolidan estos resultados, se podría comenzar a entrar en conflicto con las predicciones del modelo estándar. Tanto ATLAS y CMS ven más desintegraciones en fotones de lo esperado, tal vez señalando la influencia de nuevos procesos y partículas más allá del modelo estándar. Es demasiado pronto para sacar conclusiones firmes. Porque sabemos bastante bien que la masa de la nueva partícula está alrededor de 125 GeV, o 223 millonésimas de una mil millonésima de un microgramo - podemos precisar las tasas en las cuales ella debería decaer en partículas diferentes con una precisión de alrededor del 1 por ciento, si es el Higgs del modelo estándar. Debido al número limitado de desintegraciones visto hasta ahora, la incertidumbre en la medición en las tasas de desintegración de la nueva partícula es de 20 o incluso 30 por ciento. A finales de año, ATLAS y CMS tendrá alrededor de las dos y media veces los datos utilizados para el anuncio de julio, pero que aún no reducirá la incertidumbre lo suficiente.Entonces, el LHC se cerrará durante un máximo de dos años para ser reacondicionado para colisionar protones a altas energías. " Probablemente no vamos a aprender mucho más acerca de la nueva partícula en el futuro inmediato", dice Newbold. Lo que a los físicos le gustaría para llenar este vacío es un nuevo colisionador. El LHC no es exactamente ideal de todos modos: el colisiona protones y los protones son sacos de quarks y otros componentes que hacen de las mediciones un negocio sucio. Los investigadores están presionando por un más limpio colisionador electrón-positrón, posiblemente en Japón, para cerrar el archivo del Higgs, pero eso también es una perspectiva lejana. Así que nos quedamos con una partícula que se ve como el bosón de Higgs estándar, pero no podemos probarlo completamente. Y eso nos deja frente a un elefante en el túnel del acelerador: si es el Higgs del modelo estándar, ¿cómo puede estar allí en primer lugar?El problema radica en la predicción de la teoría cuántica, confirmada por los experimentos en el anterior mega-acelerador, el Gran Colisionador de Electrones Positrones del CERN, que las partículas absorben y emiten espontáneamente partículas "virtuales" tras pedir prestada energía del vacío. Debido a que el bosón de Higgs en sí mismo reúne masa de todo lo que toca, estos procesos deberían hacer inflar su masa desde la región de 100 GeV a 1019 GeV. En este punto, conocida como la escala de Planck, las fuerzas fundamentales se vuelven locas y la gravedad – la débilmente comparativa de todas ellas - se vuelve tan fuerte como todas las demás. La consecuencia es un universo de alta tensión lleno de agujeros negros y extrañas deformaciones del espacio-tiempo. Una forma de evitar este desastre es ajustar la intensidad de las fluctuaciones de las partículas virtuales que causan el problema, de modo que todas ellas se anulen, frenando a la masa del Higgs y haciendo un universo más como el que vemos. La única manera de hacer eso, manteniendo una apariencia de dignidad teórica, dice Altarelli, es invocar una conspiración provocada por una adecuada nueva simetría de la naturaleza. "Pero donde hay una conspiración debe haber conspiradores". Por el momento, la mayoría de los físicos ven a esos conspiradores en las supercompañeras hipotéticas, o "spartículas", predichas por la teoría de la supersimetría. Una de estas spartículas se asociaría a cada partícula del modelo estándar, con las fluctuaciones de las socias cuidadosamente anulándose entre sí. Estas spartículas deben ser muy pesadas: el LHC se ha unido a las filas de los aceleradores de partículas anteriores para descartar a ellas por debajo de una cierta masa, en la actualidad alrededor de 10 veces la masa del supuesto bosón de Higgs. Eso ya ha ejercido una fuerte presión, incluso en los modelos más simples supersimétricos. Pero no todo está perdido, según James Wells del grupo de teoría del CERN. Si usted no encuentra spartículas con masas más bajas, puede hacer girar la teoría, hasta cierto punto, para que aparezcan en altas masas. "Esperábamos que el bosón de Higgs sería encontrado y que un grupo de apoyo se encontraría con él, pero no necesariamente en la misma escala de energía ", dice. Aun así, las reglas del juego no se pueden cambiar demasiado: si las spartículas son demasiado pesadas,ellas no estabilizarían la masa del Higgs en una convincente manera "natural".Las Spartículas también están acaloradamente buscadas como candidatas para formar la materia oscura del universo. Estas spartículas son un nuevo intento para llenar el vacío entre donde el bosón de Higgs "debe estar" – en la escala de Planck - y dónde se encuentra realmente. El más extraño escenario de todos ellos, sin embargo, es que si no hay más que confusión entre las energías en el que el modelo estándar se mantiene firme y los de la escala de Planck, donde las teorías cuánticas de campo y de la gravedad de Einstein se descomponen. ¿Entonces cómo se explica la enorme discrepancia entre la masa del Higgs real y la predicha por la teoría cuántica?. Una solución es simplemente aceptarlo: si las cosas no fueran así, las masas de todas las partículas y la intensidad de sus interacciones serían muy diferente, la materia tal como la conocemos no existiría, y no estaríamos aquí para preocuparnos por estas cuestiones . Tal razonamiento antrópico, que utiliza nuestra existencia para excluir ciertas propiedades del universo que podrían haber sido posible, a menudo se vincula con el concepto de multiverso - la idea de que existen innumerables universos allí afuera donde toda la física es posible. Para muchos físicos, es una excusa. "Parece como si fuera una excusa para renunciar a explicaciones más profundas del mundo, y no queremos renunciar," dice Jon Butterworth, del University College de Londres, quien trabaja en el experimento ATLAS. Pero un segundo hecho sobre la nueva partícula da una pausa para la reflexión renovada. No sólo es su masa 125 GeV mucho menos de lo que debería ser, ella es casi tan pequeña como pudiera ser sin arrastrar al universo en otra transición catastrófica. Si ella fuera sólo unos pocos Gev más ligera, la intensidad de las interacciones del Higgs cambiaría de tal manera que el estado más bajo de energía del vacío descendería por debajo de cero. El universo podría entonces en algún momento repentino"construir un tunel" en este extraño estado, de nuevo instantáneamente cambiando la configuración completa de las partículas y de las fuerzas y arrasando estructuras tales como los átomos. Como están las cosas, el universo está aparentemente tambaleándose al borde de la estabilidad eterna y la ruina total. "Es una coincidencia interesante que estamos justo en la frontera entre estas dos fases", dice el teórico del CERN Gian Giudice, quien se dedicó a calcular las implicaciones de un Higgs 125 GeV tan pronto como los fuertes indicios primero salieron del LHC en diciembre pasado año (ver aqui , aquí y aquí). Él no sabe cuál es la respuesta. En cualquier caso, el hallazgo de cualquier nueva partícula cambiará el juego una vez más. "Hay muchas preguntas en la historia de la ciencia cuyas respuestas han resultado ser ambientales y no fundamentales", afirma Giudice. "El más mínimo indicio de la nueva física y mi cálculo será olvidado.". Los garabatos de Higgs parecen haberse convertido en realidad - pero para una vuelta de tuerca más satisfactoria para el cuento, debemos esperar algunos otros garabatos mostrando similares signos de vida en breve.


Reflexiones sobre Spin .


Para que una partícula sea confirmada como un bosón de Higgs, debe pasar unas pruebas muy estrictas. El primero es el valor del spin mecánico cuántico Las partículas de materia como los electrones y fermiones - tienen espines de ½. Los Bosones que transmiten fuerzas tienen spin de números enteros: los fotones, por ejemplo, tienen un espín de 1. Para hacer que la física tal como la conocemos trabaje, el campo de Higgs debe tener el mismo aspecto en todas partes. Esto sólo es posible si el Higgs no tiene spin en lo absoluto. Los resultados experimentales de Gran Colisionador de Hadrones del CERN (LHC) ya indican que la partícula anunciada en julio es una partícula de spin-0 o spin-2: la cual se descompone en pares de fotones.Chiara Mariotti de la colaboración CMS del LHC piensa que es "muy probable" que la nueva partícula tiene espín 0 basadas en la evidencia que ya tenemos pero las mediciones más finas son necesarias para estar seguro.El Higgs también debe tener paridad par, lo que significa que se comporta exactamente de la misma manera que cuando se observa en un espejo. Los ajustes por spin y paridad deberían permitir a los físicos identificar defectos de carácter evidentes. Eso debería ser factible con los datos del LHC que se han recogido a finales de año - pero eso es sólo el comienzo del proceso. fuente de la información:



http://www.newscientist.com/article/mg21628901.500-particle-headache-why-the-higgs-could-spell-disaster.html

jueves, 13 de diciembre de 2012

que había antes del Big Bang?.

¿E l cosmos ha existido siempre, o algo lo trajo a la existencia? Es hora de lidiar con el mayor misterio del universo Hay una pregunta difícil de superar. Ha existido siempre el universo? A través de los años, algunas de las mentes más grandes de la física han argumentado que no importa cuán lejos en el tiempo usted vaya, el universo siempre ha estado aquí. Otros han argumentado que lo contrario debe ser verdad - algo debe haber pasado para traer al cosmos a la existencia. Con ambos lados diciendo que las observaciones apoyan sus puntos de vista, hasta hace poco una respuesta a este dilema parecía distante como siempre. Sin embargo, a principios de este año, los cosmólogos Alex Vilenkin y Mithani Audrey afirmaron haber resuelto el debate (ver aquí). Ellos han descubierto las razones por qué el universo no puede haber existido por siempre. Sin embargo, lo que la naturaleza da de mala gana ,con una mano, lo quita con la otra - a pesar de que el universo tenga un principio, sus orígenes se pierden en las brumas del tiempo. La cosmología moderna comenzó en 1916, cuando Einstein aplicó su recientemente formulada teoría de la gravedad, la relatividad general , a la mayor masa gravitatoria que se le ocurrió: el universo entero. Al igual que Newton, Einstein estaba a favor de un universo inmutable - un universo que había existido por siempre y por lo tanto no tuvo un principio. Para lograr esto, Einstein se dio cuenta de que la gravedad que reunía toda la materia en el universo tenía que ser contrarrestada por una extraña repulsión cósmica del espacio vacío. El Universo estático de Einstein era desgraciadamente inestable como el físico inglés Arthur Eddington señaló, ese universo se balanceaba sobre la cuerda floja entre la desbocada expansión y la contracción fuera de control. Un golpe más fuerte llegó en 1929 cuando el astrónomo estadounidense Edwin Hubble observó que las galaxias estaban separándose entre sí como las piezas de una metralla cósmica. La conclusión era que el universo se estaba expandiendo. Sin embargo, si el universo se estaba expandiendo, una consecuencia inevitable era que habría sido más pequeño en el pasado. Imaginense retroceder la expansión a una época en que todo estaba comprimido en un más pequeño volúmen. Este fue el Big Bang . La teoría del Big Bang que se ha desarrollado posteriormente describe la evolución del universo a partir de un estado denso y caliente, pero no dice nada acerca de lo que trajo al universo a la existencia. Eso aún deja cruciales preguntas sin respuesta - ¿qué pasó antes del Big Bang y fue realmente un principio? No es de extrañar, entonces, que la apelación del universo eterno se hizo popular, sobre todo porque esas preguntas incómodas nunca necesitan ser hechas. En 1948, Fred Hoyle, Bondi y Gold Hermann Tommy (ver aquí ) propusieron que, cuando el universo se expandía, nueva materia surgía a la existencia en los espacios entre las galaxias para luego colapsar en nuevas galaxias. De acuerdo a este cuadro del estado estacionario , el universo luce hoy como siempre lo ha sido y lo será. No tiene principio, simplemente ha existido siempre. Sin embargo, la teoría del estado estacionario fue echada por tierra por dos observaciones. La primera fue el descubrimiento en la década de 1960 que el distante, y por lo tanto temprano universo no parece el mismo que el universo actual. La segunda fue el descubrimiento en 1964 del fondo de microondas cósmico, el resplandor caliente de la bola de fuego del Big Bang. Más recientemente, el satélite WMAP de la NASA ha realizado mediciones detalladas de este fondo cósmico y ha demostrado que el Big Bang se produjo hace 13.7 mil millones años.
hay varias formas en las cuales el universo pudo haber existido por siempre teniendo cada una de ellas sus deficiencias a)En un universo cíclico universos 4D colisionan repetidamente en una 5ª dimensión creando eventos de Big Bang b)En una inflación eterna los universo siempre han estado inflándose desde el vacío y siempre lo harán c) En un universo emergente ,un universo pequeño ha existido por siempre y repentinamente se inflará hasta su actual tamaño.Crédito.Newscientist..



Un nuevo golpe para el universo eterno vino de la teoría. En la década de 1960, Roger Penrose y Stephen Hawking eran dos jóvenes teóricos de la Universidad de Cambridge. Su trabajo demostró (ver aquí)que si se invierte la expansión del universo, es imposible evitar llegar a un punto conocido como singularidad, donde los parámetros físicos tales como la densidad y la temperatura se dispara hasta el infinito. Fundamentalmente, la física que conocemos falla en una singularidad por lo que es imposible predecir lo que se encuentra en el otro lado. De acuerdo con Penrose y Hawking, el Big Bang realmente debe ser el principio. Así, la historia de nuevo? Bueno, no. Resulta que hay una escapatoria en los teoremas de singularidad de Penrose y Hawking. De acuerdo con las leyes de Newton , la atracción gravitacional de un objeto depende sólo de su masa. La visión de Einstein demostró que la fuerza de la gravedad también depende de la densidad de energía de un objeto y, crucialmente, de su presión. Al derivar sus teoremas poderosos, Penrose y Hawking habían asumido que la presión del espacio es siempre pequeña y positiva. Pero ¿qué pasa si se equivocaban? "Es sólo por esta posibilidad que se ha abierto el camino a las modernas teorías cosmológicas en el que el Big Bang no es un comienzo para nada", dice Vilenkin. "La principal de ellas es la inflación." La inflación, una teoría que Vilenkin ayudó a crear, comienza con un vacío en un estado de energía inusualmente alta y con una presión negativa. En conjunto, esto da al vacío la gravedad repulsiva que empuja a las cosas a separarse y no atraerse entre sí. Esto infla al vacío, haciéndolo más repulsivo, lo que causa que se infle aún más rápido. Pero el vacío inflacionario es cuántico en su naturaleza, lo que lo hace inestable. Por todo ello y en forma aleatoria pequeñas porciones de este vacío inflacionario decaen hacia el vacío ordinario cada día .Imaginen el vacío como un vasto océano de agua hirviendo, con burbujas formándose y expandiéndose en toda su longitud y anchura. La energía del vacío inflacionario tiene que ir a alguna parte, por lo que se utiliza para la creación de la materia y su calentamiento a una temperatura feroz dentro de cada burbuja. Por lo que se crean Big Bangs. Nuestro universo está dentro de una de tales burbujas de tal manera que apareció en una gran explosión hace 13.7 mil millones de años. Uno de los rasgos más llamativos de la inflación es que es eterna. Nuevo vacío de alta energía se crea mucho más rápido del que se pierde por su decadencia en vacío ordinario, lo que significa que una vez que la inflación comienza, nunca se detiene y universos burbuja emergerán para siempre en el futuro. Pero debido a que la inflación eterna evita la temida singularidad, se abre la posibilidad de que siempre ha sido el caso de que universos burbujeantes emergieran para siempre en el pasado también. La inflación es compatible con todas nuestras observaciones y Vilenkin está bastante seguro de que es fundamentalmente correcta. Sin embargo, hay un problema con la inflación eterna, que Vilenkin descubrió por primera vez en el 2003 (ver aquí ), cuando se unió a Arvind Borde del Southampton College de Nueva York y el pionero de la inflación Alan Guth, del Instituto de Tecnología de Massachusetts. Ellos calcularon lo qué pasaría en un universo cada vez mayor y no hicieron suposiciones sobre la energía o la gravedad. Su teorema simplemente asume que en promedio, el universo se expande. "Para nuestra sorpresa, mostró que el espacio-tiempo no continúa para siempre en su mayor parte las direcciones anteriores", dice Vilenkin. "La inflación tiene que tener un principio." Sin embargo, la inflación no es la única protagonista en el juego. Así pudieron los escenarios alternativos tener un principio? A principios de este año, Vilenkin se asoció con Audrey Mithani, su colega en la Universidad Tufts en Medford, Massachusetts, para examinar dos de los principales escenarios cosmológicos alternativos (ver aquí). El primero es el "universo cíclico", desarrollado dentro de la teoría de cuerdas ( ver "aquí). En este escenario, nuestro universo es una isla de cuatro dimensiones, o "brana", en un espacio dimensional superior. Ella choca repetidamente con una segunda brana (ver el diagrama arriba). Piense en las dos branas como dos rebanadas de pan, paralelas que se unen a lo largo de una quinta dimensión, pasando a través una de la otra, separándose de nuevo, y entonces volviéndose a unir. Cada vez que las branas se tocan, su tremenda energía de movimiento a lo largo de la quinta dimensión crea la materia en cada brana y la calienta a tremendas temperaturas. Para los observadores en la brana, se ve exactamente igual a un Big Bang y llevaría a los mismos patrones en el fondo de microondas cósmico y la distribución de las galaxias. Sin embargo, es un Big Bang sin un principio, dicen Turok y Steinhardt, debido a que los ciclos han estado repitiendose por toda la eternidad. Sin embargo, Vilenkin y Mithani han demostrado que el universo cíclico no puede continuar indefinidamente hacia el futuro y el pasado. De acuerdo con la teoría, la materia en las branas se expande más en cada ciclo y esto significa que el teorema de Borde-Guth-Vilenkin de la existencia de un principio del universo sigue siendo válida. "Si ejecutas hacia atrás el universo cíclico como una película al revés, encuentras ya sea una singularidad o algún tipo de inicio como la inflación", dice. Otro escenario cosmológico considerado por Vilenkin y Mithani es aún más raro que el universo cíclico y la inflación. Este es el "universo emergente" imaginado por George Ellis, de la Universidad de Ciudad del Cabo en Sudáfrica y Maartens Roy de la Universidad de Portsmouth, Reino Unido (ver aquí). Ellos comienzan con un pequeño universo estático, que existe en este estado por una cantidad infinita de tiempo para que de repente sea impulsado a inflarse. Estos escenarios se plantean en la teoría de cuerdas, así que la idea no es del todo de la nada. "Es una situación un tanto desesperada", dice Vilenkin. Para modelar un universo eternamente dormido que emerge no es sencillo. De la misma manera que el universo estático de Einstein era inestable y necesitaba el ingrediente adicional de la repulsión cósmica, Ellis y Maartens sólo pueden estabilizar el suyo con dos ingredientes extraños: un vacío con energía negativa, y las líneas de fallas en el espacio-tiempo conocidas como paredes de dominio que son una característica de algunos modelos de la física de partículas.Las paredes de dominio deberían dejar una huella en la temperatura de la radiación de fondo de microondas cósmico, que no ha sido vista, pero esto puede ser explicado si ellas se diluyeron por la inflación. Vilenkin y Mithani son críticos del enfoque de Ellis y de Maartens. "A primera vista parece que han inventado un universo estable", dice Vilenkin. "Sin embargo, nos encontramos con que sólo es estable si se ignoran los efectos de la teoría cuántica." Según la teoría cuántica, el universo no puede permanecer en su tamaño mínimo para siempre - hay una posibilidad de que espontáneamente se derrumbaría. "Aunque la probabilidad puede ser muy pequeña, ya que una cantidad infinita de tiempo disponible, es inevitable", dice Vilenkin. "Por lo tanto, si vivimos en un universo emergente, no puede haber existido por siempre." Según Maartens, este resultado de inestabilidad cuántica "no es razonable". Sin embargo, no es seguro que esto inevitablemente implique un comienzo al universo. "Me parece que esta es una cuestión mucho más profunda, que requiere por lo menos una teoría madura de la gravedad cuántica ", dice. "Desafortunadamente, no tenemos eso". En el contexto de la física conocida, sin embargo, Vilenkin y Mithani concluyen que, de cualquier forma en que se mire, el universo no puede haber existido siempre, así debe haber tenido un comienzo. Pero, ¿cómo empezó? Según Vilenkin, la teoría cuántica tiene una solución, ya que permite que algo aparezca de la nada - con ese algo siendo un pequeño universo que comienza a inflarse, cíclicamente o sostenido por un tiempo muy largo antes de inflarse. ¿Podemos realmente estar seguros ahora de que el universo tuvo un principio? O estamos en un ciclo infinito de creencia e incredulidad sobre el asunto? "Por primera vez en la historia, tenemos las herramientas para hacer frente a la cuestión del origen científicamente", dice Vilenkin. "Así que tengo la sensación de que estamos acercándonos a la verdad." Cualquier esperanza de nosotros para observar el origen se está desvaneciendo, sin embargo. Poco después de que Vilenkin y Mithani publicaron su argumento, el físico Leonard Susskind de la Universidad de Stanford en California respondió con dos papeles (ver aquí). Él argumenta que debido a que el espacio se infla de manera exponencial, el volumen del vacío en los últimos tiempos es abrumadoramente mayor que en épocas anteriores. Con muchos universos burbuja más en existencia, lo más probable es que el parche de vacío que llamamos hogar se formó más tarde también. El verdadero comienzo es probable que haya sido hace un tiempo terriblemente largo - tan lejos, que no dejó huella en el universo que ha sobrevivido. "Creo que es una situación paradójica el decir que tiene que haber habido un comienzo, pero es con certeza antes de cualquier tiempo nombrable", dice Susskind. Vilenkin lo reconoce. "Es irónico", dice. "El universo puede tener un principio, pero nunca podremos ser capaces de saber exactamente lo que el principio era". Sin embargo, los cosmólogos tienen un montón de otras grandes preguntas para mantenerlos ocupados. Si el universo tiene su origen en la teoría cuántica, la teoría cuántica tiene que haber existido antes de que el universo. Así que la siguiente pregunta es, sin duda: ¿de dónde las leyes de la teoría cuántica vienen? "No lo sé", admite Vilenkin. "Considero que es una cuestión totalmente diferente." A la hora del comienzo del universo, en muchos sentidos aún estamos en el principio.




fuente de la información:




http://www.newscientist.com/article/mg21628932.000-before-the-big-bang-something-or-nothing.html