lunes, 14 de enero de 2013

alternativas para explicar la energía oscura se están quedando sin espacio.

-Una investigación realizada por, el profesor de astronomía de la Universidad de Arizona Rodger Thompson considera que una popular alternativa a la teoría de la constante cosmológica para la explicación de la aceleración de la expansión del universo no se ajusta a los nuevos datos obtenidos en una constante fundamental ,la proporción de la masa del protón a la del de electrón .


 
la aceleración de la expansión de las galaxias observada en el campo ultraprofundo del Hubble puede ajustarse más a una constante cosmológica que a una popular teoría alternativa de la energía oscura según nuevo estudio.Credito: NASA; ESA; G. Illingworth, D. Magee, and P. Oesch, University of California, Santa Cruz; R. Bouwens, Leiden University; and the HUDF09 Team.


Los Hallazgos de Thompson, se reportan el 9 de enero en la Sociedad Astronómica de Estados Unidos reunida en Long Beach, California, impactan nuestra comprensión del universo y apuntan a una nueva dirección para un más profundo estudio de su expansión acelerada (ver aquí,aquí). Para explicar la aceleración de la expansión del universo , los astrofísicos han invocado a la energía oscura - una forma hipotética de energía que permea todo el espacio. Sin embargo la teoría popular de la energía oscura, no se ajusta a los nuevos resultados sobre el valor de la masa del protón dividida por la masa del electrón en el universo temprano. Thompson calculó el cambio previsto en la relación por la teoría de la energía oscura (generalmente conocida como ondulados campos escalares) y encontró que no se ajustaba a los nuevos datos. Brian Schmidt, junto con Saul Perlmutter y Reiss Adán, ganaron el Premio Nobel de Física del 2011 por demostrar que la expansión del universo se está acelerando en lugar de frenarse como se pensaba. La aceleración se explica por el restablecimiento de la " constante cosmológica " en la teoría de la Relatividad General de Einstein . Einstein introdujo originalmente el término para que el universo fuera estático. " Cuando se descubrió más tarde que el universo se estaba expandiendo, Einstein llamó a la constante cosmológica "su mayor error". La constante fue reinstalada con un valor diferente para que produzca la aceleración observada de la expansión del universo. Los físicos al tratar de calcular el valor con la física conocida, sin embargo, obtienen un número de más de 10 a la potencia de 60 (un uno seguido de 60 ceros) demasiado grande - un número verdaderamente astronómico. Fue entonces cuando los físicos se volvieron hacia nuevas teorías de energía oscura para explicar la aceleración. En su investigación, Thompson coloca la más popular de esas teorías a prueba, concentrándose en el valor de una constante fundamental (que no debe confundirse con la constante cosmológica), la masa del protón dividida por la masa del electrón. Una constante fundamental es un número puro sin unidades tales como la masa o la longitud. Los valores de las constantes fundamentales determinan las leyes de la física. Cambie el número y las leyes de la física cambian. Cambie las constantes fundamentales en una gran cantidad, y el universo se vuelve muy diferente de lo que observamos. El nuevo modelo físico de la energía oscura que Thompson probó predice que las constantes fundamentales cambiarán por una pequeña cantidad. Thompson identificó un método para medir la relación de la masa del protón a la del electrón en el universo temprano hace varios años, pero es sólo recientemente que los instrumentos astronómicos se convirtieron en lo suficientemente potente como para medir el efecto. Más recientemente,el determinó la cantidad exacta de cambios que muchas de las nuevas teorías predicen. El mes pasado, un grupo de astrónomos europeos, utilizando un radio telescopio en Alemania, hicieron la medición más precisa de la relación de las masa del protón y del electrón- jamás logrado y encontraron que no ha habido ningún cambio en la proporción en una parte en 10 millones en un momento en que el universo tenía la mitad de su edad actual, alrededor de 7 mil millones de años (ver aquí). Cuando Thompson puso esta nueva medición en sus cálculos, encontró que excluía a casi todos los modelos de energía oscura usando los valores comúnmente esperados o parámetros.Si el espacio de parámetros o rango de valores es similar a un campo de fútbol, entonces casi todo el campo está fuera de límites, excepto por un único sector de 2-pulgadas por 2-pulgadas en una esquina del campo. De hecho, la mayoría de los valores permitidos no están incluso en el campo"En efecto, las teorías de energías oscuras han estado jugando en el campo equivocado ", dijo Thompson. "El cuadrado de 2 pulgadas contiene el área que corresponde a ningún cambio en las constantes fundamentales , y esa es exactamente donde Einstein(la constante cosmológica) sigue en pie. Thompson espera que los físicos y astrónomos que estudian la cosmología se adaptarán al nuevo campo de juego, pero por ahora, "Einstein se encuentra en posición ventajosa, esperando que todos los demás se pongan al día."





fuente de la información:






http://phys.org/news/2013-01-dark-energy-alternatives-einstein-room.html

diferentes puntos de vista sobre una extraña desintegración.

La medición de un raro decaimiento de un mesón es un logro digno de celebración experimental, pero hasta ahora nada indica nueva física más allá del modelo estándar. Una de las misiones más importantes del Gran Colisionador de Hadrones del CERN es la búsqueda de fenómenos que no pueden ser explicados por el modelo estándar de la física de partículas. En este contexto, el último resultado del experimento LHCb, publicado en Physical Review Letters, es una victoria agridulce [ ver aquí ]. La colaboración LHCb ha, por primera vez, observado evidencia de la descomposición muy rara de un mesón neutro en un par de muones. Sólo alrededor de una de cada 300 millones de desintegraciones de mesones sucede de esta manera, y no es poca cosa que el LHCb haya sido capaz de detectar los pocos que lo hacen. La velocidad a la cual ocurre el decaimiento también está de acuerdo con el valor calculado mediante el modelo estándar, un éxito teórico teniendo en cuenta la complejidad de los cálculos. Pero muchos físicos de partículas tenían la esperanza de que el acuerdo entre teoría y experimento no sería tan bueno, ya que una desviación habría sido una señal de que nueva física estaba en juego. Hasta ahora, no hay tales signos, pero en el futuro, la precisión de la medida mejorará considerablemente, permitiendo potencialmente que más pequeñas desviaciones de las predicciones del modelo estándar sean detectadas.
fig nº1,diagrama de Feynman representando el decaimiento de un neutral mesón Bsº a un par de muones μ+μ- la esfera verde en la parte izquierda señala al mesón el cual es un estado ligado de un quark strange y un antibottom quark .Este iradia dos bosones W e intercambia un quark top en el proceso.Los bosones W se fusionan en un bosón Z el cual produce a su vez los dos muones en el estado final.Crédito.APS/Alan Stonebraker.


A pesar de sus éxitos, el modelo estándar de la física de partículas elementales nos ha dejado una serie de misterios. En el modelo, hay seis quarks. Tres de los quarks el Up, el Charm, y el Top tienen carga eléctrica 2/3 Y tres, el down, el strange, y el bottom tienen carga eléctrica -1/3 Al día de hoy no tenemos ninguna idea de por qué tenemos seis quarks y no, por ejemplo,solo dos (el up y el down) con los cuales formar a los protones y neutrones, los pilares fundamentales de la materia ordinaria. Otro enigma es el llamado problema del sabor: no entendemos por qué las masas de los seis quarks son lo que son, o por qué varían en varios órdenes de magnitud. Las lagunas en nuestro conocimiento son un poco como tener la tabla periódica sin saber que los átomos consisten en electrones y núcleos. Pero esta analogía tiene sus límites: según nuestro conocimiento, los quarks son elementales a una escala de 10-20 metros. Una forma de responder a nuestras preguntas es el estudio de las interacciones de partículas que involucran a los quarks atípicos, el top y el bottom , ya que sus masas son mucho mayores que las masas de los otros quarks. (El quark Bottom es, por ejemplo, casi 1000 veces más masivo que el quark down .)En los últimos 15 años, los físicos de partículas han así investigado las propiedades del quark bottom mediante la medición de las desintegraciones de –Mesones B, que son estados ligados entre un quark antibottom y otro quark. Antes del LHCb, estos experimentos fueron conducidos por 2 instalaciones una en el KEK, en Japón, y la otra en el SLAC en California, además del Tevatron en el Fermilab. En la búsqueda de nueva física, el mejor lugar para comenzar es donde la teoría actual dice que un evento no es probable que suceda: cualquier desviación sería grande en comparación con lo que esperamos. Es por ello,que el LHCb y los experimentos anteriores se han centrado en la búsqueda de la descomposición extremadamente rara de mesones Bsº estados ligados de un quark extraño y un quark-antibottom en un par de muones (ver Fig. 1). Los mesones son eléctricamente neutros y más del 90 % de ellos decaen a un Mesón D(un mesón que contiene un quark charm) y otras partículas. Pero el modelo estándar predice que una pequeña fracción de los Mesones Bsº 3.23±0.27x10-9 Decaen a un par de muones [ ver aquí ]. ¿Por qué es esta desintegración tan rara? Por un lado, el Bsº tiene spín cero, pero debido a las interacciones del modelo estándar que conducen a la descomposición, los muones terminan con un spín total de 1. Para conservar el momento angular de espín, un muón por tanto, debe voltear su spin, un proceso suprimido por el tamaño de la masa del muón respecto a la masa del meson Bsº al cuadrado-un factor de alrededor de 3x10-4. El segundo factor supresor existe porque en el decaimiento del , Bsº un quark bottom y un quark extraño se aniquilan en muones. Pero una característica especial del modelo estándar es que las transiciones que imvolucran quarks con la misma carga, como es el caso aquí, están muy suprimidas. (Makoto Kobayashi y Toshihide Maskawa recibieron el Premio Nobel 2008 por su contribución a nuestra comprensión de este importante punto (ver aquí).) Experimentalmente se trata de un enorme desafío observar tal decaimiento raro. Aunque las instalaciones de experimentación con mesones B tienen una luminosidad muy alta, a diferencia del LHC, en gran parte trabajan por debajo del umbral de energía para la producción del mesón Bsº. El experimento CDF en el Tevatron [ver aquí,aquí y aquí ] establece los mejores límites a la tasa de desintegración de los mesones Bsºantes que el LHC, pero no alcanzando la sensibilidad del nuevo acelerador de partículas. Ahora, la medición del LHCb muestra que la tasa fraccional de la rara desintegración es 3.2±(1.51.2)x10-9. Es una de las más raras desintegraciones jamás observadas y que está de acuerdo con el modelo estándar dentro de los errores experimentales, aunque estos errores, en 40%, son todavía bastante grandes. La serie de factores de supresión antes expuestos es propio de la estructura del modelo estándar. Dado que la desintegración es tan rara, incluso una modesta contribución de la nueva física podría eclipsar la física del modelo estándar. En los días previos al último experimento del LHCb, las esperanzas eran altas de que los experimentadores podrían observar una anomalía en la tasa de desintegración, lo que podría proporcionar pistas para una solución al problema del sabor. Ahora sabemos que cualquier teoría candidata a la nueva física debe predecir nuevas aportaciones a esta desintegración especial para ser incluso más pequeñas que lo que el modelo estándar predice. Como resultado de ello, se ha sugerido en un artículo de la BBC News (ver aquí) que la medición del LHCb ha asestado un "duro golpe" a la extensión más estudiada del modelo estándar, la supersimetría. En mi opinión, esto no es del todo cierto, pero algunos antecedentes es necesario que se expliquen. La supersimetría conjetura que todas las partículas conocidas tienen una respectiva "supercompañera", que sólo se diferencia por la mitad de una unidad de spin-todos los otros números cuánticos son los mismos. Así, por ejemplo, el electrón, un fermión, tiene una supercompañera llamada el electrón escalar, o selectrón para abreviar. El selectrón es lo mismo que el electron en todos los sentidos, excepto que tiene espín cero, y es por lo tanto un bosón. Además, su masa debe ser mayor. Hay muchas versiones de la supersimetría. Resulta que en la"mínima" versión de la teoría, es decir, en la que se tiene el menor número de acoplamientos entre las partículas, la desintegración del meson Bsº también se suprime, pero por una combinación diferente de factores de los que aparecen en los cálculos del modelo estándar. Por un lado, aunque no se requiere el volteo del spin , la interacción supersimétrica implicada es suprimida por exactamente el mismo factor de la masa del muón sobre la masa al cuadrado del meson Bsº . Y segundo, sabemos a partir de la búsqueda experimental de las partículas supercompañeras que, si existen, deben ser mucho más pesadas que sus contrapartes del modelo estándar, normalmente con masas superiores a los 1000 Gev/c2 [ ver aquí ].En el cómputo supersimétrico, estas partículas entran como (pesadas) partículas virtuales, y así suprimen el decaimiento del mesón. (En la fig. 1, los quarks up,charm y top y los Bosones W son tales partículas virtuales.) La combinación de estos factores conduce a una predicción de la velocidad de desintegración del Meson Bsº en un par de muones que es compatible con el rango observado en los experimentos [ver aquí,aquí,aquí y aquí] . Lo que la medición del LHCb ha excluido son algunas otras, muy motivadas, no minimas versiones de la supersimetría. Estas versiones de la teoría no cuentan con las cancelaciones especiales y habrían dado lugar a una tasa mucho más alta de la desintegración que lo observado por el LHCb. El LHC pronto se cerrará para una actualización de dos años. Posteriormente lo hará incrementando desde 8 tera-electrón- voltios (TeV), en el que se ejecuta actualmente, hasta 14 TeV, y la luminosidad también se incrementará. La luminosidad adicional conducirá a un aumento de la producción de mesones Bsº y así a una reducción del error experimental en las mediciones del LHCb por cerca de un factor de 3 en el 2018 [ ver aquí] . En las luminosidades aún más altas que deberían ser posible en el LHC,el LHCb se cree puede reducir el error en alrededor de menos de 5 % , que está por debajo del nivel actual del error en los cálculos teóricos. En este punto se va a empezar a poner al modelo estándar a un examen más riguroso.





artículo del físico Herbert Dreiner para physics.aps.





fuente de la información:






http://physics.aps.org/articles/v6/3