miércoles, 26 de junio de 2013

positrones en abundancia.

La antimateria es rara en el universo actual. Por lo que sabemos, todo vestigio de la antimateria producida en el Big Bang desapareció hace mucho tiempo en las reacciones de aniquilación con las partículas de materia.. Lo que esto significa es que cualquier partícula de antimateria que podamos detectar en el flujo de rayos cósmicos energéticos cercanos a la Tierra debe de haber sido creada por "nuevas" fuentes dentro de nuestra galaxia, la Vía Láctea. (Partículas de antimateria desde fuentes extragalácticas también son concebibles, pero son extremadamente poco probable que lleguen a la Tierra antes de perder toda su energía o aniquilarse.) Por lo que hay una cantidad limitada de antimateria energética en el espacio cercano a la Tierra, las antipartículas sirven como única mensajeras de fenómenos de alta energía en el cosmos, o como firmas de nueva física exótica. Ahora, un estudio muy esperado sobre los rayos cósmicos de positrones, la antipartícula del electrón fue publicado en la revista Physical Review Letters por la colaboración que trabaja en el Espectrómetro Magnético Alfa (AMS), un detector de partículas experimental a bordo de la Estación Espacial Internacional, que orbita la Tierra [ver aquí]. En el primer informe científico del AMS, un experimento que inició la toma de datos en mayo de 2011 la colaboración presentó una medición de la "fracción de positrones," la relación entre el número de positrones al número total de electrones más positrones, a energías que van desde 0 . 5 a 350 giga-electron-volts (GeV ) (ver Fig. 2).. Los 400.000 positrones que han medido constituyen el mayor conjunto de datos de positrones de rayos cósmicos, aumentando la muestra total mundial por cien.. Además, el rango de la fracción de los positrones reportados se extiende a unos pocos cientos de GeV, más allá del alcance de los experimentos anteriores volando en globos de gran altitud [ ver aquí ,aquí y aquí] o a bordo de los tranbordadores y satélites [ ver aquí, aquí y aquí] Las características de la distribución de positrones del AMS son una prueba contundente, con detallada estadística sin precedentes de lo que se había reportado anteriormente por los experimentos de satélites: un exceso de positrones sobre lo que se esperaba de los fenómenos energéticos galácticos conocidos. Hay una promocionada y tentadora posibilidad-de que este exceso podría ser una firma de la materia oscura, aunque es demasiado pronto para descartar explicaciones más prosaicas. La antimateria surge como un subproducto de los núcleos de los rayos cósmicos ordinarios interactuando con el gas interestelar diluido. Por ejemplo, cuando un energético protón de rayo cósmico es producido por el remanente de una supernova choca con el núcleo de un átomo de hidrógeno en el medio interestelar, la interacción puede producir piones. Estas partículas se desintegran en muones y, en última instancia, en electrones y positrones en igual número. Por lo tanto los electrones y positrones energéticos que llegan a la Tierra consistirían en una mezcla de "primarios" electrones cargados negativamente, desde las mismas fuentes astrofísicas que producen los núcleos de rayos cósmicos y positrones adicionales "secundarios" junto con electrones de la interacción de los rayos cósmicos (ver fig. 1). En base a los modelos de interacciones de las partículas y los procesos de transporte en la Galaxia [ ver aquí, aquí y aquí ], los astrofísicos de partículas predicen una fracción de positrones (en la Tierra) que disminuye, monótonamente, a energías mayores que 1 GeV (Ver la banda gris en la fig. 2).
fig 1, el flujo de partículas de alta energía cerca de la Tierra(radiación cósmica)puede venir desde varias fuentes.Partículas "Primarias" (en verde) provienen desde la fuente original de radiación cósmica(típicamente el remanente de una supernova).Partículas "Secundarias" (en amarillo) provienen de la colisión de las particulas primarias con el gas interestelar produciendo piones y muones los cuales decaen en electrones y positrones.Una interesante tercera posibilidad es que los electrones y positrones (en púrpura) sean creados por la aniquilación de partículas de materia oscura en el halo y dentro de la Vía Láctea.Crédito.GALEX, JPL-Caltech, NASA; Drawing: APS/Alan Stonebraker.



fig 2,la imágen muestra la fracción de positrones en rayos cósmicos de alta energía.Las nuevas mediciones del AMS se extienden sobre un amplio rango de energía y tienen mucho menos incertidumbre que las anteriores mediciones hecha por los satélites PAMELA y Fermi-Lat u otros experimentos con globos .Las mediciones del AMS confirman un exceso en la fracción de positrones de alta enegía sobre lo que es esperado de positrones producidos en interacciones de la radiación cósmica(la banda gris en la imágen señala el rango esperado en la fracción de positrones basada en cálculos).Crédito.M. Aguilar.


Hace unos 20 años, este cuadro fue motivado en gran parte por los espectrómetros de vuelo en misiones de globos de gran altitud (por ejemplo los experimentos, HEAT, TS93 y CAPRICE ) Pero también hubo indicios de un cambio de comportamiento en las energías más allá de unos 10 GeV , Donde una fracción de positrones más grande de lo esperado, parecía indicar la posibilidad de una fuente adicional, desconocida de antimateria. Más tarde, los instrumentos-llevados al espacio como el AMS-01 (un prototipo del AMS),el PAMELA y el Fermi-LAT-fueron capaces de medir este aumento de la fracción de positrones sustancialmente con mejores estadísticas y en una gama más amplia de energía . No ha habido escasez de especulaciones sobre lo que podría producir el exceso de positrones por encima de 10 GeV . Una idea es que cuerpos cósmicos relativamente cercanos, como los púlsares, actúan como aceleradores y colisionadores que producen antimateria [ ver aquí ], al igual que nuestro terrestre Gran Colisionador de Hadrones. Pero la posibilidad más interesante es que los positrones procedan de la aniquilación de partículas de materia oscura, llenando la Vía Láctea y su halo[ ver aquí ]. La materia oscura es, después de todo, una forma dominante de la materia-energía del Universo, pero no sabemos su naturaleza corpuscular o cómo interactúa consigo misma y con la materia normal (que no sea a través de las interacciones gravitatorias). No es una exageración decir que la identificación de la materia oscura es uno de los mayores problemas de la ciencia moderna. Esta es la razón del porqué? la comunidad astrofísica de partículas ha estado esperando con impaciencia la confirmación de la característica fracción de positrones vistos por PAMELA y Fermi-LAT. El AMS es el más complejo experimento de física de partículas en el espacio. El incluye una batería de detectores que pueden identificar la masa, carga, y la energía de las partículas y antipartículas con alta precisión, en particular, mediante el seguimiento de la desviación de las partículas a través de un imán permanente situado en el centro del instrumento. Esta última es una capacidad que el Fermi-LAT no tiene, y es una de las razones por la qué había tan grandes incertidumbres en su espectro de positrones. Y todos estos experimentos de detección se enfrentan al reto de identificar con precisión los positrones a energías altas, donde el fondo es abundante. Un positrón-100 GeV se asemeja a un protón de 100 GeV en muchos aspectos, pero los protones superan en número a los positrones por unos tres órdenes de magnitud-un problema que se agrava con la energía. Los nuevos resultados del AMS coinciden perfectamente con lo que observó PAMELA, lo que refuerza la tendencia de que la fracción de positrones aumenta con la energía, pero esta vez, con estadísticas sin precedente y controles del fondo. Aunque existe una aparente discrepancia entre Pamela y los nuevos datos del AMS por debajo de alrededor 2 GeV , ello no es una preocupación: las partículas cósmicas tienen que nadar contra la corriente en contra del viento solar para llegar a la Tierra y los efectos de esta "modulación solar" en las poblaciones de partículas pueden ser diferentes para los dos instrumentos. Tales efectos deberían ser insignificante más allá de algunos GeV . . Con tantos experimentos que apunta a un exceso de antimateria, ahora estamos en condiciones de hacer la siguiente pregunta: ¿De dónde viene? Esto puede tomar un tiempo para resolverse. Hay muchos escenarios teóricos, todos con bastantes incertidumbres que parecen infinitamente adaptable a cada capricho, problema o indicios de estructura en el espectro de positrones. Uno puede invocar rayos gamma energéticos que se convierten en pares electrón-positrón en la proximidad de los polos magnéticos de los púlsares [ ver aquí ]. Uno puede imaginar que los positrones se producen en la desintegración de los radioisótopos en un acelerador cósmico, como por ejemplo un remanente de supernova [ ver aquí ]. Y existe la posibilidad emocionante de que todos estos experimentos han visto la señal de "pistola humeante" de partículas de materia oscura aniquilandose en el halo galáctico [ver aqui ]. Existen importantes incertidumbres de modelado en todos estos escenarios, pero las ideas son atractivas y permanecen animadas para la especulación.Aunque la colaboración AMS no especula en su primer informe. Sin duda muchas ideas serán generadas junto con intentos para adaptar la fracción de positrones del AMS a modelos favorecidos, mientras se acomodan las limitaciones que vienen de otros experimentos [ ver aquí, aquí , aquí ]. Pero tal vez una respuesta definitiva vendrá en breve. Por un lado, los nuevos datos del AMS tienen una sensibilidad sin precedentes a la curvatura y características en el espectro de positrones. Ya podemos ver un cambio significativo de la pendiente en la fracción de positrones cerca de 100 GeV que tendrá que ser explicada. El AMS está a sólo dos años de su vida útil prevista de diez años (o más). Hay predicciones de que las barras de error en los datos disminuirán aún más. También debe haber mediciones de la fracción de positrones del espectro hasta energías más altas, y una medición separada de los espectros de energía absoluta de positrones y electrones. Pero tendremos que ser pacientes: los flujos de partículas disminuyen rápidamente con la energía, por lo que la acumulación de datos precisos sobre 200 GeV será un asunto muy lento. Mientras tanto, habrá una gran cantidad de otros datos que provienen del AMS. El experimento está en una excelente posición para identificar los antiprotones, los núcleos de los rayos cósmicos, y más especulativamente, para buscar antinúcleos.






articulo del físico Stephane Coutu para physics.aps.






fuente de la información:






http://physics.aps.org/articles/v6/40

lunes, 14 de enero de 2013

alternativas para explicar la energía oscura se están quedando sin espacio.

-Una investigación realizada por, el profesor de astronomía de la Universidad de Arizona Rodger Thompson considera que una popular alternativa a la teoría de la constante cosmológica para la explicación de la aceleración de la expansión del universo no se ajusta a los nuevos datos obtenidos en una constante fundamental ,la proporción de la masa del protón a la del de electrón .


 
la aceleración de la expansión de las galaxias observada en el campo ultraprofundo del Hubble puede ajustarse más a una constante cosmológica que a una popular teoría alternativa de la energía oscura según nuevo estudio.Credito: NASA; ESA; G. Illingworth, D. Magee, and P. Oesch, University of California, Santa Cruz; R. Bouwens, Leiden University; and the HUDF09 Team.


Los Hallazgos de Thompson, se reportan el 9 de enero en la Sociedad Astronómica de Estados Unidos reunida en Long Beach, California, impactan nuestra comprensión del universo y apuntan a una nueva dirección para un más profundo estudio de su expansión acelerada (ver aquí,aquí). Para explicar la aceleración de la expansión del universo , los astrofísicos han invocado a la energía oscura - una forma hipotética de energía que permea todo el espacio. Sin embargo la teoría popular de la energía oscura, no se ajusta a los nuevos resultados sobre el valor de la masa del protón dividida por la masa del electrón en el universo temprano. Thompson calculó el cambio previsto en la relación por la teoría de la energía oscura (generalmente conocida como ondulados campos escalares) y encontró que no se ajustaba a los nuevos datos. Brian Schmidt, junto con Saul Perlmutter y Reiss Adán, ganaron el Premio Nobel de Física del 2011 por demostrar que la expansión del universo se está acelerando en lugar de frenarse como se pensaba. La aceleración se explica por el restablecimiento de la " constante cosmológica " en la teoría de la Relatividad General de Einstein . Einstein introdujo originalmente el término para que el universo fuera estático. " Cuando se descubrió más tarde que el universo se estaba expandiendo, Einstein llamó a la constante cosmológica "su mayor error". La constante fue reinstalada con un valor diferente para que produzca la aceleración observada de la expansión del universo. Los físicos al tratar de calcular el valor con la física conocida, sin embargo, obtienen un número de más de 10 a la potencia de 60 (un uno seguido de 60 ceros) demasiado grande - un número verdaderamente astronómico. Fue entonces cuando los físicos se volvieron hacia nuevas teorías de energía oscura para explicar la aceleración. En su investigación, Thompson coloca la más popular de esas teorías a prueba, concentrándose en el valor de una constante fundamental (que no debe confundirse con la constante cosmológica), la masa del protón dividida por la masa del electrón. Una constante fundamental es un número puro sin unidades tales como la masa o la longitud. Los valores de las constantes fundamentales determinan las leyes de la física. Cambie el número y las leyes de la física cambian. Cambie las constantes fundamentales en una gran cantidad, y el universo se vuelve muy diferente de lo que observamos. El nuevo modelo físico de la energía oscura que Thompson probó predice que las constantes fundamentales cambiarán por una pequeña cantidad. Thompson identificó un método para medir la relación de la masa del protón a la del electrón en el universo temprano hace varios años, pero es sólo recientemente que los instrumentos astronómicos se convirtieron en lo suficientemente potente como para medir el efecto. Más recientemente,el determinó la cantidad exacta de cambios que muchas de las nuevas teorías predicen. El mes pasado, un grupo de astrónomos europeos, utilizando un radio telescopio en Alemania, hicieron la medición más precisa de la relación de las masa del protón y del electrón- jamás logrado y encontraron que no ha habido ningún cambio en la proporción en una parte en 10 millones en un momento en que el universo tenía la mitad de su edad actual, alrededor de 7 mil millones de años (ver aquí). Cuando Thompson puso esta nueva medición en sus cálculos, encontró que excluía a casi todos los modelos de energía oscura usando los valores comúnmente esperados o parámetros.Si el espacio de parámetros o rango de valores es similar a un campo de fútbol, entonces casi todo el campo está fuera de límites, excepto por un único sector de 2-pulgadas por 2-pulgadas en una esquina del campo. De hecho, la mayoría de los valores permitidos no están incluso en el campo"En efecto, las teorías de energías oscuras han estado jugando en el campo equivocado ", dijo Thompson. "El cuadrado de 2 pulgadas contiene el área que corresponde a ningún cambio en las constantes fundamentales , y esa es exactamente donde Einstein(la constante cosmológica) sigue en pie. Thompson espera que los físicos y astrónomos que estudian la cosmología se adaptarán al nuevo campo de juego, pero por ahora, "Einstein se encuentra en posición ventajosa, esperando que todos los demás se pongan al día."





fuente de la información:






http://phys.org/news/2013-01-dark-energy-alternatives-einstein-room.html

diferentes puntos de vista sobre una extraña desintegración.

La medición de un raro decaimiento de un mesón es un logro digno de celebración experimental, pero hasta ahora nada indica nueva física más allá del modelo estándar. Una de las misiones más importantes del Gran Colisionador de Hadrones del CERN es la búsqueda de fenómenos que no pueden ser explicados por el modelo estándar de la física de partículas. En este contexto, el último resultado del experimento LHCb, publicado en Physical Review Letters, es una victoria agridulce [ ver aquí ]. La colaboración LHCb ha, por primera vez, observado evidencia de la descomposición muy rara de un mesón neutro en un par de muones. Sólo alrededor de una de cada 300 millones de desintegraciones de mesones sucede de esta manera, y no es poca cosa que el LHCb haya sido capaz de detectar los pocos que lo hacen. La velocidad a la cual ocurre el decaimiento también está de acuerdo con el valor calculado mediante el modelo estándar, un éxito teórico teniendo en cuenta la complejidad de los cálculos. Pero muchos físicos de partículas tenían la esperanza de que el acuerdo entre teoría y experimento no sería tan bueno, ya que una desviación habría sido una señal de que nueva física estaba en juego. Hasta ahora, no hay tales signos, pero en el futuro, la precisión de la medida mejorará considerablemente, permitiendo potencialmente que más pequeñas desviaciones de las predicciones del modelo estándar sean detectadas.
fig nº1,diagrama de Feynman representando el decaimiento de un neutral mesón Bsº a un par de muones μ+μ- la esfera verde en la parte izquierda señala al mesón el cual es un estado ligado de un quark strange y un antibottom quark .Este iradia dos bosones W e intercambia un quark top en el proceso.Los bosones W se fusionan en un bosón Z el cual produce a su vez los dos muones en el estado final.Crédito.APS/Alan Stonebraker.


A pesar de sus éxitos, el modelo estándar de la física de partículas elementales nos ha dejado una serie de misterios. En el modelo, hay seis quarks. Tres de los quarks el Up, el Charm, y el Top tienen carga eléctrica 2/3 Y tres, el down, el strange, y el bottom tienen carga eléctrica -1/3 Al día de hoy no tenemos ninguna idea de por qué tenemos seis quarks y no, por ejemplo,solo dos (el up y el down) con los cuales formar a los protones y neutrones, los pilares fundamentales de la materia ordinaria. Otro enigma es el llamado problema del sabor: no entendemos por qué las masas de los seis quarks son lo que son, o por qué varían en varios órdenes de magnitud. Las lagunas en nuestro conocimiento son un poco como tener la tabla periódica sin saber que los átomos consisten en electrones y núcleos. Pero esta analogía tiene sus límites: según nuestro conocimiento, los quarks son elementales a una escala de 10-20 metros. Una forma de responder a nuestras preguntas es el estudio de las interacciones de partículas que involucran a los quarks atípicos, el top y el bottom , ya que sus masas son mucho mayores que las masas de los otros quarks. (El quark Bottom es, por ejemplo, casi 1000 veces más masivo que el quark down .)En los últimos 15 años, los físicos de partículas han así investigado las propiedades del quark bottom mediante la medición de las desintegraciones de –Mesones B, que son estados ligados entre un quark antibottom y otro quark. Antes del LHCb, estos experimentos fueron conducidos por 2 instalaciones una en el KEK, en Japón, y la otra en el SLAC en California, además del Tevatron en el Fermilab. En la búsqueda de nueva física, el mejor lugar para comenzar es donde la teoría actual dice que un evento no es probable que suceda: cualquier desviación sería grande en comparación con lo que esperamos. Es por ello,que el LHCb y los experimentos anteriores se han centrado en la búsqueda de la descomposición extremadamente rara de mesones Bsº estados ligados de un quark extraño y un quark-antibottom en un par de muones (ver Fig. 1). Los mesones son eléctricamente neutros y más del 90 % de ellos decaen a un Mesón D(un mesón que contiene un quark charm) y otras partículas. Pero el modelo estándar predice que una pequeña fracción de los Mesones Bsº 3.23±0.27x10-9 Decaen a un par de muones [ ver aquí ]. ¿Por qué es esta desintegración tan rara? Por un lado, el Bsº tiene spín cero, pero debido a las interacciones del modelo estándar que conducen a la descomposición, los muones terminan con un spín total de 1. Para conservar el momento angular de espín, un muón por tanto, debe voltear su spin, un proceso suprimido por el tamaño de la masa del muón respecto a la masa del meson Bsº al cuadrado-un factor de alrededor de 3x10-4. El segundo factor supresor existe porque en el decaimiento del , Bsº un quark bottom y un quark extraño se aniquilan en muones. Pero una característica especial del modelo estándar es que las transiciones que imvolucran quarks con la misma carga, como es el caso aquí, están muy suprimidas. (Makoto Kobayashi y Toshihide Maskawa recibieron el Premio Nobel 2008 por su contribución a nuestra comprensión de este importante punto (ver aquí).) Experimentalmente se trata de un enorme desafío observar tal decaimiento raro. Aunque las instalaciones de experimentación con mesones B tienen una luminosidad muy alta, a diferencia del LHC, en gran parte trabajan por debajo del umbral de energía para la producción del mesón Bsº. El experimento CDF en el Tevatron [ver aquí,aquí y aquí ] establece los mejores límites a la tasa de desintegración de los mesones Bsºantes que el LHC, pero no alcanzando la sensibilidad del nuevo acelerador de partículas. Ahora, la medición del LHCb muestra que la tasa fraccional de la rara desintegración es 3.2±(1.51.2)x10-9. Es una de las más raras desintegraciones jamás observadas y que está de acuerdo con el modelo estándar dentro de los errores experimentales, aunque estos errores, en 40%, son todavía bastante grandes. La serie de factores de supresión antes expuestos es propio de la estructura del modelo estándar. Dado que la desintegración es tan rara, incluso una modesta contribución de la nueva física podría eclipsar la física del modelo estándar. En los días previos al último experimento del LHCb, las esperanzas eran altas de que los experimentadores podrían observar una anomalía en la tasa de desintegración, lo que podría proporcionar pistas para una solución al problema del sabor. Ahora sabemos que cualquier teoría candidata a la nueva física debe predecir nuevas aportaciones a esta desintegración especial para ser incluso más pequeñas que lo que el modelo estándar predice. Como resultado de ello, se ha sugerido en un artículo de la BBC News (ver aquí) que la medición del LHCb ha asestado un "duro golpe" a la extensión más estudiada del modelo estándar, la supersimetría. En mi opinión, esto no es del todo cierto, pero algunos antecedentes es necesario que se expliquen. La supersimetría conjetura que todas las partículas conocidas tienen una respectiva "supercompañera", que sólo se diferencia por la mitad de una unidad de spin-todos los otros números cuánticos son los mismos. Así, por ejemplo, el electrón, un fermión, tiene una supercompañera llamada el electrón escalar, o selectrón para abreviar. El selectrón es lo mismo que el electron en todos los sentidos, excepto que tiene espín cero, y es por lo tanto un bosón. Además, su masa debe ser mayor. Hay muchas versiones de la supersimetría. Resulta que en la"mínima" versión de la teoría, es decir, en la que se tiene el menor número de acoplamientos entre las partículas, la desintegración del meson Bsº también se suprime, pero por una combinación diferente de factores de los que aparecen en los cálculos del modelo estándar. Por un lado, aunque no se requiere el volteo del spin , la interacción supersimétrica implicada es suprimida por exactamente el mismo factor de la masa del muón sobre la masa al cuadrado del meson Bsº . Y segundo, sabemos a partir de la búsqueda experimental de las partículas supercompañeras que, si existen, deben ser mucho más pesadas que sus contrapartes del modelo estándar, normalmente con masas superiores a los 1000 Gev/c2 [ ver aquí ].En el cómputo supersimétrico, estas partículas entran como (pesadas) partículas virtuales, y así suprimen el decaimiento del mesón. (En la fig. 1, los quarks up,charm y top y los Bosones W son tales partículas virtuales.) La combinación de estos factores conduce a una predicción de la velocidad de desintegración del Meson Bsº en un par de muones que es compatible con el rango observado en los experimentos [ver aquí,aquí,aquí y aquí] . Lo que la medición del LHCb ha excluido son algunas otras, muy motivadas, no minimas versiones de la supersimetría. Estas versiones de la teoría no cuentan con las cancelaciones especiales y habrían dado lugar a una tasa mucho más alta de la desintegración que lo observado por el LHCb. El LHC pronto se cerrará para una actualización de dos años. Posteriormente lo hará incrementando desde 8 tera-electrón- voltios (TeV), en el que se ejecuta actualmente, hasta 14 TeV, y la luminosidad también se incrementará. La luminosidad adicional conducirá a un aumento de la producción de mesones Bsº y así a una reducción del error experimental en las mediciones del LHCb por cerca de un factor de 3 en el 2018 [ ver aquí] . En las luminosidades aún más altas que deberían ser posible en el LHC,el LHCb se cree puede reducir el error en alrededor de menos de 5 % , que está por debajo del nivel actual del error en los cálculos teóricos. En este punto se va a empezar a poner al modelo estándar a un examen más riguroso.





artículo del físico Herbert Dreiner para physics.aps.





fuente de la información:






http://physics.aps.org/articles/v6/3