martes, 6 de agosto de 2013
sobre el origen de la ecuación de Schrödinger.
Una de las piedras angulares de la física cuántica es la ecuación de Schrödinger, la cual describe lo que un sistema de objetos cuánticos como los átomos y partículas subatómicas van a hacer en el futuro en función de su estado actual. Las analogías clásicas son la segunda ley de Newton y la mecánica hamiltoniana, las cuales predicen lo que un sistema clásico hará en el futuro, dada su configuración actual. Aunque la ecuación de Schrödinger fue publicada en 1926(ver aquí) , los autores de un nuevo estudio explican que el origen de la ecuación todavía no está plenamente apreciada por muchos físicos. En un nuevo artículo publicado en PNAS (ver aquí) , Wolfgang P. Schleich y un grupo de físicos de instituciones en Alemania y USA explica que los físicos por lo general llegan a la ecuación de Schrödinger con una receta matemática . En el nuevo estudio, los científicos han demostrado que es posible obtener la ecuación de Schrödinger de una identidad matemática simple, y encuentran que las matemáticas involucradas pueden ayudar a responder algunas de las preguntas fundamentales que atañen a esta importante ecuación. Aunque gran parte del trabajo consiste en complejas ecuaciones matemáticas , los físicos describen la cuestión de los orígenes de la ecuación de Schrödinger en una forma poética: "El nacimiento de la ecuación de Schrödinger dependiente del tiempo fue quizás no a diferencia del nacimiento de un río difícil de localizar su fuente única a pesar del hecho de que los signos pueden marcar oficialmente su inicio. Normalmente, muchos arroyos y ríos se fusionan de repente para formar un poderoso río. En el caso de la mecánica cuántica, hay tantos resultados experimentales convincentes que muchos de los principales libros de texto en realidad no motivan el tema [de los orígenes de la ecuación de Schrödinger].En su lugar, a menudo simplemente postulan la clásica regla -cuántica.... La razón dada es la que "funciona". Uno de los Coautores Marlan Scully, profesor de física en la Universidad A & M de Texas, explica cómo los físicos pueden utilizar la ecuación de Schrödinger a lo largo de sus carreras, pero muchos aún carecen de una comprensión más profunda de la ecuación. "Muchos físicos, tal vez incluso la mayoría de los físicos, ni siquiera piensan en los orígenes de la ecuación de Schrödinger en el mismo sentido que Schrödinger lo hizo", dijo Scully. "A menudo se nos enseña (véase, por ejemplo, el clásico libro de Leonard Schiff, 'Quantum Mechanics') que la energía va a ser reemplazada por una derivada en el tiempo y que el impulso se va a sustituir por una derivada espacial. Y si se pone esto en un Hamiltoniano de la dinámica clásica de las partículas, se obtiene la ecuación de Schrödinger Es una lástima que no pasamos más tiempo en motivar y enseñar un poco de la historia a nuestros estudiantes;. como consecuencia, muchos estudiantes no saben acerca de los orígenes ". Scully añadió que la comprensión de la historia, tanto de la ciencia y los científicos involucrados pueden ayudar a proporcionar una apreciación más profunda de la materia. De esta manera, los autores del presente trabajo están construyendo sobre el propio descubrimiento revolucionario de Schrödinger. "Schrödinger estuvo abriendo nuevos caminos e hizo el trabajo heroico de obtener la ecuación correcta", dijo Scully. "¿Cómo se obtiene la ecuación correcta , es menos importante que conseguirla el hizo un trabajo maravilloso en aquel entonces derivándo la función de onda de un átomo de hidrógeno y mucho más. Lo que estamos tratando de hacer es entender más profundamente la conexión entre la mecánica clásica y cuántica de ver las cosas desde diferentes puntos de vista, obteniendo sus resultados de manera diferente ". Como la analogía del río implica, hay muchas maneras diferentes de obtener la ecuación de Schrödinger, con la más destacada habiendo sido desarrollada por Richard Feynman en 1948 (ver aquí). Sin embargo, ninguno de estos enfoques ofrece una explicación satisfactoria para uno de los rasgos definitorios de la mecánica cuántica: su linealidad. A diferencia de las ecuaciones clásicas, que son no lineales, la ecuación de Schrödinger es lineal. Esta linealidad da a la mecánica cuántica algunas de sus características singularmente no clásicas, como la superposición de estados. En su artículo, los físicos desarrollaron una nueva forma de obtener la ecuación de Schrödinger a partir de una identidad matemática utilizando la mecánica estadística clásica basada en la ecuación de Hamilton-Jacobi. Para hacer la transición desde la ecuación de onda clásica no lineal a la lineal ecuación de Schrödinger es decir, desde la física clásica a la física cuántica , los físicos hicieron algunas elecciones diferentes con respecto a la amplitud de la onda y de este modo linealizaron la ecuación no lineal. Algunas de las opciones resultaron en un acoplamiento más fuerte entre la amplitud y la fase de la onda en comparación con el acoplamiento en la ecuación clásica. "Hemos demostrado con una identidad matemática como punto de partida de todo, que la elección del acoplamiento determina la no linealidad o la linealidad de la ecuación", Schleich, profesor de física en la Universidad de Ulm, dijo. "En algunas ecuaciones de onda, hay acoplamiento entre la amplitud y fase de modo que la fase determina la amplitud, pero la amplitud no determina la fase. En la mecánica cuántica, tanto la amplitud como la fase dependen una de la otra, y esto hace a la ecuación de onda cuántica lineal ". Debido a que este acoplamiento entre la amplitud y la fase asegura la linealidad de la ecuación, que es esencialmente lo que define una onda cuántica; para ondas clásicas, la fase determina la amplitud, pero no viceversa, por lo que la ecuación de onda es no lineal. "Como se muestra en nuestro documento, la lógica de la continuidad más la ecuación Hamilton-Jacobi conducen a una ecuación que es muy similar a la ecuación de Schrödinger," dijo Scully. "Pero es diferente y esta diferencia es algo que consideramos importante entender. Desde cierto punto de vista, el término adicional que entra en la ecuación de onda no lineal correspondiente a la física clásica (en oposición a la ecuación de Schrödinger lineal) muestra que la ecuación clásica no es lineal y que no podemos tener superposiciones de estados. Por ejemplo, no podemos unir ondas viajando a la derecha e izquierda para conseguir ondas estacionarias debido a este término no lineal. Es cuando tenemos ondas estacionarias (soluciones de onda viajando a la izquierda y derecha) que conseguimos más naturalmente las soluciones de valores propios que deben, parecerse a los estados propios del átomo de hidrógeno. Así enfatizando que la linealidad es muy importante ". El análisis también arroja luz sobre otra vieja pregunta acerca de la ecuación de Schrödinger, cual es la razón del por qué ella involucra una unidad imaginaria? En el pasado, los físicos han discutido si la unidad imaginaria, la cual no aparece en las ecuaciones clásicas-es un rasgo característico de la mecánica cuántica, o si responde a otro propósito. Los resultados aquí sugieren que la unidad imaginaria no es una característica cuántica característica, sino es sólo una herramienta útil para combinar dos ecuaciones reales en una única ecuación compleja . En el futuro, los físicos tienen previsto extender su enfoque-que se ocupa actualmente de partículas sencillas al fenómeno del entrelazamiento, el cual implica múltiples partículas. Señalan que Schrödinger llamó al entrelazamiento “el rasgo de la mecánica cuántica”, y una mejor comprensión de sus orígenes podrían revelar algunos datos interesantes sobre el funcionamiento de los componentes más pequeños de nuestro mundo. "Actualmente estamos viendo los problemas desde el punto de vista actual-cómo y en qué medida se puede recuperar la mecánica cuántica mediante la relajación de la clásica idea actual y centrarse en una corriente de tipo cuántico", dijo Scully. "Desde esta perspectiva, conseguimos dentro de la invariancia gauge que hay un montón de cosas divertidas que se pueden considerar y que estamos tratando de adaptarlas juntas y ver donde cada una de estas perspectivas nos lleva. También es divertido saber quienes han tenido ideas como estas en el pasado y cómo todas las ideas se unen para darnos una comprensión más profunda de la mecánica cuántica . Si nuestro papel estimula el interés en este problema, se habrá cumplido su propósito. "
fuente de la información:
http://phys.org/news/2013-04-schrodinger-equation.html
domingo, 4 de agosto de 2013
observando oscilaciones materia-antimateria.
Mientras que la mecánica cuántica es por ahora una teoría bien establecida, no obstante sigue fascinando tanto a principiantes como a expertos por igual con fenómenos inusuales. La paradoja del gato de Schrödinger y las sutilezas de la interferencia de dos rendijas son ejemplos clásicos de ello. Otro efecto cuántico menos familiar, las oscilaciones de mesones neutros (estados unidos de un quark y un antiquark), también ha intrigado a legiones de físicos por casi sesenta años [ver aquí]. Estos mesones oscilan hacia adelante y hacia atrás entre estados de partículas y antipartículas. Las ideas teóricas que subyacen a este comportamiento implican conceptos que se entrelazan profundamente en la historia de la física de partículas. En la revista Physical Review Letters, la colaboración LHCb ha informado [ver aquí] la primera observación en una sola medida significativa de las oscilaciones del meson D neutro - La interacción débil, más conocida como la fuerza fundamental que causa el decaimiento beta radiactivo, es el alquimista de la física de partículas elementales, es capaz de cambiar el tipo, o "sabor" de los quarks [los quarks pueden venir en up(u), down (d ), charm (c ), strange(s) , top (t ), o bottom (b ) ] Recordemos, por ejemplo, que un neutrón, que contiene un quark up y dos quarks down (udd) emite un electrón y un antineutrino durante la desintegración beta y se convierte en un protón(uud) .Tal cambio de sabor, aquí desde down hacia up, es una característica de la interacción débil. Los mesones, construidos a partir de un quark y un antiquark en lugar de tres quarks, permiten una posibilidad más sutil. Una interacción débil de segundo orden puede hacer que el quark y el antiquark intercambien lugares : un neutral meson
D0(cu-)puede oscilar en su antipartícula,un D-0(uc-) Como se muestra en la figura. 1(d).Hay cuatro posibles sistemas de mesones propensos a este tipo de oscilaciones. Estos son: K0(ds-) , D0(cu-) , B0(db-) , Bs0(sb-) y sus respectivas antipartículas los cuales forman un clasico sistema cuántico de dos estados donde se pueden producir estas oscilaciones.Mientras que las oscilaciones en los sistemas K, B y Bs,ya han sido establecidas, las oscilaciones entre D0 y D-0 son las últimas de este cuarteto en ser observadas. Las Oscilaciones del Meson están íntimamente relacionadas con la existencia de tres generaciones de quarks: up-down (u ,d), charm -strange (c,s), y top-bottom (t,b). La construcción de los átomos requiere sólo de los quarks up y down, sin embargo, hay dos generaciones adicionales. La existencia misma de estos quarks adicionales es un misterio de larga data en la física de partículas: son más masivo, pero por lo demás similares copias de los quarks up y down. El cuarteto de oscilantes pares de mesones contiene a estos quarks adicionales, y la física detallada de las interacciones débiles otorga a cada uno de los cuatro pares de mesones un carácter algo diferente. El carácter de las oscilaciones, y por lo tanto nuestra estrategia para detectarlas, depende de dos parámetros claves. Las interacciones débiles permiten a los de otro modo degenerados mesones D0
y D-0mezclarce entre sí.Esto da lugar a dos nuevos autoestados, con pequeñas diferencias en sus masas y tiempos de vida, dando lugar a oscilaciones entre D0 y D-0 con una frecuencia relacionada con esta diferencia de masa. Las observaciones son más fáciles cuando el período de oscilación es comparable al tiempo de vida. Este es el caso para los sistemas K y B , donde el fenómeno está bien estudiado. Por otro lado, para el sistema Bs las oscilaciones son muy rápidas y los experimentos requieren de alta resolución temporal para finalmente resolverlas. Para el caso D , hay poco tiempo para que las oscilaciones más lentas tengan un efecto antes de la desintegración de las partículas, y por lo tanto suficientemente altas mediciones estadísticas son la clave para una buena observación.
fig 1,(a)-(c)muestra como la carga del meson π desde la desintegración de D* y D puede ser usado para "etiquetar" el sabor de D(D0 o D-0)en la producción y desintegración .Una desintegración de signo-derecha (RS)se aprecia en (a) y la desintegración de signo-opuesta se observa en (b) y (c) apreciándose las 2 posibles fuentes para la carga de los mesones π.En (d) se despliega el proceso de interacción débil responsable de la oscilaciones D0-D-0 la cual involucra a las tres generaciones de quarks.Crédito.APS/Alan Stonebraker.
Búsquedas de oscilaciones D0-D-0con diferentes técnicas llegaron recientemente a buen término. La primera evidencia vino de las colaboraciones BaBar y Belle en el 2007, con una mejor prueba prontamente suministrada por la Colaboración CDF y otras medidas adicionales [ver aquí, aquí y aquí]. Una combinación global de estos resultados pioneros estableció la existencia de estas oscilaciones. Ahora , el LHCb ha presentado [ver aquí] la primera observación clara basada en una sola medición. La técnica básica utilizada por el LHCb consiste en determinar el sabor,D0 o D-0 en la producción y luego de nuevo en la desintegración, lo que permite la detección de un cambio de sabor (oscilación). Entre las partículas producidas por las colisiones protón-protón estudiadas por el LHCb están los mesones D*. Un D*+ normalmente decae a D0π+ y un D*- a D-0π- pero nunca lo opuesto. Así, la carga del meson π definitivamente etiqueta el sabor inicial del meson D. Para etiquetar en la desintegración, una vez más se utilizan cargas eléctricas en determinadas desintegraciones específicas. Como se muestra en la figura. 1(a), una común desintegración D0 produce un K-π+, en esta desintegracion de signo-derecho(RS), el meson π desde la desintegración del meson D* y el meson π desde la desintegración de D0 tienen el mismo signo. Una desintegración de signo-opuesto (WS) tiene diferentes cargas de los mesones π y pueden indicar que una oscilación D0-D-0 ,seguida por la desintegración de la antipartícula, D-0→K+π- ocurrió, como se muestra en la figura. 1(c). El único detalle es que una pequeña parte, aproximadamente el 0.4 % , de todos los decaimientos a K π son en realidad D0→K+π- proporcionando una segunda fuente de desintegraciones de signo-opuesto independiente de las oscilaciones [ver fig. 1(b)]. Pero el tiempo nos ofrece una solución: este proceso de fondo tiene una amplitud constante, mientras que las oscilaciones varían en el tiempo. Sin oscilaciones, la tasa de WS / RS sería una constante 0.4 % vs tiempo. ( Lo que los físicos del LHCb observaron en su lugar fue una pequeña variación en función del tiempo ± 20 % ) en la tasa de WS / RS. Para señalar la oscilación, las desintegración de signo-opuesto debe suceder en el momento adecuado. La dependencia del tiempo está ajustada para extraer los parámetros de oscilación y la hipótesis de que no hay oscilaciones D0-D-0 se descarta con una confianza estadística alta (9.1 desviaciones estándar). El tiempo es crucial para el LHCb en otro aspecto. Los sistemas de detección [ver aquí] y disparador [ver aquí] del LHCb están sintonizados para estudiar los estados que contienen quark bottom o quarks charm . Las colisiones se producen a un ritmo de 11 megahertz, pero los datos sólo se pueden guardar en 3 kilohercios para su posterior análisis. Una clave para el éxito de la selección es la vida útil relativamente larga, aproximadamente un picosegundo, para los estados que contienen estos quarks. Para las partículas en rápido movimiento, estos tiempos cortos corresponden a distancias de propagación medibles, que permiten espacialmente separarlas. Dado que las mediciones de alta precisión se requieren para tomar decisiones en tiempo real, una inmensa cantidad de trabajo entra en la calibración, control de calidad, mantenimiento y otras actividades necesarias para que el proceso funcione. Los datos de alta calidad obtenidos para la medición de oscilación D0 son un testimonio del éxito de esta empresa. La capacidad de escoger selectivamente colisiones interesantes permite un programa de física muy amplio en el LHCb [ver aquí]. Esfuerzos de investigación sustanciales se dedican actualmente a las interacciones débiles de los quarks y los enigmas asociados de sus tres generaciones. Lo ideal sería que las oscilaciones discutidas aquí ayudaran en la búsqueda de indicios de nueva física más allá del actual modelo estándar de la física de partículas.Es tentador que los resultados experimentales se encuentran hacia el extremo superior del rango predicho teóricamente, pero por desgracia cálculos precisos de las oscilaciones D0-D-0 no son posibles. En cambio, este y otros experimentos relacionados se presentan como un desafío a nuestra capacidad teórica. Pero aún a la espera de avances en ese frente, todavía podemos disfrutar de las armonías sutiles del cuarteto oscilante de la naturaleza, ahora por fin terminado.
artículo del físico Roy A. Briere para Physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/26
fig 1,(a)-(c)muestra como la carga del meson π desde la desintegración de D* y D puede ser usado para "etiquetar" el sabor de D(D0 o D-0)en la producción y desintegración .Una desintegración de signo-derecha (RS)se aprecia en (a) y la desintegración de signo-opuesta se observa en (b) y (c) apreciándose las 2 posibles fuentes para la carga de los mesones π.En (d) se despliega el proceso de interacción débil responsable de la oscilaciones D0-D-0 la cual involucra a las tres generaciones de quarks.Crédito.APS/Alan Stonebraker.
Búsquedas de oscilaciones D0-D-0con diferentes técnicas llegaron recientemente a buen término. La primera evidencia vino de las colaboraciones BaBar y Belle en el 2007, con una mejor prueba prontamente suministrada por la Colaboración CDF y otras medidas adicionales [ver aquí, aquí y aquí]. Una combinación global de estos resultados pioneros estableció la existencia de estas oscilaciones. Ahora , el LHCb ha presentado [ver aquí] la primera observación clara basada en una sola medición. La técnica básica utilizada por el LHCb consiste en determinar el sabor,D0 o D-0 en la producción y luego de nuevo en la desintegración, lo que permite la detección de un cambio de sabor (oscilación). Entre las partículas producidas por las colisiones protón-protón estudiadas por el LHCb están los mesones D*. Un D*+ normalmente decae a D0π+ y un D*- a D-0π- pero nunca lo opuesto. Así, la carga del meson π definitivamente etiqueta el sabor inicial del meson D. Para etiquetar en la desintegración, una vez más se utilizan cargas eléctricas en determinadas desintegraciones específicas. Como se muestra en la figura. 1(a), una común desintegración D0 produce un K-π+, en esta desintegracion de signo-derecho(RS), el meson π desde la desintegración del meson D* y el meson π desde la desintegración de D0 tienen el mismo signo. Una desintegración de signo-opuesto (WS) tiene diferentes cargas de los mesones π y pueden indicar que una oscilación D0-D-0 ,seguida por la desintegración de la antipartícula, D-0→K+π- ocurrió, como se muestra en la figura. 1(c). El único detalle es que una pequeña parte, aproximadamente el 0.4 % , de todos los decaimientos a K π son en realidad D0→K+π- proporcionando una segunda fuente de desintegraciones de signo-opuesto independiente de las oscilaciones [ver fig. 1(b)]. Pero el tiempo nos ofrece una solución: este proceso de fondo tiene una amplitud constante, mientras que las oscilaciones varían en el tiempo. Sin oscilaciones, la tasa de WS / RS sería una constante 0.4 % vs tiempo. ( Lo que los físicos del LHCb observaron en su lugar fue una pequeña variación en función del tiempo ± 20 % ) en la tasa de WS / RS. Para señalar la oscilación, las desintegración de signo-opuesto debe suceder en el momento adecuado. La dependencia del tiempo está ajustada para extraer los parámetros de oscilación y la hipótesis de que no hay oscilaciones D0-D-0 se descarta con una confianza estadística alta (9.1 desviaciones estándar). El tiempo es crucial para el LHCb en otro aspecto. Los sistemas de detección [ver aquí] y disparador [ver aquí] del LHCb están sintonizados para estudiar los estados que contienen quark bottom o quarks charm . Las colisiones se producen a un ritmo de 11 megahertz, pero los datos sólo se pueden guardar en 3 kilohercios para su posterior análisis. Una clave para el éxito de la selección es la vida útil relativamente larga, aproximadamente un picosegundo, para los estados que contienen estos quarks. Para las partículas en rápido movimiento, estos tiempos cortos corresponden a distancias de propagación medibles, que permiten espacialmente separarlas. Dado que las mediciones de alta precisión se requieren para tomar decisiones en tiempo real, una inmensa cantidad de trabajo entra en la calibración, control de calidad, mantenimiento y otras actividades necesarias para que el proceso funcione. Los datos de alta calidad obtenidos para la medición de oscilación D0 son un testimonio del éxito de esta empresa. La capacidad de escoger selectivamente colisiones interesantes permite un programa de física muy amplio en el LHCb [ver aquí]. Esfuerzos de investigación sustanciales se dedican actualmente a las interacciones débiles de los quarks y los enigmas asociados de sus tres generaciones. Lo ideal sería que las oscilaciones discutidas aquí ayudaran en la búsqueda de indicios de nueva física más allá del actual modelo estándar de la física de partículas.Es tentador que los resultados experimentales se encuentran hacia el extremo superior del rango predicho teóricamente, pero por desgracia cálculos precisos de las oscilaciones D0-D-0 no son posibles. En cambio, este y otros experimentos relacionados se presentan como un desafío a nuestra capacidad teórica. Pero aún a la espera de avances en ese frente, todavía podemos disfrutar de las armonías sutiles del cuarteto oscilante de la naturaleza, ahora por fin terminado.
artículo del físico Roy A. Briere para Physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/26
viernes, 2 de agosto de 2013
las semillas de un universo magnético.
El universo está magnetizado. Esto es cierto en las "pequeñas" escalas de longitud, como los planetas y las estrellas, y en escalas mucho más grandes, como por ejemplo a través del tenue gas en las galaxias y cúmulos de galaxias y, posiblemente, en el enrarecido medio intergaláctico. Los físicos están bastante seguros de que estos campos magnéticos no fueron creados en el Big Bang (la razón tiene que ver con la simetría de las ecuaciones de Maxwell). Por el contrario, en su mayor parte, asumen que los pequeños "campos semillas", que se formaron poco después del Big Bang, se amplificaron en lo que observamos hoy. Pero, ¿cómo estos campos semillas se materializaron sigue siendo uno de los grandes, problemas sin resolver en cosmología. En Physical Review Letters [ver aquí], Smadar Naoz y Ramesh Narayan del Centro Harvard-Smithsonian de Astrofísica, Massachusetts, proponen una posible solución. Han revisado un modelo para la generación de pequeños campos magnéticos en un plasma, llamado la batería Biermann, y muestran que este proceso podría haber generado campos semillas en el Universo mucho antes de lo que se pensaba previamente posible. Aunque los campos que calculan son débiles, el hecho de que pudieran haber existido a principios de la edad del Universo significa que hubo mucho tiempo para que otros procesos los amplificaran en los campos que observamos hoy. Las teorías sobre el origen de los campos cosmológicos o, magnetogénesis, son bien de arriba hacia abajo o de abajo hacia arriba. Las teorías de arriba hacia abajo invocan un proceso que funciona en todas partes, produciendo un campo omnipresente. En las teorías de abajo hacia arriba,la magnetogenesis ocurre en objetos pequeños, y los campos magnéticos se dispersan a grandes escalas. Ambos tipos de teoría requieren dos etapas. La primera es la creación de un campo semilla. En la segunda fase, el campo existente crece por un proceso llamado un dinamo, en el que la energía cinética en el plasma magnético que fluye es convertido, por inducción, en energía magnética. (El ciclo de actividad magnética solar de 22 años es un ejemplo famoso de una dínamo astrofísico.) Si bien aún no está claro exactamente cómo el plasma que fluye amplifica los campos magnéticos, pero se cree que el corte a gran escala y la turbulencia a pequeña escala desempeñan un papel [ver aquí] . Uno de los retos en la explicación de la magnetogenesis es averiguar cómo hace a los campos semillas lo suficientemente grande como para que un dinamo los pueda amplificar a lo que se observa. En un intento por hacerlo, Naoz y Narayan han invocado a uno de los candidatos mejor entendidos: el proceso de la batería Biermann.Este proceso explica cómo se genera un campo semilla. Imagínese un plasma de protones y electrones que es más caliente a la derecha que a la izquierda y más denso en la parte superior que la parte inferior (Fig. 1).
fig 1,la imágen muestra el proceso mediante el cual la batería Biermann genera un campo magnético ,el producto de la temperatura y densidad de electrones en un plasma es una cantidad llamada la presión electrón (lo mismo sucede para los protones del plasma no mostrados en la figura).En la figura la presión es más alta en la esquina superior derecha y más baja en la esquina inferior izquierda los electrones disminuyen el gradiente de presión más rápido que los pesados protones generando una fuerza electromotriz(emf) sobre un contorno cerrado(línea blanca),por la ley de Faraday esta emf genera un flujo magnético a través de la superficie limitada por el contorno(en esta figura la emf genera un campo magnético fuera de la página).Crédito.APS/Alan Stonebraker.
Debido a que los electrones tienen tan poca inercia, reduciran los gradientes de temperatura y densidad más rápido que los protones cargados positivamente, generando un campo eléctrico neto. (Más precisamente, los electrones reducen un gradiente en la presión de electrones, que es producto de la temperatura y la densidad de electrones.) Cuando la temperatura y la densidad de gradientes no son paralelas, la integral del campo eléctrico a través de un circuito cerrado en el plasma es distinto de cero. En otras palabras, los gradientes producen una fuerza electromotriz.Y por la ley de Faraday, esta fuerza electromotriz genera un flujo magnético. La batería de Biermann puede explicar tanto el escenario de arriba hacia abajo como el escenario de abajo hacia arriba para la magnetogénesis. El proceso va a generar campos más rápido en sistemas pequeños, donde la temperatura y la densidad cambian rápidamente en el espacio, como en los discos de acreción de la materia que se arremolinan alrededor de un objeto denso. Pero también puede generar campos en escalas cosmológicas (es decir, escalas mayores que los cuerpos más grandes unidos gravitacionalmente). Los físicos han utilizado el proceso para explicar los campos magnéticos generados en frentes de choque cosmológicos [ver aquí] y en los frentes de ionización cosmológicos [ver aquí y aquí], un tiempo lo suficiente después del Big Bang en que los electrones se habían combinado con los protones y los neutrones para formar átomos, pero en un universo bastante joven en donde las fluctuaciones en la densidad cosmológica y la temperatura eran todavía pequeñas. Cuando estas fluctuaciones son pequeñas, es posible escribir su efecto sobre el crecimiento del campo magnético en forma cerrada. También es posible calcular el espectro de potencia de las fluctuaciones magnéticas más abajo en escalas de longitudes mucho más pequeñas que en previos estudios, sin ningún tipo de límites impuestos por la resolución numérica. En el momento en que pararon sus cálculos, los autores encuentran que la escala espacial de los campos más fuertes se extiende desde kiloparsecs a decenas de kiloparsecs (aproximadamente del tamaño de una galaxia). Sin embargo, debido a que comienzan con fluctuaciones de densidad y temperatura que tienen pequeñas amplitudes, los campos resultantes son muy débiles de 10-24 a 10-25 gauss. Puede parecer que nada se ha ganado en los cálculos numéricos. Pero lo que Naoz y Narayan han demostrado es que un modelo lineal de las fluctuaciones de densidad y temperatura puede generar los campos semilla. Este paso teórico es importante porque empuja la magnetogenesis a una época anterior, lo que permite más tiempo para que los campos sean amplificados y realimentados de nuevo en sus ambientes. Es interesante preguntarse: ¿En qué momento la amplificación del campo magnético por la batería de Biermann da paso a la amplificación por un dínamo? Este cruce resulta que ocurre más o menos cuando la relación del radio de Larmor de iones térmicos a la escala de longitud típica del gradiente de presión es menor que el número de Mach del flujo. Naoz y Narayan dejan sus cálculos en un momento en el que el radio de Larmor de los protones es todavía mayor que la extensión de los campos. Así,que es probable que la era de la amplificación por la batería continuó hasta bien pasado el tiempo en que Naoz Narayan terminaron sus cálculos [ver aquí]. La batería Biermann no es la única fuente posible de campos semillas magnéticos. Inestabilidades del plasma, las cuales producen campos magnéticos en escalas cinéticas -en contraposición a las escalas macroscópicas características de la batería-también se han propuesto [ver aquí],y aquí ]. Este mecanismo podría funcionar en momentos posteriores de la batería considerada por Naoz y Narayan. Por otra parte, una variedad de otros procesos, basados en la física no estándar, podrían haber operado en tiempos mucho anteriores [ver aquí]. ¿Hay observaciones que nos podrían decir cuales teorías están en el camino correcto? Hasta hace poco,los campos magnéticos sólo se habían detectado en las galaxias y cúmulos de galaxias, y los límites superiores en un campo intergaláctico extendido eran bastante altos. Sin embargo, un estudio reciente estima que los campos intergalácticos deben ser de al menos 10-18 gauss para explicar su efecto sobre pares de partículas cargadas creadas por los rayos gamma extragalácticos [ver aquí]. El número de líneas de visión muestreadas por tales observaciones es todavía relativamente bajo, pero el método puede ser la mejor posibilidad de sondear los campos cosmológicos muy débiles.
artículo de la físico Ellen Zweibel para physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/85
fig 1,la imágen muestra el proceso mediante el cual la batería Biermann genera un campo magnético ,el producto de la temperatura y densidad de electrones en un plasma es una cantidad llamada la presión electrón (lo mismo sucede para los protones del plasma no mostrados en la figura).En la figura la presión es más alta en la esquina superior derecha y más baja en la esquina inferior izquierda los electrones disminuyen el gradiente de presión más rápido que los pesados protones generando una fuerza electromotriz(emf) sobre un contorno cerrado(línea blanca),por la ley de Faraday esta emf genera un flujo magnético a través de la superficie limitada por el contorno(en esta figura la emf genera un campo magnético fuera de la página).Crédito.APS/Alan Stonebraker.
Debido a que los electrones tienen tan poca inercia, reduciran los gradientes de temperatura y densidad más rápido que los protones cargados positivamente, generando un campo eléctrico neto. (Más precisamente, los electrones reducen un gradiente en la presión de electrones, que es producto de la temperatura y la densidad de electrones.) Cuando la temperatura y la densidad de gradientes no son paralelas, la integral del campo eléctrico a través de un circuito cerrado en el plasma es distinto de cero. En otras palabras, los gradientes producen una fuerza electromotriz.Y por la ley de Faraday, esta fuerza electromotriz genera un flujo magnético. La batería de Biermann puede explicar tanto el escenario de arriba hacia abajo como el escenario de abajo hacia arriba para la magnetogénesis. El proceso va a generar campos más rápido en sistemas pequeños, donde la temperatura y la densidad cambian rápidamente en el espacio, como en los discos de acreción de la materia que se arremolinan alrededor de un objeto denso. Pero también puede generar campos en escalas cosmológicas (es decir, escalas mayores que los cuerpos más grandes unidos gravitacionalmente). Los físicos han utilizado el proceso para explicar los campos magnéticos generados en frentes de choque cosmológicos [ver aquí] y en los frentes de ionización cosmológicos [ver aquí y aquí], un tiempo lo suficiente después del Big Bang en que los electrones se habían combinado con los protones y los neutrones para formar átomos, pero en un universo bastante joven en donde las fluctuaciones en la densidad cosmológica y la temperatura eran todavía pequeñas. Cuando estas fluctuaciones son pequeñas, es posible escribir su efecto sobre el crecimiento del campo magnético en forma cerrada. También es posible calcular el espectro de potencia de las fluctuaciones magnéticas más abajo en escalas de longitudes mucho más pequeñas que en previos estudios, sin ningún tipo de límites impuestos por la resolución numérica. En el momento en que pararon sus cálculos, los autores encuentran que la escala espacial de los campos más fuertes se extiende desde kiloparsecs a decenas de kiloparsecs (aproximadamente del tamaño de una galaxia). Sin embargo, debido a que comienzan con fluctuaciones de densidad y temperatura que tienen pequeñas amplitudes, los campos resultantes son muy débiles de 10-24 a 10-25 gauss. Puede parecer que nada se ha ganado en los cálculos numéricos. Pero lo que Naoz y Narayan han demostrado es que un modelo lineal de las fluctuaciones de densidad y temperatura puede generar los campos semilla. Este paso teórico es importante porque empuja la magnetogenesis a una época anterior, lo que permite más tiempo para que los campos sean amplificados y realimentados de nuevo en sus ambientes. Es interesante preguntarse: ¿En qué momento la amplificación del campo magnético por la batería de Biermann da paso a la amplificación por un dínamo? Este cruce resulta que ocurre más o menos cuando la relación del radio de Larmor de iones térmicos a la escala de longitud típica del gradiente de presión es menor que el número de Mach del flujo. Naoz y Narayan dejan sus cálculos en un momento en el que el radio de Larmor de los protones es todavía mayor que la extensión de los campos. Así,que es probable que la era de la amplificación por la batería continuó hasta bien pasado el tiempo en que Naoz Narayan terminaron sus cálculos [ver aquí]. La batería Biermann no es la única fuente posible de campos semillas magnéticos. Inestabilidades del plasma, las cuales producen campos magnéticos en escalas cinéticas -en contraposición a las escalas macroscópicas características de la batería-también se han propuesto [ver aquí],y aquí ]. Este mecanismo podría funcionar en momentos posteriores de la batería considerada por Naoz y Narayan. Por otra parte, una variedad de otros procesos, basados en la física no estándar, podrían haber operado en tiempos mucho anteriores [ver aquí]. ¿Hay observaciones que nos podrían decir cuales teorías están en el camino correcto? Hasta hace poco,los campos magnéticos sólo se habían detectado en las galaxias y cúmulos de galaxias, y los límites superiores en un campo intergaláctico extendido eran bastante altos. Sin embargo, un estudio reciente estima que los campos intergalácticos deben ser de al menos 10-18 gauss para explicar su efecto sobre pares de partículas cargadas creadas por los rayos gamma extragalácticos [ver aquí]. El número de líneas de visión muestreadas por tales observaciones es todavía relativamente bajo, pero el método puede ser la mejor posibilidad de sondear los campos cosmológicos muy débiles.
artículo de la físico Ellen Zweibel para physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/85
jueves, 1 de agosto de 2013
física de partículas en el cielo.
En el cosmos, las partículas más débilmente interactuantes pueden tener la mayor presencia. Se estima que las partículas de materia oscura constituyen más del 80 % de la materia en el Universo, pero son tan débilmente interactuantes con la otra materia que los físicos no han sido capaces de averiguar lo que son. Del mismo modo, los neutrinos son las más difíciles de detectar entre las partículas conocidas, sin embargo, se sabe que dominan las últimas etapas de la evolución de una estrella y es probable que guien la explosión supernova que sigue al colapso del núcleo de una estrella masiva moribunda. Dentro de este paisaje de partículas está el axion, un hipotético bosón de espín cero con masa muy pequeña que es considerado un fuerte candidato para la materia oscura [ ver aquí,aquí,aquí y aquí]. Nunca se han detectado axiones, pero la teoría que los describe predice que se crean cuando los fotones interactúan con los campos magnéticos o cargas eléctricas -un estado abrumadoramente encontrado en las estrellas. Dado que este proceso podría drenar la energía de las estrellas, los astrofísicos pueden observar la evolución de las estrellas para colocar límites en la tasa de producción de axiones [ver aquí]. En la revista Physical Review Letters, Alexander Friedland, del Laboratorio Nacional de Los Álamos,en Nuevo México, y sus colegas usan este argumento para dar el límite superior más fuerte hasta la fecha sobre la intensidad de la interacción entre los axiones y los campos electromagnéticos [ver aquí]. Sus resultados proporcionan retroalimentación en modelos teóricos de axiones y se pueden utilizar para evaluar la sensibilidad de los detectores de axiones. En otro nivel, el trabajo pone de relieve el papel de las estrellas como laboratorios de física de partículas, complementarios a los de la Tierra. Al comienzo de su vida, una estrella como nuestro Sol quema hidrógeno. Cuanto más masiva es una estrella, más brillante es y más caliente es su superficie .Esta relación es capturada en el (HR) diagrama de Hertzsprung-Russell (véase la fig. 1), que traza el brillo de estrellas conocidas en el eje vertical y sus temperaturas de la superficie (o color) en el eje horizontal.
fig 1 ,la imágen muestra el diagrama Hertzsprung-Russell el cual ordena la población estelar de acuerdo a la brillantes (eje vertical) y la temperatura superficial o color (eje horizontal).Diferentes tipos de estrellas pueblan las regiones características en este diagrama.La secuencia principal consiste de estrellas que queman hidrógeno parecidas a nuestro sol cuya brillantes y color depende de la masa estelar.Las gigantes rojas son estrellas en etapas avanzadas las cuales queman helio y que al final de esta fase ejecutan un bien definido (bucle azul) de breve contracción y reexpanción(lineas blancas con flechas en la imágen)de acuerdo con un nuevo estudio de Alexander Friedland y colegas este comportamiento sería suprimido por excesiva emisión de los hipotéticos axiones.Crédito.ESO; White line overlay, APS/Alan Stonebraker.
En este diagrama las estrellas que queman hidrógeno se hallan a lo largo de la secuencia principal" después que el hidrógeno es usado ,toma lugar la quema de helio en el centro, el hidrógeno se quema en una cubierta, y la envoltura estelar se expande: la estrella termina en la región-de gigante roja del diagrama con una temperatura de superficie más fría (color rojo). Normalmente, es en este punto que una estrella masiva comenzaría su "bucle azul," una corta fase de contracción y re-expansión al final de la combustión del helio que lleva a la estrella horizontalmente a través del diagrama HR hacia una superficie más caliente (de color azul ) y de regreso (fig. 1). Basado en un análisis numérico de estas secuencias de evolución, el equipo de Friedland. muestra que, si el acoplamiento de fotones y axiones era lo suficientemente fuerte, las pérdidas excesivas de axiones podrían prevenir a las estrellas en el intervalo entre 8 y 12 masas solares de seguir esta trayectoria, lo que estaría en contradicción con una serie de observaciones astronómicas. Los autores muestran que la existencia de la fase de bucle azul pone un límite severo en la intensidad del acoplamiento de axiones y fotones. Genéricamente, los axiones deberían decaer en dos fotones, aunque a un ritmo muy bajo. La misma interacción también significa que un axion podría convertirse en un fotón (o al revés) en presencia de campos magnéticos o eléctricos-lo último en el papel de uno de los dos fotones de desintegración. Como resultado, los fotones térmicos en el plasma caliente dentro de una estrella podrían convertir a los axiones en los fluctuantes campos eléctricos producidos por partículas cargadas. Este es el proceso que produce los axiones en las estrellas y drena la energía de manera eficiente, siempre y cuando el acoplamiento axion-fotón sea lo suficientemente fuerte .El trabajo de Friedland se complementa con otras pruebas de la hipótesis de que los axiones son abundantemente producidos en las estrellas. Por ejemplo, después de décadas de observación exitosa de neutrinos solares, los investigadores también han tratado de detectar axiones directamente del sol. La búsqueda de axiones solares comenzó en el Laboratorio Nacional Brookhaven, en los EE.UU. y la Universidad de Tokio, pero el más grande "helioscopio de axiones" es el Axion Telescopio Solar (CAST) del CERN ,que ha tomado datos desde el año 2003 [ver aquí]. CAST está constituido por uno de los imanes superconductores prototipo dados de baja del Gran Colisionador de Hadrones el cual está orientado hacia el Sol y diseñado para buscar los rayos X que se derivarían de axiones solares convirtiéndose en fotones cuando viajan 10 metros en las perforaciones del imán. Esta conversión revertiría el proceso de producción original de axiones desde fotones en el sol. CAST no ha encontrado una señal, aunque el nuevo bucle azul de Friedland sujeto al acoplamiento de axiones y fotones muestra que CAST no era lo suficientemente sensible. El Observatorio Internacional de Axiones (IAXO), que se encuentra actualmente en la fase de diseño, será un helioscopio mucho más grande y tiene una sensibilidad muy superior a CAST o el nuevo límite del bucle azul [ver aquí]. La astronomía de neutrinos es una herramienta poderosa para aprender sobre los axiones. Cuando una estrella colapsa, se emite una gran cantidad de energía en forma de una corta ráfaga de neutrinos. Si los axiones se produjeron en las interacciones de nucleones, llevarían lejos parte de esta energía y acortarían el estallido de neutrinos. El 23 de febrero de 1987, los astrofísicos observaron alrededor de dos docenas de neutrinos por más de 10 segundo desde la supernova SN 1987A. La duración y la fuerza de esta explosión coincidieron bien con lo que se esperaba, lo que sugiere que no demasiada energía podría haber sido producida en forma de axiones [ver aquí]. Varios megadetectores de neutrinos están en funcionamiento en todo el mundo, propuestas para otros que registrarían una señal de alta estadísticas de neutrinos desde una supernova galáctica (se espera que se produzcan en pocas décadas) están bajo consideración. Además de aprender sobre la astrofísica del colapso del núcleo y las propiedades de los neutrinos, estos detectores podrían validar y mejorar los límites de axiones obtenidos de la observación de SN 1987A. La SN 1987A no es, sin embargo, lo suficientemente restrictiva para decir que los axiones no afectan fuertemente el enfriamiento de las estrellas de neutrones. Por otra parte, si los axiones interactúan con los electrones (lo cual es muy posible, pero no es requerido por las teorías actuales) también podrían afectar notablemente la evolución de otras estrellas distintas de las consideradas por Friedland. Existen algunos indicios de que las enanas blancas remanentes estelares demasiado ligeras para convertirse en una estrella de neutrones podrían estar enfriándose más rápido de lo esperado por los procesos estándar únicamente, un efecto que puede atribuirse a la emisión de axiones. Esta hipótesis sin duda sigue siendo especulativa por ahora, pero podría ponerse a prueba con el proyecto IAXO mediante la búsqueda de axiones solares [ver aquí]. También podría ser probado con estudios más cuidadosos de cúmulos globulares de estrellas que se encuentran actualmente en curso en la Pontificia Universidad Católica de Chile, a partir de datos astronómicos modernos. El premio más grande sería no sólo detectar axiones sino identificarlos como materia oscura.Si los axiones son partículas que componen la materia oscura, significaría que sus interacciones son demasiado débiles para que las estrellas los produzcan de forma eficiente, pero lo suficientemente fuerte que pudieran surgir desde los inicios del universo, en la cantidad justa para dar cuenta de toda la materia oscura observada. El resultado de Friedland, que establece un límite máximo para las interacciones axion- fotón, deja abierta esta posibilidad. Por otra parte, si los axiones son la materia oscura, deben estár pasando a través de nuestros laboratorios en grandes cantidades. Los experimentos de Axiones como materia oscura, como el helioscopio CAST, buscan la predicha conversión de los axiones en fotones en presencia de un campo magnético [ver aquí].Una versión muy mejorada del Axion Dark Matter eXperiment (ADMX) se está comisionando en la Universidad de Washington, Seattle. Utiliza una cavidad de microondas de alta calidad en un campo magnético de 10 Tesla [ver aquí]. Construcciones asociadas se están llevando a cabo en la Universidad de Yale, mientras que los investigadores de DESY en Hamburgo y en el Instituto Max Planck de Física de Munich [ver aquí] están trabajando en nuevas ideas para buscar axiones de materia oscura. La búsqueda de axiones y sus relativas partículas permanece como un ejemplo del poder de los "laboratorios celestiales" para aprender sobre conjeturas física de partículas.El nuevo argumento de Friedland es otro hermoso ejemplo de ello. Los experimentos de próxima generación aún podrían descubrir los axiones solares. La nueva ronda de búsqueda de los axiones de materia oscura está a punto de encontrarlos, si es que ellos representan la materia principal que compone nuestro universo.
artículo del físico Georg Raffelt para physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/14
fig 1 ,la imágen muestra el diagrama Hertzsprung-Russell el cual ordena la población estelar de acuerdo a la brillantes (eje vertical) y la temperatura superficial o color (eje horizontal).Diferentes tipos de estrellas pueblan las regiones características en este diagrama.La secuencia principal consiste de estrellas que queman hidrógeno parecidas a nuestro sol cuya brillantes y color depende de la masa estelar.Las gigantes rojas son estrellas en etapas avanzadas las cuales queman helio y que al final de esta fase ejecutan un bien definido (bucle azul) de breve contracción y reexpanción(lineas blancas con flechas en la imágen)de acuerdo con un nuevo estudio de Alexander Friedland y colegas este comportamiento sería suprimido por excesiva emisión de los hipotéticos axiones.Crédito.ESO; White line overlay, APS/Alan Stonebraker.
En este diagrama las estrellas que queman hidrógeno se hallan a lo largo de la secuencia principal" después que el hidrógeno es usado ,toma lugar la quema de helio en el centro, el hidrógeno se quema en una cubierta, y la envoltura estelar se expande: la estrella termina en la región-de gigante roja del diagrama con una temperatura de superficie más fría (color rojo). Normalmente, es en este punto que una estrella masiva comenzaría su "bucle azul," una corta fase de contracción y re-expansión al final de la combustión del helio que lleva a la estrella horizontalmente a través del diagrama HR hacia una superficie más caliente (de color azul ) y de regreso (fig. 1). Basado en un análisis numérico de estas secuencias de evolución, el equipo de Friedland. muestra que, si el acoplamiento de fotones y axiones era lo suficientemente fuerte, las pérdidas excesivas de axiones podrían prevenir a las estrellas en el intervalo entre 8 y 12 masas solares de seguir esta trayectoria, lo que estaría en contradicción con una serie de observaciones astronómicas. Los autores muestran que la existencia de la fase de bucle azul pone un límite severo en la intensidad del acoplamiento de axiones y fotones. Genéricamente, los axiones deberían decaer en dos fotones, aunque a un ritmo muy bajo. La misma interacción también significa que un axion podría convertirse en un fotón (o al revés) en presencia de campos magnéticos o eléctricos-lo último en el papel de uno de los dos fotones de desintegración. Como resultado, los fotones térmicos en el plasma caliente dentro de una estrella podrían convertir a los axiones en los fluctuantes campos eléctricos producidos por partículas cargadas. Este es el proceso que produce los axiones en las estrellas y drena la energía de manera eficiente, siempre y cuando el acoplamiento axion-fotón sea lo suficientemente fuerte .El trabajo de Friedland se complementa con otras pruebas de la hipótesis de que los axiones son abundantemente producidos en las estrellas. Por ejemplo, después de décadas de observación exitosa de neutrinos solares, los investigadores también han tratado de detectar axiones directamente del sol. La búsqueda de axiones solares comenzó en el Laboratorio Nacional Brookhaven, en los EE.UU. y la Universidad de Tokio, pero el más grande "helioscopio de axiones" es el Axion Telescopio Solar (CAST) del CERN ,que ha tomado datos desde el año 2003 [ver aquí]. CAST está constituido por uno de los imanes superconductores prototipo dados de baja del Gran Colisionador de Hadrones el cual está orientado hacia el Sol y diseñado para buscar los rayos X que se derivarían de axiones solares convirtiéndose en fotones cuando viajan 10 metros en las perforaciones del imán. Esta conversión revertiría el proceso de producción original de axiones desde fotones en el sol. CAST no ha encontrado una señal, aunque el nuevo bucle azul de Friedland sujeto al acoplamiento de axiones y fotones muestra que CAST no era lo suficientemente sensible. El Observatorio Internacional de Axiones (IAXO), que se encuentra actualmente en la fase de diseño, será un helioscopio mucho más grande y tiene una sensibilidad muy superior a CAST o el nuevo límite del bucle azul [ver aquí]. La astronomía de neutrinos es una herramienta poderosa para aprender sobre los axiones. Cuando una estrella colapsa, se emite una gran cantidad de energía en forma de una corta ráfaga de neutrinos. Si los axiones se produjeron en las interacciones de nucleones, llevarían lejos parte de esta energía y acortarían el estallido de neutrinos. El 23 de febrero de 1987, los astrofísicos observaron alrededor de dos docenas de neutrinos por más de 10 segundo desde la supernova SN 1987A. La duración y la fuerza de esta explosión coincidieron bien con lo que se esperaba, lo que sugiere que no demasiada energía podría haber sido producida en forma de axiones [ver aquí]. Varios megadetectores de neutrinos están en funcionamiento en todo el mundo, propuestas para otros que registrarían una señal de alta estadísticas de neutrinos desde una supernova galáctica (se espera que se produzcan en pocas décadas) están bajo consideración. Además de aprender sobre la astrofísica del colapso del núcleo y las propiedades de los neutrinos, estos detectores podrían validar y mejorar los límites de axiones obtenidos de la observación de SN 1987A. La SN 1987A no es, sin embargo, lo suficientemente restrictiva para decir que los axiones no afectan fuertemente el enfriamiento de las estrellas de neutrones. Por otra parte, si los axiones interactúan con los electrones (lo cual es muy posible, pero no es requerido por las teorías actuales) también podrían afectar notablemente la evolución de otras estrellas distintas de las consideradas por Friedland. Existen algunos indicios de que las enanas blancas remanentes estelares demasiado ligeras para convertirse en una estrella de neutrones podrían estar enfriándose más rápido de lo esperado por los procesos estándar únicamente, un efecto que puede atribuirse a la emisión de axiones. Esta hipótesis sin duda sigue siendo especulativa por ahora, pero podría ponerse a prueba con el proyecto IAXO mediante la búsqueda de axiones solares [ver aquí]. También podría ser probado con estudios más cuidadosos de cúmulos globulares de estrellas que se encuentran actualmente en curso en la Pontificia Universidad Católica de Chile, a partir de datos astronómicos modernos. El premio más grande sería no sólo detectar axiones sino identificarlos como materia oscura.Si los axiones son partículas que componen la materia oscura, significaría que sus interacciones son demasiado débiles para que las estrellas los produzcan de forma eficiente, pero lo suficientemente fuerte que pudieran surgir desde los inicios del universo, en la cantidad justa para dar cuenta de toda la materia oscura observada. El resultado de Friedland, que establece un límite máximo para las interacciones axion- fotón, deja abierta esta posibilidad. Por otra parte, si los axiones son la materia oscura, deben estár pasando a través de nuestros laboratorios en grandes cantidades. Los experimentos de Axiones como materia oscura, como el helioscopio CAST, buscan la predicha conversión de los axiones en fotones en presencia de un campo magnético [ver aquí].Una versión muy mejorada del Axion Dark Matter eXperiment (ADMX) se está comisionando en la Universidad de Washington, Seattle. Utiliza una cavidad de microondas de alta calidad en un campo magnético de 10 Tesla [ver aquí]. Construcciones asociadas se están llevando a cabo en la Universidad de Yale, mientras que los investigadores de DESY en Hamburgo y en el Instituto Max Planck de Física de Munich [ver aquí] están trabajando en nuevas ideas para buscar axiones de materia oscura. La búsqueda de axiones y sus relativas partículas permanece como un ejemplo del poder de los "laboratorios celestiales" para aprender sobre conjeturas física de partículas.El nuevo argumento de Friedland es otro hermoso ejemplo de ello. Los experimentos de próxima generación aún podrían descubrir los axiones solares. La nueva ronda de búsqueda de los axiones de materia oscura está a punto de encontrarlos, si es que ellos representan la materia principal que compone nuestro universo.
artículo del físico Georg Raffelt para physics.aps.
fuente de la información:
http://physics.aps.org/articles/v6/14
Suscribirse a:
Entradas (Atom)