Los prestidigitadores aparecen con frecuencia haciéndo que bolas salten entre vasos que se destapan . En los sistemas cuánticos, donde las propiedades de un objeto, incluyendo su ubicación, pueden variar dependiendo de cómo usted los observa, tales hazañas deberían ser posible sin un juego de manos. Ahora bien, esta característica sorprendente ha sido demostrada experimentalmente, utilizando un solo fotón que existe en tres lugares a la vez.
A pesar de la habilidad de la teoría cuántica para explicar los resultados experimentales, algunos físicos han encontrado demasiado su rareza para ser tragada. Albert Einstein se burló del enrtrelazamiento, una noción en el corazón de la teoría cuántica en la que las propiedades de una partícula pueden afectar de inmediato a las otras, independientemente de la distancia entre ellas. Sostuvo que algo de física clásica invisible, conocida como "teorías de variables ocultas", debe crear la ilusión de lo que él llamó la "acción fantasmal a distancia" .
Una serie de experimentos cuidadosamente diseñados desde entonces han demostrado que Einstein estaba equivocado : el entrelazamiento es real y no las teorías de variables ocultas pueden explicar sus efectos extraños.
Pero el entrelazamiento no es el único fenómeno que separa lo cuantico de lo clásico. "Hay otro hecho sorprendente acerca de la realidad cuántica que a menudo es pasado por alto", dice Steinberg Aephraim de la Universidad de Toronto en Canadá.
En 1967, Simon Kochen y Specker Ernst demostraron matemáticamente que incluso para un solo objeto cuántico, donde el entrelazamiento no es posible, los valores que se obtienen al medir sus propiedades dependen del contexto. Por lo que el valor de la propiedad A, por ejemplo, depende de si se optó por medirla con la propiedad B, o con la propiedad C. En otras palabras, no existe una realidad independiente de la elección de la medición.
No fue sino hasta el 2008, sin embargo, que Alejandro Klyachko de la Universidad Bilkent en Ankara, Turquía, y sus colegas desarrollaron una prueba factible para esta predicción (ver aquí). Ellos calcularon que si usted mide repetidamente cinco diferentes pares de propiedades de una partícula cuántica, que se encontraba en una superposición de tres estados, los resultados serían diferentes para el sistema cuántico en comparación con un sistema clásico con variables ocultas.
Esto se debe a que las propiedades cuánticas no son fijas, sino que varían dependiendo de la elección de las mediciones, lo que distorsiona las estadísticas. "Esta fue una idea muy inteligente", dice Anton Zeilinger , del Instituto de Óptica Cuántica, Nanofísica Cuántica e Información Cuántica, en Viena, Austria. "La cuestión era cómo lograr esto en un experimento."
Ahora, Radek Lapkiewicz y sus colegas han dado cuenta de la idea de forma experimental. Utilizaron fotones, cada uno en una superposición en la que al mismo tiempo tomaban tres caminos. Luego repitieron una secuencia de cinco pares de mediciones de diversas propiedades de los fotones, como por ejemplo sus polarizaciones, decenas de miles de veces.
esquema conceptual del experimento con la preparación de cinco etapas consecutivas de medición ,las líneas negra representan los modos ópticos (rayos) las cajas grises representan transformaciones sobre los modos ópticos a)un fotón es distribuido entre tres modos por las transformaciones TA y TB,esta etapa de preparación es seguida por una de cinco etapas de medición (desde b hasta f) en cada etapa la respuesta de dos detectores monitoriándo los modos ópticos definen un par de mediciones un aspecto importante de la implementación del experimento es que en cada transformación actúan solo dos modos dejándo el otro modo completamente inafectado, la elección entre A1 y A3 es hecha mucho tiempo después de que A2 es medida así parece razonable asumir que la medición de A2 es independiente de que sea hecha junto con A1 o A3 el mismo razonamiento se puede aplicar para A3,A4 y A5.Crédito: Radek Lapkiewicz.
Ellos encontraron que las estadísticas resultantes sólo podían explicarse si la combinación de las propiedades que eran probadas estaba afectando el valor de la propiedad siendo medida. "No tiene sentido el supuesto de que lo que no medimos alrededor de un sistema tiene una independiente realidad", concluye Zeilinger.
Steinberg está impresionado: "Este es un bello experimento." Si los experimentos anteriores probando el entrelazamiento cerraron la puerta de las teorías de variables ocultas, el último trabajo la sella con fuerza. "Parece que ni siquiera se puede concebir una teoría en la que los observables específicos tendrían valores definidos que son independientes de las otras cosas que se midan", añade Steinberg.
Simon Kochen, ahora en la Universidad de Princeton en Nueva Jersey, también está feliz. "Casi medio siglo después de Specker han demostrado nuestro teorema, que se basó en un pensado experimento , los experimentos reales ahora confirman nuestro resultado", dice.
Niels Bohr, un gigante de la física cuántica, fue un gran defensor de la idea de que la naturaleza de la realidad cuántica depende de lo que elegimos para medir, una idea que vino a llamarse la interpretación de Copenhague . "Este experimento da más apoyo a la interpretación de Copenhague", dice Zeilinger.
leer el estudio AQUÍ
fuente de la información:
http://www.newscientist.com/article/dn20600-quantum-magic-trick-shows-reality-is-what-you-make-it.html
Es como si las pequeñas ciudades sólo pudieran producir personas pequeñas : las galaxias enanas puede que no sean capaces de producir muchas estrellas grandes.
Nuestra Vía Láctea, una gigante galaxia espiral barrada, crea estrellas grandes y pequeñas, y los astrónomos han asumido que otras galaxias hacen lo mismo.Pero un nuevo estudio de Fornax, una galaxia enana que orbita la nuestra, sugiere que podría no ser cierto.
Estrellas de diferentes masas crean diferentes elementos químicos. El Bario tiende a formarse en las estrellas demasiado débiles para explotar, mientras que las estrellas muy masivas forjan una gran cantidad de hierro cuando detonan.
galaxia enana Fornax la cual orbita la Vía Láctea.Crédito.Nasa.
Fornax tiene altos niveles de bario en relación con el hierro, y Takuji Tsujimoto del Observatorio Astronómico Nacional de Japón en Tokio sugiere que esto es porque la galaxia nunca formó muchas estrellas que pesen más de 25 soles.
"Es una sugerencia interesante", dice Romero Wyse , de la Johns Hopkins University en Baltimore, Maryland. "Yo no creo que sea definitivo. Sin embargo, apunta a la utilidad de las galaxias enanas en términos de tratar de entender cómo se forman las estrellas."
Entonces, ¿cómo podría el tamaño de una galaxia determinar el tamaño de las estrellas que da a luz? Mark Krumholz de la Universidad de California, Santa Cruz, y Christopher McKee, de la Universidad de California, Berkeley, han sugerido que la densidad de una nube de gas podría afectar el tamaño de las estrellas que puede crear.
leer el estudio AQUÍ
fuente de la información:
http://www.newscientist.com/article/dn20559-small-galaxies-may-only-give-birth-to-small-stars.html
A medida que el Gran Colisionador de Hadrones (LHC), aumente el ritmo de sus colisiones, los físicos esperan ser testigos de la aparición del bosón de Higgs, una prevista, pero aún invisible, partícula fundamental que los científicos creen da la masa a la materia.
El bosón de Higgs es un componente central del "modelo estándar", una teoría que define las relaciones entre las fuerzas del universo. Pero, ¿y si el bosón de Higgs no es una partícula fundamental, sino más bien un estado ligado de nuevas partículas que aún no se han visto?
"Desde el principio del modelo estándar, la gente no ha estado contenta con la idea de que el bosón de Higgs sea una partícula fundamental", dijo Thomas Degrand, profesor de física en la Universidad de Colorado.
Los científicos que abogan por modelos alternativos de la física de partículas están motivados por la teoría de lasuperconductividad. El estado superconductor, el cuál es muy diferente de la materia ordinaria, no se caracteriza por nuevas partículas, sino por los pares de Cooper - estados ligados de los electrones .
la imágen muestra un ejemplo de datos simulados para el Compact Muon Solenoid (CMS) un detector de partículas en el LHC.Aquí después de una colisión de dos protones un bosón de Higgs es producido el cuál se desintegra en dos chorros de hadrones y dos electrones .Las teorías de Thomas Degrand representan una alternativa al modelo estándar.Crédito: TACC.
la imágen muestra un mapa de la teoría Technicolor de partículas queThomas DeGrand estudia .El eje horizontal representa el número de colores y el vertical el número de sabores de quarks .Los diferentes colores describen diferentes clases de estructura de color para los quarks.Las bandas sombreadas son zonas donde los teóricos (D. Dietrich y F. Sannino) predicen existe la "teoría de impartícula"Crédito: Physical Review D75, 085018 (2007).
El modelo estándar de física de partículas sugiere que los protones y neutrones con los cuales estamos familiarizados,y que conforman el núcleo de los átomos, están formados por combinaciones de diferentes tipos de partículas elementales llamadasquarks y gluones. No podemos ver estas partículas de forma aislada, porque una fuerza fundamental llamada "la interacción fuerte" las mantiene firmemente unidas, pero los experimentos conducen a los físicos a creer que estos quarks vienen en tres variedades, cada uno con diferentes propiedades, o "colores".
Nadie sabe por qué el contenido de partículas del modelo estándar es lo que es.Una posibilidad lógica que existe es que podrían haber más tipos de quarks y gluones con diferentes números de colores, los cuáles interactuarían fuertemente entre sí.En conjunto, estas posibilidades se conocen como teorías technicolor.
Degrand pasó muchos años estudiando la teoría detrás de las interacciones de quarks y gluones, conocida comocromodinámica cuántica (QCD), antes de que él dirigiera su atención a las teorías de technicolor. El es co-autor de uno de los libros clásicos en el campo.
Sin embargo, la QCD no describe todos los aspectos del modelo estándar, sobre todo la naturaleza "final" de las partículas no descubiertas. La construcción del LHC, y el sentimiento de que los nuevos conocimientos se esperan a la vuelta, condujo a Degrand a las exploraciones de las teorías de partículas alternativa.
"Me cansé un poco del enrejado de la QCD ", dijo Degrand. "Las teorías de technicolor plantean preguntas más interesantes."
En los últimos cinco años, los científicos descubrieron que muchas de las técnicas de computación que habían sido inventadas para la QCD se podrían aplicar a las teorías de technicolor también. En el 2008, dos colegas de la Universidad de Tel Aviv, Yigal Shamir y Svetitsky Benjamin, invitaron a Degrand para unirse a su equipo de investigación. Aplicando la misma metodología que ayudó a Degrand para la QCD, el equipo comenzó la simulación de las teorías candidatas de technicolor y sacar conclusiones a partir de los extraños resultados de estos mundos simulados.
Para el cálculo de las interacciones de los nuevos tipos de quarks y gluones en varias configuraciones sobre enrejados de redes gigantes, el equipo utilizó el computador Ranger financiado por la National Science Foundation (NSF), - uno de las más grandes del mundo – situado en el Texas Advanced Computing Center. En las simulaciones numéricas, las redes se encuentran (virtualmente) en cajas de diferentes tamaños y la reacción de las partículas al tamaño de la caja proporciona información sobre las características energéticas del sistema.
"Esto no es algo que un experimentador pueda hacer", dijo Degrand. "Pero como teóricos, podemos inventar estos mundos falsos donde el sistema se encuentra en una caja de un tamaño específico, y podemos medir la fuerza de las interacciones de quarks y gluones en grandes cajas, cajas medianas y pequeñas cajas para ver cómo cambian. El cambio de las escalas de energía o momento están relacionados con el cambio del tamaño físico del sistema. "
La supercomputación desempeña un papel fundamental en este proceso, que implica la resolución de complejas ecuaciones cuánticas para un gran número de partículas. En los últimos dos años, Degrand y sus colegas han utilizado cerca de tres millones de horas de procesamiento en Ranger (el equivalente de 340 años en un procesador simple) para simular las nuevas partículas compuestas por quarks con dos colores y tres colores, respectivamente. Las simulaciones ayudan a caracterizar las nuevas partículas y determinar si son candidatas para la física más allá-del modelo estándar.
Las simulaciones en Ranger revelaron que los modelos más sencillos de technicolor, con dos colores, tienen propiedades que son muy diferentes de un sistema de partículas convencional.El profesor H. Georgi de la Universidad de Harvard acuñó el nombre de "teoría de impartícula" para describir estos sistemas.
El sistema de tres colores era un poco más misterioso. Los investigadores no pudieron determinar si se trataba de una teoría de partícula o una teoría de impartícula. Sin embargo, las simulaciones claramente no representan una opción viable en el escenario del mundo real. Para que una teoría technicolor sea un candidato viable para la nueva física, debe presentar un comportamiento inusual para evitar conflictos con las restricciones definidas por el actual conocimiento experimental. El sistema de tres colores no satisface este criterio. Los investigadores están actualmente continuando su mapa de los modelos de partículas posibles mediante la simulación de sistemas de cuatro colores de quarks.
"La idea de que el mecanismo de Higgs podría ser causado por las fuertes interacciones de todavía-a-ser-descubiertas partículas elementales ha estado con nosotros desde hace algún tiempo, pero hasta hace poco, ha sido difícil de probar esta idea por falta de recursos informáticos adecuados ", dijo Carlton DeTar, un antiguo colaborador de la Universidad de Utah,quién no participó en la investigación actual. "Degrand y sus colaboradores se encuentran entre los principales grupos en el mundo que usan simulaciones numéricas de gran alcance para investigar esta alternativa interesante. Los resultados podrían tener profundas implicaciones para la búsqueda de la partícula de Higgs en el Gran Colisionador de Hadrones en Europa".
Al igual que las pinturas surrealistas de Salvador Dalí revelan que se da por sentado los aspectos de nuestro mundo material, la alternativa de las teorías technicolor tienen un valor intelectual. Ellas nos enseñan acerca de las teorías de partículas, colocándolas en un contexto más amplio.
Para Degrand, el estiramiento de la mente es más importante que, la aventura de descubrir algo realmente novedoso.
"Es de alto riesgo y alta recompensa de investigación", dijo Degrand.
Pero, si él y sus colegas encuentran una alternativa viable al modelo estándar , ello podría llevar a la siguiente teoría del todo.
leer el estudio AQUÍ
fuente de la información:
http://www.nsf.gov/discoveries/disc_summ.jsp?cntn_id=119404&org=NSF
El teorema CPT implica, a excepción de la señal de diversas propiedades tales como la carga, que una partícula y su antipartícula deberían ser absolutamente idénticas. El teorema es en esencia un principio inviolable de la teoría cuántica de campos, y que sigue la premisa de que la física es la misma en todos los sistemas inerciales. El teorema CPT ha sido probado con los bariones, partículas compuestas hechas de quarks unidas por la interacción fuerte mediante el uso de una trampa Penning para comparar las masas del protón y del antiprotón con una precisión mejor que una parte en 1010 [ ver aquí ]. Una prueba más importante sería una comparación exacta de sus intrínsecos momentos magnéticos (spin) , que también deberían ser idénticos, salvo el signo. Una colaboración entre investigadores de varias instituciones en Alemania han dado un gran paso hacia esta meta. Escrito en Physical Review Letters,ellos informan de la observación del volteo(o cambio brusco) del spin de un solo protón confinado en una trampa Penning [ ver aquí ].
Una trampa Penning confina una partícula cargada, en un ultra alto vacío, utilizando un campo magnético uniforme, lo que hace que la partícula se someta a un movimiento circular ciclotrón y un potencial electrostático, que hacen que la partícula oscile a lo largo del eje de la trampa, paralelo al campo magnético (ver Fig. 1). El momento magnético de la partícula, expresado como la cantidad adimensional conocida como el factor g, se puede medir con mucha precisión en esta configuración, ya que es el cociente de dos frecuencias: la frecuencia del spin de precesión de Larmor, que es la frecuencia del (débil) campo magnético oscilante necesaria para voltear(o cambiar bruscamente) la dirección del spin del protón con respecto al campo magnético en la trampa, y la frecuencia del movimiento ciclotrón de la partícula. En esencia, la frecuencia ciclotrón mide el campo magnético. Aunque hay otros métodos para medir el momento magnético del protón-(después de todo, la precesión de Larmor es la base de la resonancia magnética nuclear (NMR)-nada de esto puede aplicarse fácilmente a los antiprotones. Utilizando una trampa Penning, el momento magnético del antiprotón podría ser medido mejor que una parte en 109, una mejora de más de un millón de veces los valores existentes [ ver aquí ].
En los años 1970 y 1980, Hans Dehmelt y sus colegas de la Universidad de Washington, en Seattle, hicieron muchos avances en la precisión de la técnica de trampa Penning con partículas individuales [ ver aquí y aquí ]. Este trabajo culminó en una medición precisa del momento magnético del electrón, que proporcionó la prueba más precisa de la teoría de laelectrodinámica cuántica y el valor más preciso de la constante de estructura fina α. (Estos resultados han ahora sido sustituidos, pero sólo en los últimos años [ ver aquí ].) Dehmelt y sus colegas también compararon los momentos magnéticos de los electrones y sus antipartículas, los positrones, con una incertidumbre de sólo dos partes en 1012, dando una prueba exacta del teorema CPT para leptones [ ver aquí ].
En una trampa Penning, las frecuencias del ciclotrón y los movimientos axiales de una partícula cargada se pueden medir mediante la detección, (usándo circuitos sintonizados y preamplificadores criogénicos),de la oscilante carga imagen inducida en los electrodos de la trampa. A pesar de que la amplitud de estos movimientos son pequeños, los dos tipos de movimiento pueden ser clásicos e involucrar a muchos cuantos de energía. Pero, ¿cómo se detecta el simple volteo cuántico de un solo spin? (En los experimentos de resonancia magnética convencional, EPR y NMR, la muestra es macroscópica y contiene muchos spines.) Para resolver este problema, Dehmelt desarrolló lo que él llama el "efecto continuo Stern-Gerlach (CSG)." Si el campo magnético es deliberadamente hecho no uniforme, por lo general con una variación cuadrática la fuerza adicional, a partir de la interacción del momento magnético con el gradiente del campo magnético, cambia la frecuencia del movimiento axial por una pequeña cantidad, y este cambio de frecuencia depende de la dirección del spín del electrón. Por lo tanto, un voltéo de spin se puede detectar, de forma elegante y no destructiva, mediante la detección de la pequeña variación de la frecuencia axial. El problema con la extensión de esta técnica CSG de un electrón a un protón es que el momento magnético del protón es 658 veces más pequeño que del electrón. El pequeño cambio en la frecuencia axial debido a un voltéo(o cambio brusco) del spin del protón es por tanto muy difícil de detectar.
Con el fin de darse la mejor oportunidad para medir este cambio, Ulmer y sus colegas desarrollaron una especial trampa Penning miniatura en la cuál el electrodo central se fabricó de material ferromagnético para producir un muy fuerte gradiente de campo cuadrático. De hecho, en el centro de la trampa, este anillo ferromagnético redujo la intensidad del campo magnético uniforme, producido por un solenoide superconductor el cual rodea a la trampa, desde 1. 89 a 1. 17 tesla. Aún así, el cambio previsto en la frecuencia axial debido al voltéo del spin del protón fué de sólo 0. 19 Hz, la cuál tuvo que ser medida sobre el tope de una frecuencia axial total de 674 kHz!.
fig1, la imágen muestra la geometría simplificada de la trampa Penning usada por S Ulmer.El protón oscila axialmente a lo largo de las líneas de campo magnético debido al potencial eléctrico aplicado al anillo de electródos(indicados como + y - de acuerdo a su polaridad).Un solenoide superconductor(no mostrado) que rodea la trampa produce un campo magnético uniforme el débil campo magnético de radio frecuencias causa que el spin del protón cambie bruscamente .La interacción entre el momento magnético del spin del protón y el campo magnético no-homogéneo producido por el electródo central(hecho de material ferromagnético),resulta en un pequeño pero detectable cambio en la oscilación de frecuencia axial del protón.Crédito.Alan Stonebraker.
fig2,la imágen muestra la resonancia magnética nuclear de un simple protón.S Ulmer midió la probabilidad de un cambio brusco del spin de un simple protón confinado en una trampa Penning usándo un campo magnético oscilante .La probabilidad alcanza un máximo en la frecuencia de Larmor.Credit: S. Ulmer et al.
Por desgracia, este fué el nivel en el que la frecuencia axial derivó y fluctuó, a pesar del uso por parte del equipo de fuentes de tensión extremadamente estable y de esfuerzos para reducir la introducción de ruido externo. En el trabajo publicado, ellos obtuvieron su mejor sensibilidad a los cambios en la frecuencia axial mediante el uso de una señal de un promedio de tiempo de 80 segundos. El resultado de la raíz cuadrada media de variación entre sucesivas mediciones fue entonces de alrededor de 0. 15 Hz. Este nivel de estabilidad no ha sido suficiente para detectar de forma inequívoca los 0. 19 Hz, debidos al voltéo del spin simple.
Sin embargo, tras repetidas exposiciones del protón a radio frecuencia (RF) en la frecuencia de Larmor, ellos pudieron detectar un aumento de las fluctuaciones en la frecuencia axial. Por otra parte, variando la frecuencia de la RF, y usándo el aumento de las fluctuaciones de frecuencia axial como su señal, pudieron trazar una resonancia del cambio brusco del spin. Esta resonancia, que se muestra en la (Fig. 2), tiene una amplia, forma exponencial asimétrica. Esto se corresponde con ladistribución de Boltzmann de las amplitudes del movimiento axial del protón (en equilibrio térmico con el circuito de detección), combinado con el fuerte gradiente de campo magnético. Mediante el ajuste de la forma de la línea, ellos pudieron medir la frecuencia de Larmor (en el centro de la trampa) con una precisión de 0. 02%. Sus resultados están de acuerdo con el valor esperado de la medición del campo magnético usándo la frecuencia ciclotrón del protón una convincente demostración que de hecho ellos habían observado el voltéo (o cambio brusco) del spin de un simple protón.
Pero este no es el final de la historia. Con el fin de lograr el objetivo de una trampa Penning para medir el factor g del protón (y un antiprotón) con una precisión por debajo de una parte en 109, la colaboración alemana, al igual que su competencia en Harvard [ ver aquí ], planean inducir el voltéo del spin en una trampa Penning con un campo magnético uniforme, lo cual les dará una resonancia mucho más estrecha y luego transferirán al protón a una segunda trampa con un fuerte gradiente de campo, para detectar el voltéo del spin. (Las trampas son adyacentes y comparten el fuerte campo magnético de modo que el sentido del spin no se modifica en la transferencia.) Este esquema, que algunos de los autores ya han implementado con éxito en las mediciones de los momentos magnéticos(electrónico) de los iones tipo hidrógeno [ver aquí ], requiere suficiente estabilidad de la frecuencia axial para detectar de forma inequívoca un simple voltéo del spin. Una vez que una medición precisa del factor g del protón ha sido demostrada, una configuración similar de trampa Penning, conectada con el desacelerador de antiprotones del CERN, en Ginebra, Suiza, será utilizada para la medición de antiprotones.
Curiosamente, S. Ulmer indica que la limitación en la estabilidad de la frecuencia axial del ión no se debió a la inestabilidad en el voltaje que confina al protón. Por el contrario, creen que la inestabilidad se debe a las fluctuaciones de la energía ciclotrón: el momento magnético asociado con el movimiento ciclotrón también provoca un cambio en la frecuencia axial, y una unidad de cambio en el número cuántico ciclotrón cambiando la frecuencia axial por 0 068. Hz. En un estudio que se informó en otro lugar, ellos encontraron que las observadas fluctuaciones residuales en la frecuencia axial eran consistentes con las fluctuaciones en la energía ciclotrón a una tasa promedio de un salto cuántico cada 20 segundos. Además de la meta inmediata de la medición del factor g de antiprotones para poner a prueba la CPT, una comprensión de cómo el movimiento radial se calienta podría tener implicaciones para la investigación sobre el procesamiento de información cuántica usando electrones atrapados y iones.
artículo del físico Edmund Myers para physics.aps.
leer el estudio de S. Ulmer AQUÍ
fuente de la información:
http://physics.aps.org/articles/v4/49
Las nubes moleculares son llamadas así porque tienen una densidad lo suficientemente grande para apoyar la formación de moléculas, por lo general moléculas de H2. Su densidad también las hace sitios ideales para la formación de nuevas estrellas - y si la formación de estrellas es frecuente en una nube molecular, tendemos a darle el título menos formal de guardería estelar.
Tradicionalmente, la formación de estrellas ha sido difícil de estudiar, ya que tiene lugar dentro de densas nubes de polvo. Sin embargo, la observación del infrarrojo lejano y de la radiación submilimétrica que sale de las nubes moleculares permiten que los datos se recogan de los objetos pre-estelares, incluso si ellos no pueden verse directamente. Estos datos se extraen del análisis espectroscópico – donde las llíneas espectrales del monóxido de carbono son particularmente útiles en la determinación de la temperatura, la densidad y la dinámica de los objetos pre-estelares.
El Infrarrojo lejano y la radiación submilimétrica pueden ser absorbidas por el vapor de agua en la atmósfera terrestre, por lo que la astronomía en estas longitudes de onda es difícil de lograr desde el nivel del mar -, pero relativamente fácil en la baja humedad de los lugares de gran altitud, como el Observatorio de Mauna Kea en Hawai.
El astrónomo R. J Simpson junto a otros colegas realizó un estudio sub-milimétrico de la nube molecular L1688 en Ofiuco, sobre todo en busca de núcleos proto-estelares con picos azules doble asimétricos (BAD) - que indican que un núcleo está experimentando las primeras etapas del colapso gravitacional para formar una protoestrella. Un pico BAD se identifica mediante estimaciones Doppler de los gradientes de velocidad del gas a través de un objeto. Todo esto se realiza mediante el Telescopio James Clerk Maxwell , en Mauna Kea, con los instrumentos ACSIS(Auto-Correlation Spectral Imaging System) y HARP(Heterodyne Array Receiver Programme) .
la imágen muestra la compleja nube Rho Ophiuchi,dentro de la cual se localiza la nube L1688 una región activa de formación de estrellas. Crédito .NASA.
la imágen muestra a los núcleos proto-estelares de la nube L1688 en Ophiuchus con la señal de picos azules doble asimétricos (BAD) indicándo gas cayéndo debido al colápso gravitacional se localizan todos hacia el lado derecho de la línea de inestabilidad de Jeans el gráfico ayuda a que el camino evolucionario de los núcleos proto-estelares sea estimado.Crédito:R.J. Simpson.
La física de la formación de las estrellas no se entiende completamente. Pero, presumiblemente debido a una combinación de fuerzas electrostáticas y la turbulencia dentro de una nube molecular,las moléculas comienzan a agruparse en trozos tal vez fundiéndose con trozos adyacentes hasta que haya una colección de material lo suficientemente sustancial como para generar su propia gravedad.
Desde este punto, un equilibrio hidrostático se establece entre la gravedad y la presión del gas del objeto pre-estelar – aunque a medida que la materia se acreciona, la gravedad se auto-incrementa. Los objetos pueden ser sostenidos dentro del rango de la masa Bonnor-Ebert - donde los objetos más masivos en este rango son los más pequeños y más densos . Pero a medida que la masa sigue creciendo, el límite de inestabilidad de Jeans se alcanza cuando la presión del gas ya no puede soportar el colapso gravitacional y la materia colápsa para crear un núcleo denso y caliente proto-estelar.
Cuando la temperatura del núcleo alcanza 2.000 grados Kelvin, el H2 y otras moléculas se disocian para formar un plasma caliente. El núcleo no es todavía lo suficientemente caliente como para impulsar la fusión, sino que se irradia su calor - estableciéndose un nuevo equilibrio hidrostático entre la radiación térmica hacia el exterior y la atracción gravitatoria hacia el interior. En este punto, el objeto es ahora oficialmente una protoestrella .
Siendo ahora un centro importante de masa, la protoestrella es probable que arrástre un disco de acreción circunestelar alrededor de ella. Cuándo se acreciona más material y la densidad del núcleo aumenta aún más, la fusión del deuteriocomienza primero - seguido por la fusión del hidrógeno, momento en que nace una estrella de la secuencia principal.
artículo del astrónomo Steve Nerlich para Universe Today.
leer el estudio de R. J Simpson AQUÍ
fuente de la información:
http://www.universetoday.com/86495/astronomy-without-a-telescope-star-seeds/#more-86495
En el Radioactive Isotope Beam Facility (RIBF) del Centro RIKEN en Wako Japón, un equipo de investigadores ha medido el tiempo que tardan 38 isótopos extremadamente raros para decaer a la mitad. Este es el primer estudio de la vida media de 18 de los isótopos. Los datos ofrecen una prueba largamente esperada de las predicciones teóricas de la velocidad a la que estos isótopos se desintegran, y ayudan a los físicos nucleares para entender una fuente fundamental de muchos de los elementos atómicos y sus isótopos. Los resultados también marcan un logro temprano del RIBF, que entró en funcionamiento en el 2007, y actualmente cuenta con "el mayor rendimiento de producción de isótopos radiactivos pesados en el mundo", según el miembro del equipo Shunji Nishimura del Laboratorio de Isótopos radiactivos, encabezado por Hiroyoshi Sakurai.
Los más estable isótopos contienen ligeramente más neutrones que protones, lo cual equilibra la fuerza de repulsión entre los protones de igual carga. Para obtener más información acerca de una forma importante de nucleosíntesis astrofísica, la generación de nuevos isótopos y sus elementos en las estrellas, los físicos nucleares están interesados en crear y estudiar isótopos muy ricos en neutrones que están lejos de este equilibrio estable. Sin embargo, esto no se puede hacer en el laboratorio.
la figura muestra los pasos en una forma clave de nucleosíntesis que únicamente ocurre en las explosiones de estrellas ,cuando un neutrón (esferita azul en la parte izquierda) es capturado por el elemento niobio (Nb122),el se convierte en un protón dentro del estado intermedio (Nb123) antes de la desintegración a molibdeno (Mo123) trás emitir un electrón (esferita verde parte derecha).Crédito.2011 RIKEN.
La mitad de los elementos más pesados que el hierro se cree que se producen sólo en el ambiente denso y caliente de la explosión de una estrella por el "proceso de captura rápida de neutrones llamada "proceso r", en el cual un núcleo semilla -por lo general un elemento ligero captura neutrones rápidamente antes que ellos puedan desintegrarse hacia la estabilidad. El proceso r continúa hasta que el núcleo llega a un llamado "punto de espera" en la que el núcleo sufre del decaimiento beta de tal manera que un neutrón se convierte en un protón, un electrón es emitido y otro neutrón puede ser capturado (ver fig ). Esta serie de capturas y emisiones continúa hasta que un isótopo estable se alcanza.
Dado que la densidad de neutrones y la energía necesaria para que la nucleosíntesis a través del proceso r se produzca son tan extremas, los físicos todavía están tratando de reconstruir una imagen completa de su trayectoria. Con este fin, simulan el proceso, utilizando las masas de isótopos relevantes y la vida –media como datos, y luego prueban el resultado de las simulaciones en contra de la abundancia real de los isótopos.
Una falta de información sobre muchos de los isótopos ricos en neutrones que pueden existir en el camino del proceso r significa que las simulaciones han sobre o subestimado la abundancia de los isótopos del producto final. Usando las mediciones del RIBF, el equipo RIKEN está llenando la información clave que falta la cual es necesaria para simular el proceso r. Las mediciones incluyen la vida media de isótopos ricos en neutrones del criptón, estroncio, itrio, circonio, niobio, molibdeno y el tecnecio, que se encuentran cerca de la ruta del proceso r.
"Nuestros resultados proporcionan los primeros indicios de por qué se observa una mayor abundancia de ciertos isótopos-en particular los de la región de masa pesada –de lo que predice la teoría", dice Nishimura.
En el transcurso de un experimento de ocho horas, el equipo clasificó los fragmentos producidos por la colisión de un haz relativista de iones de uranio tras chocar con un blanco de berilio. Los fragmentos fueron identificados, ya que pasaron por dos fases del separador “BigRIPS” del RIBF, la segunda de ellas contenía imanes superconductores que ordenaban los elementos por masa y carga.Finalmente, un detector de silicio altamente especializado, que avisa cuando se ha implantado con un isótopo particular y el tiempo que transcurre hasta que este isótopo emite un electrón (a través de la desintegración beta), permitió al equipo para determinar las “vidas medias” de los isótopos .
Los raros isótopos ricos en neutrones creados en las colisiones suelen sobrevivir durante menos de una décima de segundo. La instalaciones del RIBF, sin embargo, tiene la más alta intensidad del haz de uranio del mundo y un separador en la vanguardia para discriminar isótopos de vida corta, que lo hacen un lugar único en su tipo para estas mediciones.
Antes de los experimentos en el RIBF, los físicos nucleares se basaban en los modelos teóricos para determinar las masas y la vida media de muchos de los isótopos a lo largo de la trayectoria del proceso r. La ironía es que sin datos disponibles, la precisión de estos modelos no podía ser probado. Un componente clave del trabajo de Nishimura y sus colegas,fue por lo tanto la comparación de sus tasas de desintegración medidas con las predichas por varios modelos utilizados."Antes de nuestro trabajo, no estaba claro qué modelo se debería utilizar", dijo Nishimura.
En particular, el equipo demostró que dos modelos los llamados KTUY + GT2 y el FRDM + GT2 predijeron la medición de la vida media de los isótopos bastante bien, mientras que el modelo llamado FROM + QRPA predijo vidas medias que fueron, en algunos casos, diez veces más o menos de lo que el equipo RIKEN observó.
"Sólo mediante la medición de muchos isótopos de una manera sistemática podría decirnos que modelo está equivocado, al menos cuando el número total de protones y neutrones es de alrededor de 115", dijo Nishimura.
Esta nueva visión puede explicar por qué anteriores simulaciones del proceso-r basadas en ciertos modelos han subestimado la abundancia de elementos más pesados. Por ejemplo, un modelo que sobrestima la vida media de los núcleos que contribuyen al proceso r sobrestimará el tiempo para que el proceso r se produzca. Los datos del equipo sugieren que una vez que el núcleo semilla llega a un punto de espera, se desintegra con bastante rapidez, alcanzando raramente el tamaño necesario para producir un isótopo más pesado.
Las importantes nuevas mediciones son aún "una pequeña pieza del rompecabezas global de cómo los elementos como el oro y el uranio se crean", dice Nishimura.Utilizando las capacidades únicas del RIBF, el equipo tiene previsto continuar sus mediciones-mediante la realización del experimento durante largos períodos de tiempos usándo un haz de más alta intensidad de los iones de uranio.
ver el estudio AQUÍ
fuente de la información:
http://www.physorg.com/news/2011-05-importance-fundamental.html
Cuando se trata de mediciones cuánticas, la interacción con el medio ambiente por lo general límita la sensibilidad, ya que provoca la coherencia. Pero en un nuevo estudio, los científicos han demostrado que el entorno puede ser una ventaja. Han diseñado un método para aumentar la sensibilidad en la precisión de las mediciones cuánticas con el uso del medio ambiente para mejorar la respuesta de un sensor cuántico a las perturbaciones débiles en un campo externo.
Los investigadores, Garry Goldstein de la Universidad de Harvard, junto con coautores de la Universidad de Harvard, MIT, la Universidad de Copenhague, y el Instituto de Tecnología de California, han publicado su estudio titulado "Mediciones de Precisión con Asistencia del Medio Ambiente" en una edición reciente de Physical Review Letters. En su estudio, los científicos primero describen un caso idealizado, y luego demuestran que funciona en dos casos diferentes: los relojes cuánticos con iones atrapados y magnetometría basada en el spin.
"Nos dimos cuenta de que parte del medio ambiente se puede utilizar para aumentar la sensibilidad", dijo la coautora Paola Cappellaro del MIT ."Encontramos que los estados entrelazados, que no sean los que habitualmente se proponen para la metrología (estados GHZ, estados comprimidos) pueden mejorar la sensibilidad mientras hacen más robusta a la decoherencia".
la imágen muestra un modelo de un spin central acoplado a un baño de spines oscuros los cuales son parte del medio ambiente .Trás monitoriar la dinámica de los spines oscuros el spin central adquiere una más grande sensibilidad lo que le permite "leer" los más pequeños campos externos tales como los campos magnéticos.Crédito.Image credit: G. Goldstein, et al.
Como explican los científicos, un sensor cuántico se puede construir con un spin central acoplado a un baño de spines oscuros, que forman parte del medio ambiente. Todos estos spines actúan como qubits, cada uno con un estado de 0, 1, o una superposición de ambos. Mientras que el spin central se puede controlar y leer, los spines oscuros sólo pueden ser controlados colectivamente y no se detectan directamente. Además, el spin central y los spines oscuros se pueden acoplar, y esta unión puede ser efectivamente encendida y apagada a voluntad.
El spin central puede indirectamente medir el campo externo, como un campo magnético, mediante la detección de la dinámica de los spines oscuros alrededor, que a su vez están afectados por el campo externo. Para ello, los investigadores primero entrelazaron el spin central a los spines oscuros, y luego utilizaron este estado entrelazado para sentir el campo externo. A medida que los spines oscuros entrelazados evolucionan, adquieren una fase que depende del estado del spín central. Entonces, los investigadores podrían voltear el spin central y leer sus señales. Mediante la lectura de esta señal, los investigadores podrían medir la diferencia de fase entre los estados de los spines oscuros, lo que proporciona una medida del campo externo.
Es importante destacar que la diferencia de fase adicional debido a los spines oscuros amplifica la señal del spin central y permite que se de lectura a un campo más pequeño que antes, mientras menor sea el campo que un sensor puede leer durante un tiempo determinado, mayor es su sensibilidad cuántica . Mientras que la señal es mejorada , el ruido de fondo sigue siendo el mismo.
"Aquí asumimos que parte del entorno (los " spines oscuros ') se pueden controlar, aunque no se pueden medir directamente, "dijo Cappellaro. "En este escenario, hay dos posibles estrategias: manipular los spines oscuros del entorno para desacoplarlos del sensor o explotarlos mediante la creación de un estado entrelazado con el spin del sensor. Hemos encontrado que esta segunda estrategia es viable y produce una mejor sensibilidad. "
En general, el método logra una precisión que se acerca al límite de Heisenberg.Este límite resulta del principio de incertidumbre de Heisenberg y marca el máximo de sensibilidad que cualquier medición puede lograr.
Al comparar este método a otro procedimiento de medición de precisión basado en el eco del spin, los investigadores encontraron que el nuevo método tiene una mayor sensibilidad debido a la amplificación de la señal del spin central.Ambos métodos tienen aproximadamente los mismos tiempos de coherencia, ya que, para ambos métodos, la decoherencia surge de las interacciones entre los espines oscuros, no del resto del medio ambiente.
Como las simulaciones demostraron, el nuevo método podría tener aplicaciones en la mejora de la sensibilidad de los relojes que usan iones atrapados y la detección magnética basada en spin electrónica en el diamante. Los científicos también predicen que este método podría aplicarse en general a una amplia variedad de sistemas.
"Los relojes extremadamente sensibles son muy importantes, por ejemplo, para el posicionamiento global", dijo Cappellaro. "Los sensores magnéticos podrían encontrar aplicaciones en una amplia gama de áreas, desde la ciencia de los materiales a bio-imágenes."
leer el estudio AQUÍ
fuente de la información:
http://www.physorg.com/news/2011-04-sensitivity-precision-environment.html
El universo se espera que sea casi homogéneo en densidad, a gran escala.
En Physical Review Letters, Shaun Thomas y sus colegas de la University College de Londres analizan las mediciones de la densidad de galaxias en las mayores escalas espaciales hasta ahora(miles de millones de años luz) y encuentran que el universo es menos homogéneo de lo esperado [ver aquí ]. Si esto se mantiene, este resultado tendrá importantes implicaciones para nuestra comprensión de la materia oscura, la energía oscura, y quizás la gravedad en si misma.
En el actual modelo cosmológico estándar, la densidad media masa-energía del universo observable se compone de 5% demateria normal (la mayoría de la cual es hidrógeno y helio), 23% de materia oscura, y 72% de energía oscura. La energía oscura se supone que es uniforme, pero la materia normal y oscura no lo son. El equilibrio entre la materia y la energía oscura determina a su vez cómo el universo se expande y cómo las regiones de inusualmente alta o baja densidad de materia evolucionan con el tiempo.
El mismo modelo cosmológico predice las estadísticas de la estructura no uniforme y su dependencia de la escala espacial. En las escalas que son pequeñas para los estándares cosmológicos, las fluctuaciones en la densidad de materia son comparables a su media, de acuerdo con lo que se ve: la materia se agrupa en galaxias, cúmulos de galaxias, y filamentos de la “web cósmica”.En las escalas mayores, sin embargo, el contraste de las estructuras en comparación a la densidad media disminuye. En las mayores escalas cosmológicas, estas fluctuaciones de densidad son pequeñas en amplitud en comparación con la densidad media del universo y así están bien descritas por la teoría de perturbaciones lineales (ver resultados de la simulación en la figura abajo).Por otra parte, estas perturbaciones pueden ser calibradas en los primeros tiempos, directamente en elfondo de microondas cósmico (CMB), una instantánea del universo cuando tenía sólo 380, 000 años de edad. A pesar de que sólo el 5% del Universo es bien entendido, este modelo está excelentemente ajustado a los datos que abarcan una amplia gama de escalas espaciales de como las fluctuaciones evolucionaron desde la época del CMB a la edad actual del universo, de unos 13. 8 mil millones de años. En las escalas más grandes, la energía oscura conduce la expansión acelerada del universo. Debido a que este aspecto del modelo estándar es menos comprendido, es importante probarlo en estas escalas.
las simulaciones basadas en el modelo cosmológico estándar como la mostrada en la imágen indican que sobre las más grandes escalas las galaxias deberían estar uniformemente distribuidas,pero las observaciones muestran una distribución más agrupada de lo esperado.La longitud de la barra en la imágen representa 2.3 mil millones de años luz.Crédito.Courtesy of Volker Springel/Max-Planck-Institute for Astrophysics, Garching, Germany.
Shaun Thomas utiliza catálogos públicos del Sloan Digital Sky Survey para seleccionar a más de 700, 000 galaxias cuyos colores observados indican un desplazamiento al rojo significativo y por lo tanto se suponen a grandes distancias cosmológicas.Ellos usan el corrimiento al rojo de las galaxias, junto con sus posiciones observadas en el cielo, para crear un mapa aproximado de tres dimensiones de las galaxias en el espacio y para evaluar la homogeneidad en las escalas de un par de miles de millones de años luz.Una complicación es que Thomas mide la densidad de las galaxias no la densidad de toda la materia, pero se espera que las fluctuaciones de estas dos densidades alrededor de su media sean proporcionales la constante de proporcionalidad se puede calibrar por medio de observaciones en escalas más pequeñas. En efecto, a pequeña escala los datos de galaxia están en buen acuerdo con el modelo estándar. En las escalas más grandes, las fluctuaciones en la densidad de galaxias se espera que sean del orden del uno por ciento de la densidad media, pero Thomas encuentra fluctuaciones el doble de lo predicho. Este resultado sugiere entonces que el universo es menos homogéneo de lo esperado.
Este resultado no es del todo nuevo: estudios previos basados en subconjuntos de los datos estudiados por Thomas mostraron el mismo efecto, aunque con menor significación estadística [ver aquí y aquí y aquí]. Además, hay otras maneras de sondear la distribución de masa a gran escala. Por ejemplo, inhomogeneidades en la distribución de la masa llevan a inhomogeneidades en la tasa de expansión local. Algunos estudios han sugerido que, en muy grandes escalas, esta expansión también es menos homogénea que las predicciones del modelo [ ver aquí ,aquí y aquí].
Otra manera de probar la distribución de masa es el llamado efecto integrado Sachs-Wolfe. Los fotones del CMB que viajan hacia nosotros a través de una región de más alta densidad de masa adquieren un corrimiento hacia el azul gravitacional, cuando ellos caen dentro de la región, y un corrimiento al rojo a medida que surgen. Si la profundidad del posible pozo cambia durante el tránsito de los fotones, estos dos efectos no se cancelarán y los fotones adquirirán un cambio de frecuencia neto. Un estudio reciente [ ver aquí ] ha encontrado una señal de exceso, de nuevo sugiriéndo que el universo puede ser menos uniforme de lo esperado a muy grandes escalas.
Si se confirma la falta de homogeneidad, las consecuencias para el modelo estándar serían graves, y podría implicar una reconsideración de la naturaleza de la materia oscura y energía oscura, o incluso de la aplicabilidad de la relatividad general a escalas cosmológicas. Sin embargo, dado el éxito rotundo del modelo estándar hasta la fecha, deberíamos tener dudas antes de descartarlo, y en su lugar considerar explicaciones alternativas.
Las mediciones de la agrupaciones de galaxias son un reto debido a que la señal ( uno por ciento de nivel de fluctuación), es pequeña, de modo que los efectos sistemáticos deben ser muy bien controlados. En particular, la luz de las galaxias distantes pasa a través de nuestra galaxia, la Vía Láctea en el camino hacia el telescopio. Las nubes de polvo en las partes exteriores de la Vía Láctea pueden absorber o dispersar la luz de las galaxias distantes, por lo que algunas de ellas aparecen demasiado tenues para ser medidas. Estos efectos son conocidos, pero no se pueden calibrar perfectamente, las estrellas débiles en las afueras de la Vía Láctea tienen dos efectos sutiles en los datos: pueden ser confundidas con las galaxias distantes, o su presencia puede ocultar la existencia de galaxias distantes que se encuentran en la cercanía en el cielo. Si cualquiera de estos efectos varía a través del cielo, la variación podría ser confundida con una variación en la distribución intrínseca de las galaxias de fondo. Aunque Shaun Thomas examinó algunos de estos temas, un borrador reciente [ ver aquí ] afirma que este efecto de "ocultación" de las estrellas ha contaminado de manera importante sus resultados.
Futuros estudios en grandes escalas [ ver aquí ,aquí y aquí] producirán una avalancha de datos. Estos estudios permitirán que los métodos empleados por Thomas y otros,sean extendidos a mayores escalas aún. Por supuesto, el reto para estos futuros estudios será el de corregir los efectos sistemáticos para una precisión aún mayor.
artículo del astrofísico Michael J. Hudson para Physics.aps.
leer estudio de Shaun Thomas AQUÍ
fuente de la información:
http://physics.aps.org/articles/v4/47
Científicos de la Universidad Johannes Gutenberg de Mainz en Alemania han construido lo que es actualmente la mayor fuente de neutrones ultrafríos. Los neutrones ultrafríos (UCNs) se generaron por primera vez aquí hace cinco años. Ellos son mucho más lentos que los neutrones térmicos y se caracterizan por el hecho de que pueden ser almacenados en contenedores especiales. Esta propiedad los convierte en herramientas importantes para los experimentos que investigan por qué la materia domina sobre la antimateria en nuestro universo y cómo los elementos más ligeros fueron creados inmediatamente después del Big Bang. "Hemos encargado una nueva fuente de UCN y mejorado el procedimiento general de modo que ahora podemos generar y almacenar mucho más neutrones ultrafríos que antes y más que nadie", dice el profesor Werner Heil del Instituto de Física de la Universidad de Mainz.Después de haber logrado hasta ahora alcanzar una densidad de diez UCN por centímetro cúbico, el equipo de investigación de Mainz de químicos y físicos se ha convertido en uno de los líderes mundiales en este campo de investigación.
En el 2006, el equipo de Mainz, en colaboración con la Universidad Técnica de Munich, produjo por primera vez neutrones ultrafríos usándo el reactor TRIGA de Mainz. Los neutrones se crean por medio de la fisión nuclear en el reactor de investigación TRIGA en Mainz. Estos neutrones de fisión alcanzan velocidades de hasta 30.000 kilómetros por segundo - una décima parte de la velocidad de la luz. La interacción con los núcleos atómicos ligeros en el reactor los ralentiza a una "térmica" velocidad de aproximadamente 2.200 metros por segundo. El aparato desarrollado por los investigadores de la Universidad de Mainz es entonces empleado: un tubo de tres metros de largo se inserta en el tubo de rayo del reactor en el punto donde se encuentra el más alto flujo de neutrones térmicos. Los neutrones térmicos se someten a una desaceleración de velocidad extrema en este tubo.
científicos de la Universidad Johannes Gutenberg en Mainz Alemania.
Esta nueva fuente de UCNs en el tubo de rayo D del reactor TRIGA en Mainz sólo ha completado con éxito su primera prueba de esfuerzo. En el aparato UCN los neutrones térmicos se desaceleran de a dos en dos pasos: en primer lugar con el hidrógeno y, posteriormente, con un bloque de hielo hecho de deuterio a menos 270 grados centígrados. "Los neutrones son tan lentos que podríamos correr detrás de ellos", dice el profesor Werner Heil. Los UCNs se mueven del sitio experimental al otro extremo del tubo a una velocidad de tan sólo 5 metros por segundo. El tubo de acero inoxidable está recubierto de níquel en el interior para asegurar de que ningún neutrón se pierda en el camino.
El parámetro clave para los científicos es la densidad de UCN que se puede conseguir en el lugar del experimento - un requisito previo para llevar a cabo experimentos de alta precisión. "En nuestro primer ensayo, hemos logrado diez UCN por centímetro cúbico en un volumen de almacenamiento típico de diez litros. Cuando usamos hidrógeno como un pre-moderador y haciendo unos pequeños cambios, esperamos cincuenta UCN por centímetro cúbico," explica el Dr. Thorsten Lauer y el Dr. Yuri Sobolev, que supervisan el sistema. Esto es más que suficiente para llevar a cabo experimentos como mediciones para determinar el tiempo de vida del neutrón. Con esta densidad de UCN, el equipo de investigación de Mainz es ahora el favorito en la carrera por lograr la mayor densidad de almacenamiento, en donde las instalaciones en Los Alamos, Grenoble, Munich y la ciudad suiza de Villigen están también compitiendo.
El tiempo de vida de un neutrón - de acuerdo a los actuales conocimientos científicos - es de aproximadamente 885 segundos, pero este número está dominado por los errores sistemáticos. El método utilizado se conoce como "contar a los sobrevivientes": el número de neutrones que queda después de un cierto tiempo de decaimiento es correlacionado con el número conocido de la muestra inicial. Hasta ahora, para mediciones del tiempo de vida más precisos no son suficiente los neutrones ultrafríos que están disponibles.
más información AQUÍ y AQUÍ
fuente de la información:
http://www.physorg.com/news/2011-06-mysteries-astrophysics-ultracold-neutrons.html
Hay muchas cosas que no sabemos sobre el núcleo atómico, a pesar de que fue descubierto hace un siglo.
Hemos , por supuesto, aprendído mucho. Podemos obtener energía mediante la división del núcleo en un proceso conocido como fisión o fundir los núcleos en un proceso conocido como fusión . Si bien no podemos decir exactamente cuando un núcleo inestable se desintegrará en su propia transformación espontánea de un isótopo a otro, podemos decir qué tan rápido un gran grupo de núcleos lo hará. De hecho, con confianza podemos determinar la vida media de un núcleo-(el tiempo en el que el 50 por ciento se desintegrará), incluso en casos en los cuales esa vida media es mayor que la edad del universo. Los núcleos muestran rarezas cuya comprensión ayudará a entender nuestro mundo. Una de ellas es la tendencia de los protones yneutrones que componen el núcleo atómico , conocidos colectivamente como nucleones para unirse en pares.
cuando un rápidamente rotante núcleo de germanio 72 aumenta su temperatura los emparejamiento entre los protones y neutrones en el núcleo tienden a decreser constantemente.A una temperatura crítica sin embargo los emparejamientos dán marcha atrás(es decir aumentan) como se representa en el centro de la ilustración.El extraño comportamiento indica una fase de transición dentro del núcleo de germanio 72.Crédito.(Illustration by Andy Sproles, ORNL).
Los físicos del Oak Ridge National Laborator, en la Universidad de Tennessee, y el GSI en Darmstadt Alemania usaron recientemente el superordenador Jaguar del ORNL para explorar la vinculación (o emparejamiento) de pares de neutrones en un isótopo raro-el germanio-72. Al hacerlo, descubrieron que los cambios en la temperatura y la rotación llevan al núcleo a través de al menos dos fases físicas. Su trabajo, el cual ofrece la primera descripción realista de este tipo de transición de fase en un núcleo atómico, fué presentado en Noviembre del 2010, en la edición de Physical Review Letters.
En nuestra vida mundana somos testigos de transiciones de fase siempre que vemos al agua enfriarse en hielo o hervir en vapor. Estos tres estados del agua-sólido, líquido y gas son las tres fases, y las transiciones dependen de la presión y la temperatura. En el oculto mundo cuántico del núcleo atómico, sin embargo,las transiciones de fase son más sutiles.
El Germanio-72 tiene 32 protones (como todos los isótopos de germanio) y 40 neutrones. Los 40 neutrones forman parejas fuertemente cuando el núcleo es frío y tranquilo, pero la asociación se debilita a medida que aumenta la temperatura o la rotación. Lo que el equipo descubrió, sin embargo, fué que la relación no es directa. Cuando la rotación es alta, el emparejamiento se debilita a medida que aumenta la temperatura, dando marcha atrás en un pequeño rango de temperaturas, y luego debilitándose cuando la temperatura sigue aumentando. Ese atascamiento indica la transición entre las fases.
"La transición de fase es el resultado del emparejamiento, la rotación, y la temperatura", señaló la miembro del equipo Nam Hai Ah del ORNL. "Lo que vimos fué que en la más alta rotación, había una temperatura crítica, donde el emparejamiento repentinamente se vió favorecido de nuevo. Eso fué interesante".
Ella dijo que el descubrimiento es emocionante en parte porque la transición de fase es una reminiscencia del cambio experimentado por los superconductores ferromagnético. En los cuales se da el caso de que los electrones en el material superconductor forman parejas los llamados pares de Cooper por debajo de una temperatura crítica, permitiendo al material conducir la electricidad sin pérdida.
"A esta temperatura, el vínculo o emparejamiento se volvió a introducir," dijo Nam en los neutrones del isótopo de germanio. "Fué a través de esta transición de fase. Es como en los superconductores, donde usted tiene que estar a una cierta temperatura para que los pares de Cooper se formen. Y lo que se traduce en el fenómeno de superconducción."
El equipo simuló al germanio-72 en Jaguar utilizando una técnica estadística llamada Modelo de Capas de Monte Carlo,el cual fué introducido en CalTech en la década de 1990 por una colaboración que incluyó a los miembros del equipo de David Dean, ahora en el ORNL, y Karlheinz Langanke, ahora en el GSI. En el modelo de capas nuclear, los protones y neutrones ocupan sucesivamente más altos niveles de energía, con un número limitado de nucleones capaces de ocupar cada nivel. Así, por ejemplo, dos neutrones pueden colocarse en el nivel más bajo de energía, cuatro en el de arriba, dos más en el que sigue, y así sucesivamente.
La técnica computacional analiza los protones y neutrones en cada uno de estos niveles de energía. Para evitar tener que mirar en todas las configuraciones posibles de los 72 nucleones osea un billón de billones de configuraciones, la técnica calcula las propiedades del núcleo usándo una media estadística cuántica.Este enfoque le da al equipo una respuesta de alta precisión combinada con una incertidumbre conocida.
Incluso con esta técnica de muestreo, el cálculo utilizó 80.000 de los 240000 núcleos de procesos de Jaguar durante cuatro horas para estudiar un único núcleo.
"El impacto de Jaguar en la solución de estos cálculos es tremendo," dijo Nam."Obtener esta misma cantidad de información llevaría meses para terminarse hace una década. Ahora estamos en condiciones de realizar la investigación de cómputo en un superordenador en una semana."
El equipo tiene previsto continuar con esta investigación para ver si el efecto está presente en otros isótopos distintos del germanio-72. Los investigadores también han sugerido una manera de comparar los resultados teóricos del experimento. Los resultados iniciales indican que la transición de fase que se ve en el germanio-72 puede ser única.
"En continuos estudios vamos a ver una docena o más de núcleos de media masa dentro de este rango para ver si podemos conseguir el mismo efecto", dijo Nam. "Debido a que Jaguar es un recurso formidable, podemos ahondar en lo más profundo y llevar a cabo esencialmente más experimentos en un corto período de tiempo para obtener una mejor comprensión de la ciencia. La velocidad a la que podemos ver una gran variedad de núcleos hubiera sido imposible cuando David empezó esto. "
Una de las ventajas de la técnica del Modelo de Capas de Monte Carlo,ella señaló, es que predice las consecuencias de la transición de fase que pueden ser verificadas experimentalmente. En este caso, la cantidad de energía necesaria para elevar la temperatura del material, conocido como el calor específico, desciende notablemente en la temperatura crítica.
Nam dijo que el equipo ha sido contactado por los experimentadores interesados en verificar el resultado, una tarea difícil pero factible. Los investigadores han sido capaces de examinar el calor específico de los núcleos en el pasado, pero hasta ahora nadie ha dado un vistazo de cerca al germanio-72.
Entonces, ¿qué quiere decir que al menos algunos núcleos pasan por este tipo de cambio de fase? Nadie está seguro. El resultado es muy nuevo, y las implicaciones necesitarán tiempo para estar claras.
"La competencia entre la superconductividad, la rotación rápida, y la temperatura es un tema fascinante que puede ser estudiado en diversos sistemas físicos, incluyendo pequeños núcleos atómicos y ferromagnetos de gran escala ", dijo el miembro del equipo Witold Nazarewicz, un físico de la Universidad de Tennessee."Estamos felices de saber que nuestro modelo teórico puede ofrecer la primera descripción realista de un fenómeno difícil de los sucesivos emparejamientos o vinculaciones en transiciones de fase en el núcleo."
"Entonces, ¿cuál es el impacto físico de aprendizaje de que el germanio tiene un cambio de fase? Bueno, los cambios de fase son ciertamente explotado en muchas prácticas de ingeniería", dijo Nam. "Por ahora, estos resultados nos hacen dar un paso más hacia la comprensión del núcleo atómico."
leer el estudio AQUÍ
fuente de la información:
http://www.ornl.gov/info/features/get_feature.cfm?FeatureNumber=f20110601-01