miércoles, 29 de diciembre de 2010

radio galaxias y doble agujeros negros.

Los lóbulos de una Radio Galaxia son equivalente a un billón de luminosidades solares de radiación en el espacio en longitudes de onda de radio. Por lo tanto ellas son faros cósmicos, y la luz desde la más lejana que se conoce fué emitida cuando el Universo tenía sólo unos pocos miles de millones de años (en comparación con su edad actual de aproximadamente 13.7 mil millones de años). El origen de esta emisión intensa se cree que se encuentra en el ambiente cálido de unagujero negro masivo en el núcleo de la galaxia, con la emisión de radio producida por electrones que se mueven rápidamente en fuertes campos magnéticos. Los astrónomos buscan entender mejor las galaxias en general, y el contexto de los orígenes de la Vía Láctea, quieren saber cuándo y cómo se formaron las radio galaxias , su evolución, y cómo afectan su medio ambiente.
Las luminosas radio galaxias, por supuesto, también contienen estrellas. La relación entre el desarrollo de las estrellas de una radio galaxia y su agujero negro nuclear sigue siendo muy incierto. Los astrónomos del CfA Steve Willner y Giovanni Fazio, junto con nueve colegas, usaron el Telescopio Espacial Spitzer y sus cámaras infrarrojas para estudiar el polvo caliente y brillante en el infrarrojos de una gran muestra de setenta radio galaxias cuya luz ha estado viajando hacia la Tierra por tiempos que van desde 7.5 hasta 12 mil millones de años - las épocas cósmica donde la mayoría de los astrónomos piensan que la maduración de las galaxias ocurrió.


radio imágen en falso color de la relativamente cercana radio galaxia Centaurus A mostrándo la emisión de lóbulos gigantes de radio (en violeta) la galaxia principal y su núcleo están localizados en el centro el cuadro inserto muestra una imágen en multiples longitudes de onda incluyendo la luz visible de la misma galaxia,un nuevo estudio hecho en el infrarojo sobre 70 radio galaxias parecidas a Centaurus A encontró que 4 poseían evidencia de tener 2 agujeros negros en sus núcleos lo que sugiere que las radiogalaxias probablemente se forman mediante la fusión de galaxias más pequeñas.Crédito.Ilana Feain, Tim Cornwell & Ron Ekers (CSIRO/ATNF). ATCA northern middle lobe pointing courtesy R. Morganti (ASTRON), Parkes data courtesy N. Junkes (MPIfR).


Los astrónomos informan que la mayoría de estas galaxias completaron el proceso de hacer la mayoría de sus estrellas cuando el universo tenía sólo unos 2.5 mil millones de años. También encontraron que las diferencias en la emisión infrarroja de la muestra es consistente con la idea de que sus núcleos activos están oscurecidos por discos de polvo siendo observados en varios ángulos. El equipo llegó a una notable conclusión. Cuatro de las setenta galaxias muestran evidencia en las imágenes de un segundo agujero negro súper masivo, lo que sugiere que el origen de estas galaxias (y quizás también el de las otras durante alguna etapa anterior de desarrollo) fue causado por la fusión de dos galaxias más pequeñas.
En otro artículo en la misma edición de la revista Astrophysical Journal, los astrónomos teóricos del CfA Yue Shen y Avi Loeb presentan un análisis de la firma espectral de la radiación de los agujeros negros binarios. Si los agujeros negros están en realidad orbitando uno alrededor del otro en lugar de sólo estar de cerca el uno del otro, y suponiendo que cada uno tiene un medio ambiente de acreción emitiendo luz, los científicos demuestran que la pruebas de diagnóstico de ese movimiento estarán presentes en la forma de las líneas espectrales emitidas - al menos cuando los dos agujeros negro están orbitando bastante de cerca. El resultado, aunque no específicamente aplicado a las galaxias luminosas de radio con agujeros negros binarios, ofrece una nueva forma de sondear los detalles de la actividad de los agujeros negros en los núcleos de las galaxias.




fuente de la información:




http://www.cfa.harvard.edu/news/2010/su201049.html

martes, 28 de diciembre de 2010

misión Planck cumple 500 días.

Esta semana (el 27 de diciembre) marca 500 días desde que la misión Planck comenzó su exploración del cielo el 14 de agosto del 2009. Una vez cada minuto, Planck gira sobre su eje para mapear anillos de todo el cielo. Ahora en plena realización de su tercer estudio del cielo, Planck está a más de la mitad del camino de su misión, y está mapeando el cielo en nueve diferentes bandas de longitudes de onda que van desde 0,3 mm hasta 1 cm.

La misión principal de Planck es el mapa del Fondo Cósmico de Microondas, la radiación reliquia del universo primitivo, emitido sólo 400.000 años después del Big Bang. Pero el temprano universo no es el único objeto que brilla en la luz de microondas. El gas y polvo en nuestra propia galaxia brilla intensamente, nublando la visión del Fondo Cósmico de Microondas. La amplia cobertura de longitudes de onda de Planck es la solución.


imágen de microondas de todo el cielo hecha por la misión Planck,la estructura moteada del Fondo Cósmico se observa en la parte superior e inferior de la imágen , también se muestra la ubicación de algunas estructuras de nuestra propia galaxia como Perseus Y Orión.Crédito.ESA/ LFI & HFI Consortia.

Al escanear el cielo varias veces, Planck está construyendo una imagen de cuales componentes de nuestra galaxia se observan en cada longitud de onda. En julio del 2010, el primer mapa de todo el cielo de Planck fue emitido, mostrando la potencia de tan amplia cobertura de longitudes de onda. El polvo de nuestra galaxia se muestra en azul y blanco, con el gas en color rosa. Este gas y polvo se encuentran en el disco de nuestra galaxia, y se ven de canto desde la Tierra produciendo una banda en el centro de la imagen.
El Fondo Cósmico de Microondas es visible en la parte superior e inferior de la imagen, apartando la mirada desde el disco brillante de la galaxia. Al comparar las emisiones vistas en todas sus longitudes de onda, los científicos de la misión Planck serán capaces de obtener una comprensión mucho más clara del Universo temprano ,estos resultados cosmológicos no se esperan sino hasta después de dos años.
Los astrónomos también están estudiando el polvo y el gas en nuestra propia galaxia, que marcan los lugares donde se están formando estrellas. Planck está elaborando mapas de la formación estelar en las escalas más grandes, los cuales pueden ser estudiados en más detalle por otros telescopios, como el Observatorio Espacial Herschel.
Sin embargo, nuestra propia galaxia no es el única vista por Planck. En enero del 2011, un catálogo de las galaxias distantes se dará a conocer, así como regiones muy localizadas de formación de estrellas en nuestra galaxia.





Una vez cada minuto,Planck gira sobre su eje para mapear anillos de todo el cielo en longitudes de onda que van desde 0,3 mm hasta 1 cm.




lunes, 27 de diciembre de 2010

modelo estadístico podría ayudarnos a comprender la aceleración cósmica.

Si bien es generalmente aceptado por los científicos que el universo se está expandiendo a un ritmo acelerado, hay preguntas acerca de por qué esto debería ser así. Durante años, los científicos han estado tratando de determinar la causa de este comportamiento. Una de las teorías es que la energía oscura podría ser la causa de la aceleración cósmica.


Para poner a prueba la teoría de la energía oscura , un grupo de científicos del Alamos National Laboratory en Nuevo México y de la Universidad de California en Santa Cruz usaron una técnica diseñada para probar diferentes modelos de energía oscura. "Estamos tratando de investigar lo que podría estar detrás de la expansión acelerada del universo ", dijo Katrin Heitmann, uno de los científicos de Los Alamos. "Nuestra técnica se basa en los datos, y se puede utilizar para evaluar los diferentes modelos."
Heitmann y sus colaboradores crearon su método basado sobre la modelación de procesos Gaussianos, la implementación fue dirigida por Tracy Holsclaw de la Universidad de California en Santa Cruz. "Estamos usando métodos estadísticos en lugar de tratar de usar los diferentes modelos. Nuestro proceso toma datos que provienen de diferentes fuentes y luego los utilizamos para buscar ciertas desviaciones de lo que suponemos es una constante cosmológica.


el diagrama muestra la variación en la velocidad de la expansión del universo desde su origen hace más de 13.5 mil millones de años observándose un cambio notable hace aproximadamente 7.5 mil millones de años cuando los objetos comenzaron ha separarse a mayor velocidad momento en el cual se cree la energía oscura dominó sobre la atracción gravitatoria de la materia oscura ,un estudio reciente de Katrin Heitmann utilizando métodos estadístico ha revelado hasta ahora que la energía oscura sigue manteniendo la forma de una constante cosmológica en lugar de un origen dinámico que varía en el tiempo.Crédito.Nasa.

"Muchos científicos creen que la energía oscura está impulsando la expansión acelerada del universo," dice Heitmann. "Si este es el caso, es posible caracterizarla a ella a través de su ecuación de estado w (z). La evolución del corrimiento al rojo del parámetro w(z) de la ecuación de estado mostraría algunos indicios de un origen dinámico de la energía oscura. "
Heitmann señala que, en tal caso, podría haber un número infinito de modelos. "No podemos probar todos los modelos", dice ella, "así que tenemos que hacer un problema inverso. Tenemos los datos y podemos caracterizar la causa subyacente de la expansión acelerada. Se supone que w es una función que varía uniformemente, y una teoría dinámica de la energía oscura encajaría con esto. Podemos utilizar los datos y analizarlos para ver si podemos encontrar indicios de que la energía oscura realmente está detrás de la expansión acelerada. "
El equipo de los Alamos y la Universidad de California en Santa Cruz, primero probaron su técnica estadística sobre datos simulados con el fin de ver si el método era fiable. "Después se vió que lo era", dice Heitmann, "lo hemos probado con datos actualmente disponibles de supernovas".
Hasta ahora, sus análisis no han revelado que una energía oscura dinámica está detrás de la expansión acelerada (la constante cosmológica es un caso muy especial de la energía oscura y todavía está en concordancia con los datos), pero Heitmann no cree que ello signifique que se le cierre la puerta a las teorías dinámicas de la energía oscura como la causa de la aceleración de la expansión del universo. "Los datos hasta el momento son limitados, y mejores datos están llegando todos los días", ella dice. Además, el grupo espera incluir otros datos en sus análisis estadísticos. "Nuestra técnica permite la entrada de datos delfondo de microondas cósmico asi como también de las oscilaciones acústicas de bariones, y eso es lo que queremos añadir próximamente."
Si esta técnica identifica una energía oscura dinámica como la razón de la expansión acelerada del universo, podría significar volver a examinar los fundamentos de lo que sabemos sobre el funcionamiento del universo. "Si encontramos la dependencia del tiempo que soporta la idea de la energía oscura con este mecanismo, entonces podemos volver al enfoque de la teoría. Tendríamos una idea de qué modelos podrían explicar mejor la historia de la expansión del universo y, finalmente, desarrollar una teoría auto-consistente sin hipótesis ad hoc "




leer el estudio AQUÏ




fuente de la información:



http://www.physorg.com/news/2010-12-statistical-cosmic.html

cuando la materia y la antimateria colisionan.

La antimateria, una sustancia que a menudo caracteriza la ciencia ficción, es habitualmente creada en el laboratorio de física de partículas del CERN en Ginebra, Suiza, lo que nos proporciona una mejor comprensión de los átomos y las moléculas. Ahora, los científicos japoneses del RIKEN (Rikagaku Kenkyūsho), como parte de un equipo de colaboración con investigadores de Dinamarca, Japón, Reino Unido y Hungría, han demostrado que los antiprotones , partículas con la misma masa que un protón pero con carga negativa-chocan con las moléculas de muy diferentes formas en su interacción con los átomos. El resultado establece un importante punto de referencia para poner a prueba futuras colisiones atómicas.

El científico del RIKEN Yasunori Yamazaki explica que para evaluar tales colisiones: "disparamos la más simple partículas cargadas negativamente lentos antiprotones contra el más simple blanco molecular,el hidrógeno molecular.Los antiprotones lentos son una punta de prueba única de átomos y moléculas ya que su carga negativa no atrae electrones, lo que simplifica los modelos teóricos. Además, velocidades más lentas del proyectil implican más larga duración,más fuertes interacciones y evita la necesidad de complicados cálculos relativistas.
Los científicos del CERN crearon antiprotones por el disparo de un haz de protones de alta velocidad dentro de un bloque de metal iridio. Luego, en una instalación conocida como el desacelerador de antiprotones, utilizaron imanes para enfocar los antiprotones antes de aplicar fuertes campos eléctricos para reducir la velocidad a aproximadamente el 10% de la velocidad de la luz. Yamazaki y sus colegas atraparon y enfríaron estos antiprotones a un 0,01% de la velocidad de la luz antes de acelerarlos uno por uno a la velocidad deseada. A continuación, estrellaron los antiprotones en un gas de deuterio molecular (un par de átomos de hidrógeno unidos, cada uno con un núcleo que comprende un protón y un neutrón), y utilizó equipo sensible para detectar los restos de la colisión.


diagrama esquemático de un desacelerador de antiprotones en el CERN el cual es utilizado para colisionar antiprotones contra hidrógeno molecular produciéndose partículas remanentes las cuales pueden ser analizadas para proveer información sobre sus interacciones.Crédito.Credit: 2010 Helge Knudsen.

Yamazaki y el equipo encontraron que la probabilidad de la ionización de las moléculas de deuterio se relaciona linealmente con la velocidad de los antiprotones.Esto es contrario a lo que se esperaba para el hidrógeno como blanco atómico."Esta fue una gran sorpresa, y se deduce que nuestra comprensión de la dinámica de las colisiones atómicas, incluso a un nivel cualitativo, se encuentra todavía en su infancia", dice Yamazaki. El equipo sugiere que los blancos moleculares proporcionan un mecanismo para suprimir el proceso de ionización. Cuando un antiprotón se acerca a uno de los protones en la molécula, la presencia del segundo protón desplaza la nube de electrones en órbita. Un más lento antiprotón,da más tiempo al electrón para ajustarse, y por lo tanto menor será la probabilidad de ionización.
El equipo espera ahora investigar como la ionización depende de la distancia (blanco- antiprotón) y la orientación en el momento de la colisión.


el artículo se puede encontrar AQUÏ


fuente de la información:


http://www.physorg.com/news/2010-12-antimatter-collide.html

sábado, 25 de diciembre de 2010

una cuestión de tamaño.

El radio de carga del protón es uno de los parámetros fundamentales de la naturaleza. Es actualmente aceptado por CODATA (Committee on Data for Science and Technology ) un valor de 0.8768×10-15 m , el cual se ha determinado principalmente por las mediciones del corrimiento Lamb del hidrógeno y, en menor exactitud, por los experimentos de dispersión protón-electrón. Este valor ha sido recientemente cuestionado por un equipo de investigación del Instituto Paul Scherrer (PSI) en Villigen, Suiza. Al medir el corrimiento Lamb en el hidrógeno muónico, estos investigadores obtuvieron un valor de 0.8418×10-15 m para el radio de carga, cinco desviaciones estándar por debajo del valor de CODATA.


el tamaño del protón es medido por la dispersión de un electrón cuando pasa por sus cercanías.

En un artículo que aparece en la revista Physical Review Letters, un grupo de científicos ha determinado los factores de forma magnéticos y eléctricos del protón con una mayor presición de lo que se conocía, usando el acelerador de electrones MAMI (Mainz Microtron) en Mainz Alemania para medir la sección eficaz de la dispersión elástica electrón -protón. Los dos factores de forma (distribución de carga) muestran la estructura Q2 mπ2 que puede indicar la influencia de la nube de piones del protón.Pero, además, el valor extraído para el radio de carga está completamente de acuerdo con el valor CODATA.La discrepancia entre las mediciones "basadas en el electrón" y las recientes mediciones del PSI "basadas en el muón " siguen siendo un rompecabezas.


leer el estudio AQUÏ


fuente de la información:


http://physics.aps.org/synopsis-for/10.1103/PhysRevLett.105.242001

combinándo 2 enfoques de la fuerza fuerte.

La Cromodinámica Cuántica (QCD) es la descripción fundamental de la fuerza fuerte en el modelo estándar de física de partículas. La QCD es muy acertada en describir el comportamiento de los quarks y los gluones a altas energías. Sin embargo, a energías por debajo de un 1 GeV, la teoría se convierte en fuertemente acoplada, y se debe contar con estados ligados de la teoría: piones, protones, neutrones y otros hadrones. Los intentos de formular una teoría efectiva de las interacciones fuertes a tan bajas energías tradicionalmente han sufrido de problemas de renormalizabilidad, que limitan grandemente su poder predictivo.

estructura de un protón observándose la composición de quarks y la carga de color que adoptan,las líneas onduladas indican gluones que son los bosones portadores de la interacción fuerte.

Un enfoque que se ha utilizado implica "quarks constituyentes", que convierten a los quarks de la QCD en eficientes entidades. Por ejemplo, un protón se describe a menudo como "compuesto de tres quarks constituyentes." Un segundo enfoque es hacer una ampliación en el límite de la "gran N" donde N es el número de colores. Aunque el N es de sólo 3 en la QCD, este enfoque a menudo funciona bien cualitativamente. Ahora, en un artículo reciente en la revista Physical Review Letters, Steven Weinberg, propone una manera de unir los dos enfoques en una teoría de campo efectiva de quarks constituyentes , gluones, y piones. Resulta que el gran límite N de esta efectiva teoría es renormalizable.
Esta propuesta introduce una nueva herramienta computacional para la física de hadrones y la investigación de su viabilidad fenomenológica es probable que se lleve a cabo en estudios futuros interesantes.


leer el estudio AQUÏ



fuente de la información:




http://physics.aps.org/synopsis-for/10.1103/PhysRevLett.105.261601

viernes, 24 de diciembre de 2010

cambios en la tabla periódica de elementos.

Por primera vez en la historia, un cambio se hará a los pesos atómicos de algunos elementos que aparecen en la tabla periódica de los elementos químicos publicadas en las paredes de las aulas de química y en el reverso de las tapas de los libros de química en todo el mundo.

La nueva tabla, se indica en un informe publicado este mes, expresando los pesos atómicos de 10 elementos - hidrógeno, litio, boro, carbono, nitrógeno, oxígeno, silicio, azufre, cloro y talio - de una manera nueva que refleja con mayor precisión cómo estos elementos se encuentran en la naturaleza.
"Durante más de un siglo y medio,a muchos se les enseñó a utilizar los pesos atómicos estándar - un único valor. - Que se encuentran en la cubierta interior de los libros de química y en la tabla periódica de los elementos pero a medida que la tecnología mejora, hemos descubierto que los números en nuestra tabla no son tan estáticos como hemos creído ", dice el Dr. Michael Wieser, un profesor asociado de la Universidad de Calgary, quien se desempeña como secretario de la Unión Internacional de Química Pura y Aplicada (IUPAC) en la Comisión sobre abundancia de isotópos y pesos atómicos. Esta organización supervisa la evaluación y difusión de los valores de los pesos atómicos.
Las técnicas modernas de análisis pueden medir el peso atómico de muchos elementos precisamente, y estas pequeñas variaciones en el peso atómico de un elemento son importantes en la investigación y la industria. Por ejemplo, las mediciones precisas de la abundancia de los isótopos de carbono pueden ser utilizadas para determinar la pureza y las fuentes de alimentos,tales como la vainilla y la miel. Mediciones isotópicas de nitrógeno, cloro y otros elementos se utilizan para el seguimiento de contaminantes en los arroyos y aguas subterráneas. En las investigaciones de dopaje deportivo, la testosterona para mejorar el rendimiento puede ser identificada en el cuerpo humano ya que el peso atómico del carbono de la testosterona natural del ser humano es superior a la de la testosterona farmacéutica.


el profesor Michael Wieser de la universidad de Calgary,contribuyó a los cambios en la tabla periódica el usó un espectrómetro de masa para medir la abundancia de isótopos de un elemento en particular.Crédito .Riley Brandt/University of Calgary.

Los pesos atómicos de estos 10 elementos ahora se expresarán como intervalos, con límites superior e inferior, los cuales expresarán con mayor exactitud esta variación en el peso atómico.Los cambios hechos en la tabla de la norma de pesos atómicos se han publicado en Pure and Applied Chemistry y un artículo complementario en Chemistry International .
Por ejemplo, el azufre es comúnmente conocido por tener un peso atómico estándar de 32.065. Sin embargo, su peso atómico real puede estar entre 32.059 y 32.076, dependiendo de dónde se encuentra el elemento. "En otras palabras, sabiendo el peso atómico se puede utilizar para descifrar los orígenes y la historia de un elemento concreto en la naturaleza", dice Wieser quien es co-autor del informe.
Los elementos con sólo un isótopo estable, no presentan variaciones en sus pesos atómicos. Por ejemplo, los pesos atómicos estándar del flúor, aluminio, sodio y el oro son constantes, y sus valores se conocen más alla de las seis cifras decimales.
"A pesar de que este cambio ofrece beneficios significativos en la comprensión de la química, se puede imaginar el desafío actual para los educadores y los estudiantes que tendrán que seleccionar un valor único de un intervalo al hacer los cálculos en química", dice la Dra. Fabienne Meyers, director asociado del IUPAC.
"Esperamos que los químicos y los educadores tomarán este desafío como una oportunidad única para fomentar el interés de los jóvenes en la química y generar entusiasmo por el futuro creativo de la química."
La Universidad de Calgary ha sido y sigue contribuyendo sustancialmente en el estudio de las variaciones de peso atómico.El profesor H. Roy Krouse creó el Laboratorio de Isótopos Estables en el Departamento de Física y Astronomía en 1971. Los primeros trabajos de Krouse establecieron el amplio ordenamiento natural en el peso atómico de elementos importantes, como el carbono y azufre. Actualmente, los investigadores de la Universidad de Calgary,en física ,química,ciencia medioambiental, y ciencias de la Tierra están explotando las variaciones en los pesos atómicos para dilucidar el origen de los meteoritos, para determinar las fuentes de contaminantes del aire y el agua, y estudiar el destino del dióxido de carbono inyectado en los medios geológicos.
Este cambio fundamental en la presentación de los pesos atómicos se basa en trabajos hechos entre 1985 y el 2010 con el apoyo de la IUPAC, la Universidad de Calgary y otras instituciones.



el estudio se puede leer AQUÏ


fuente de la información:



http://www.eurekalert.org/pub_releases/2010-12/uoc-awo121510.php

miércoles, 22 de diciembre de 2010

el "Borde" de la grandeza.

El llamado "Fin o Borde" de la grandeza es donde usted deja de encontrar más superlativos para describir la gran escala de los objetos en el universo. Actualmente, la Gran Muralla Sloan - una colección más o menos organizada de supercúmulos galácticos la cual divide un gran vacío de otro gran vacío – está alrededor de donde la mayoría de los cosmólogos trazan la linea o borde.

Más allá del "Borde" de la Grandeza, lo mejor es sólo considerar al universo como una entidad holística - y en esta escala, consideramos que es isótropo y homogéneo, y esto se tiene que hacer para poder realizar el trabajo actual de cosmología matemática. Pero en el mismo borde de la grandeza, nos encontramos con la red cósmica .
La red cósmica no es una cosa que podemos observar directamente su estructura en 3D se deriva de los datos de corrimiento hacia el rojo para indicar la distancia relativa de las galaxias, así como su posición aparente en el cielo. Cuando se une todo esto, la estructura resultante en 3D se parece a una compleja red de filamentos (de cúmulos galácticos) interconectándose en los nodos (supercúmulos) e intercalados por enormes vacíos. Estos vacíos son parecidos a burbujas por lo que cuando hablamos de estructuras como la Gran Muralla Sloan, nos referimos a la superficie externa de tales burbujas. Y también nos referimos a la red cósmica de tener característica "espumosa".
Se especula que los grandes vacíos o burbujas, alrededor de la cuales la red cósmica parece estar organizada, se formaron de pequeñas disminuciones en la densidad de energía primordial (que se puede ver en el fondo cósmico de microondas), aunque una correlación convincente tiene que ser demostrada .


imágen artística que da una idea del aspecto espumoso de la red cósmica,destacándose las burbujas de vacío entre los filamentos de materia.Crédito.NASA.


la imágen muestra el campo de 2 grados (2df) del sondeo de corrimiento al rojo de las galaxias,el cuál utilizó un instrumento con un campo de visión de 2 grados,aunque el sondeo cubrió 1500 grados cuadrados del cielo en 2 direcciones la forma de cuña(sectores) resultó de la naturaleza 3D de los datos donde hay más galaxias más lejos se mira dentro de una región del cielo las burbujas espumosas de la red cósmica son visibles.Credito: The Australian Astronomical Observatory.

Como es bien sabido, la galaxia de Andrómeda está, probablemente, en un curso de colisión con la Vía Láctea y pueden chocar en alrededor de 4,5 mil millones de años. Por lo tanto, no todas las galaxias en el universo se alejan de las demás galaxias - es sólo una tendencia general. Cada galaxia tiene su propio movimiento en el espacio-tiempo, el cual es probable que siga a pesar de la expansión subyacente del universo.
Puede ser que gran parte de la creciente separación entre las galaxias es el resultado de la expansión de las burbujas de vacío, en lugar de una expansión que ocurre igual en todas partes. Se cree que una vez que la gravedad pierde su dominio entre las estructuras distantes - la expansión (o la energía oscura) se hace cargo y la brecha comienza a expandirse sin control -, mientras que en otros lugares,los cúmulos y supercúmulos de galaxias logran mantenerse unidos. Este escenario está acorde con la conclusión de Edwin Hubble de que la gran mayoría de las galaxias están alejándose de nosotros, incluso si ellas no están todas igualmente alejándose las unas de las otras.
Rien van de Weygaert del Kapteyn Astronomical Institute, de la Universidad de Groningen, en Holanda está investigando la red cósmica desde la perspectiva de la topología - una rama de la geometría que trata las propiedades espaciales que se conservan en los objetos sometidos a deformación. Este enfoque parece ideal para modelar la evolución de las estructuras a gran escala de un universo en expansión.


la imágen muestra distintas etapas de la modelación hecha por (Rien van de Weygaert) de la evolución de una estructura de la red cósmica,como se observa el resultado final se asemeja mucho a la apariencia espumosa que se observa en la actualidad .Crédito.Rien van de Weygaert.


Su estudio representa un primer paso en este sentido, el cual muestra que una estructura de la red cósmica puede ser libremente modelada suponiendo que todos los puntos de datos (es decir, las galaxias) se mueven hacia el exterior desde el punto central del vacío que se encuentran más próximos a ellas. Esta norma crea formas alfa , las cuales son superficies generalizadas las cuales se pueden construir sobre los puntos de datos - y el resultado es un modelo matemático de aspecto espumoso parecido a la red cósmica.




el estudio se puede leer AQUÏ





fuente de la información:


http://www.universetoday.com/81813/astronomy-without-a-telescope-the-edge-of-greatness/

martes, 21 de diciembre de 2010

las estrellas más masivas del universo pueden formarse también en aislamiento según nuevo estudio.

Nuevas observaciones de los astrónomos de la universidad de Michigan dan apoyo a la teoría de que las estrellas más masivas en el universo podrían formarse esencialmente en cualquier lugar incluso en forma aislada ya que no necesitan de un gran cúmulo estelar como guarderia.

Este es el más detallado estudio observacional hasta la fecha de estrellas masivas que se observan (desde el punto de vista de la Tierra ) estando solas. Los científicos usaron el Telescopio Espacial Hubble para observar ocho de estas gigantes, las cuales están en un rango que va desde 20 hasta 150 veces más masiva que el sol. Las estrellas que observaron están en la Pequeña Nube de Magallanes, una galaxia enana que es una de las vecinas más cercanas de la Vía Láctea.
Sus resultados, publicados en la edición del 20 de diciembre de la revista Astrophysical Journal , muestran que cinco de las estrellas no tenían vecinas lo suficientemente grande como para que el Hubble las discerniera. Las otras tres parecían estar en grupos pequeños de diez o menos estrellas.
El estudiante de doctorado Joel Lamb y el profesor asociado Sally Oey, del Departamento de Astronomía, explicaron la importancia de sus hallazgos.
"Mi padre solía pescar en un pequeño estanque en la granja de su abuela", dijo Lamb . "Un día sacó un róbalo gigante Este fue el pez más grande que el ha capturado, y él ha pescado en una gran cantidad de grandes lagos Lo que estamos viendo es análogo a esto .Estamos preguntando:«... ¿Puede un pequeño estanque producir un pez gigante? ¿El tamaño del lago determina qué tan grande es el pez? El lago, en este caso sería el cúmulo de estrellas.
"Nuestros resultados muestran que se pueden, de hecho, formar grandes estrellas en pequeños estanques."
Las estrellas más masivas dirigen la evolución de sus galaxias. Sus vientos y radiación dan forma al gas interestelar y promueven el nacimiento de nuevas estrellas. Sus violentas explosiones de supernovas crean todos los elementos pesados que son esenciales para la vida. Es por eso que los astrónomos quieren entender cómo y dónde estas estrellas gigantes se forman. Actualmente existe un gran debate sobre sus orígenes, Oey dijo.


imágen de la estrella 302(una de las estrellas estudiadas) como se ve a través del Telescopio Espacial Hubble, el cual la puede ampliar en aproximadamente 40 veces más cerca. Desde el punto de vista de la Tierra, todo lo que está dentro del círculo se ve como una estrella. Cortesía de Joel Lamb.



imágen de la estrella 302 como se ve desde telescopios en la Tierra.Cortesía de Joel Lamb.

Una teoría es que la masa de una estrella depende del tamaño del cúmulo en el que ha nacido, y sólo un cúmulo de estrellas grande podría proporcionar una fuente lo suficientemente densa de gas y polvo para lograr que una de estas estrellas masivas se forme . La teoría opuesta, y la que apoya esta investigación, es que estas estrellas monstruosas pueden y de hecho se forman más aleatoriamente a través del universo, incluyendo zona aisladas y cúmulos muy pequeños.

"Nuestros hallazgos no apoyan la hipótesis de que la masa máxima de una estrella en un cúmulo tiene correlación con el tamaño del cúmulo", dijo Oey.
Los investigadores reconocen la posibilidad de que todas las estrellas que estudiaron no estuvieran ubicadas en la vecindad en la que nacieron ,dos de las estrellas que examinaron se sabe que son fugitivas que han sido expulsadas de sus cúmulos de nacimiento. Pero en varios casos, los astrónomos encontraron vestigios de restos de gas en las cercanías, fortaleciéndo la posibilidad de que las estrellas esten todavía en los lugares aislados, donde se formaron.


el estudio se puede leer AQUÏ



fuente de la información:



http://ns.umich.edu/htdocs/releases/story.php?id=8180

lunes, 20 de diciembre de 2010

un "pequeño bang" se produjo en el LHC.

Los primeros experimentos para estudiar el plasma de quarks y gluones en el LHC revelan que incluso en las temperaturas más altas jamás producidas en un acelerador de partículas, este estado extremo de la materia sigue siendo el mejor ejemplo de un líquido ideal.

En noviembre, el Gran Colisionador de Hadrones (LHC) del CERN comenzó su primera carrera de iones pesados, produciendo colisiones plomo-plomo con la mayor energía del centro de masas jamás lograda. Ahora, un par de documentos que aparecen en la revista Physical Review Letters, de los experimentos ALICE ( ver aquí ) y ATLAS (ver aquí) en el LHC, presentan un primer vistazo de lo que la nueva información de estas colisiones de alta energía ofrecerá sobre el plasma de quarks y gluones- el estado de la materia que se cree llenó el universo en el momento del Big Bang. Los resultados de ALICE indican claramente que el plasma quark-gluón permanece en un estado líquido casi ideal, como fue visto anteriormente en el Colisionador de Iones Pesados Relativistas (RHIC), incluso a energías significativamente mayores. Como complemento de este trabajo, el equipo del ATLAS ha mostrado que incluso chorros de muy alta energía de partículas emitidas por la colisión pierden una gran parte de su energía en el plasma quark-gluón (y algunas veces son completamente disipadas), una señal de que los quarks y los gluones están fuertemente interactúando con el plasma más caliente.
El plasma quark-gluón (QGP) es el estado extremo de la materia que se produce por encima de una temperatura crítica Tc~170 MeV (2 billones de grados Kelvin). A diferencia del mundo en que vivimos, donde los quarks y los gluones no están libres, sino confinados en los nucleones, el QGP puede ser visto como un plasma compuesto de quarks y gluones que interactúan a través de fuerzas Coulombicas. (La carga de"color" de los quarks y los gluones determina la intensidad de la fuerza fuerte de la misma manera que la carga eléctrica determina la intensidad de la fuerza electromagnética.) Los experimentos de colisiones en el laboratorio tratan de comprender la intensidad de estas fuerzas y sus efectos sobre las propiedades de la QGP.
Anteriormente en los experimentos del año 2000 en las instalaciones del RHIC del Laboratorio Nacional Brookhaven, la pregunta principal era la mejor manera de estudiar la termodinámica y la cinética del plasma quark-gluón. En particular, conocer elcamino libre medio de las partículas en el plasma era importante porque determina si el QGP se comporta como un líquido o un gas. Los experimentos del RHIC esencialmente respondieron a estas preguntas mediante la observación de la explosión ( el "Pequeño Bang" ) creado en la colisión de alta energía de iones de oro. Los experimentos mostraron que el plasma resultante puede ser excelentemente descrito por un cuadro hidrodinámico de un líquido casi ideal, en el cual las partículas tenían un camino libre medio que era efectivamente cero.
Los detectores del RHIC y el LHC, capturan la dinámica de la explosión mediante la medición de la simetría del posterior flujo de partículas: el flujo radial (ν0) , el flujo elíptico (ν2) , el flujo triangular (ν3), y así sucesivamente. (Estos son realmente las componentes de Fourier del flujo, proyectadas sobre los armónicos cos(nϕ), donde ϕ es el ángulo que se envuelve alrededor de la línea de colisión). Las componentes dependen del parámetro de impacto (el cual indica , cuan "de frente" el choque de los núcleos es), los tipos de partículas, y sus momentos transversales.
En el RHIC, la medición de cómo las componentes de este flujo varían de acuerdo con diferentes condiciones experimentales proporcionaron información sobre la materia en un rango de temperatura de entre 0.5Tc y 2Tc . El LHC tiene una energía de colisión mayor que el RHIC, por lo que se esperó producir materia más caliente. Mostrándose que este es el caso, un documento complementario del ALICE proporciona la primera medición de la densidad de las partículas cargadas producidas en las colisiones (ver aquí ) .ALICE determinó el número de partículas cargadas, o "multiplicidad" de una colisión, en función de la "pseudorapidez"-una medida del ángulo de las trayectorias de las partículas con respecto a la línea de colisión. Mediante la medición de la multiplicidad, ALICE fue capaz de calibrar la temperatura del plasma en el LHC en comparación con la producida en el RHIC, resultando(en los primeros tiempos de la explosión) la relación entre la temperaturas TLHC(t)/TRHIC(t)=1.3. Sin embargo, la temperatura inicial en el LHC podría ser incluso mayor, ya que es probable que el plasma se equilibre en un momento más temprano que en el RHIC.
Algunos investigadores esperaban que el QGP(plasma Quark-Gluón) producido en el LHC cambiaría a un régimen en el que los quarks y los gluones estuvieran más débilmente acoplados a una temperatura más alta. Si es así, el camino medio libre de las partículas en el plasma y la viscosidad deberían ser más grande,siendo esto la firma experimental de cuales serían las más pequeñas componentes del flujo (νn). Sin embargo, como los resultados de ALICE han demostrado claramente, este no es el caso. Como se observa en la figura. 1, el parámetro que caracteriza la naturaleza elíptica del flujo líquido, ν2 , en realidad ha crecido en un 30%, exactamente como se predijo por la hidrodinámica (ideal) hace una década ( ver aquí ). La dependencia de ν2 del momento transversal es casi idéntica a la que se midió en el RHIC, y ALICE ha demostrado que el flujo radial ν0 también crece con la energía.


figura nº 1 , el experimento ALICE sugiere que el plasma quark-gluónpermanece como un líquido fuertemente acoplado incluso a temperaturas que son 30 % más grande de lo que estaba disponible en el RHIC.El gráfico muestra el parámetro flujo eliptico V2(una medida del acoplamiento en el plasma) a diferentes energías de colisiones de iones pesados,basados sobre varios experimentos(incluyendo los nuevos datos de ALICE).(Note que la escala de energía está trazada sobre una escala logaritmica y se extiende tres órdenes de magnitud).La tendencia es consistente con predicciones teóricas(diamantes rojos en la gráfica) para unlíquido ideal.Crédito.Credit: G. Aad et al.

Uno de los descubrimientos más importantes en el RHIC fue que los chorros de partículas son fuertemente atenuados cuando interactúan con el plasma quark-gluón. Pares de chorros de partículas energéticas se producen cuando los quarks y los gluones dentro del núcleo en colisión se dispersan entre sí en ángulos grandes. Si los chorros se producen cerca del borde del plasma, el chorro que se mueve hacia el exterior será detectado, sin cambios en la energía, pero el que tiene que moverse a través del plasma pierde mucha energía. En el RHIC, la energía transversal de los chorros observada fué de aproximadamente E~2030 GeV , lo que hacía difícil para los detectores verla en contra del gran y fluctuante fondo de miles de partículas. La mayor energía disponible en el LHC, así como el excelente y finamente granulado calorímetro del ATLAS, permitieron detectar y medir los chorros con una energía transversal desde 25 GeV hasta muy por encima de 100 GeV (ver Fig. 2, izquierda). En el centro de las colisiones plomo-plomo, la probabilidad de un gran chorro asimétrico (es decir, un chorro que llega al detector con más energía que su chorro compañero que se mueve en la dirección opuesta) resulta ser completamente diferente del de las colisiones protón-protón . Puesto que no hay plasma quark-gluón para detenerlos en este último caso, ambos chorros suelen tener alrededor de la misma energía, pero en las colisiones plomo-plomo, en las cuales el segundo chorro es forzado a moverse a través del plasma, la asimetría medida implica que , en promedio, más de la mitad de la energía del chorro se pierde (Fig. 2, derecha). El ATLAS asi mismo ha observado eventos extremadamente asimétricos, en los cuales tales chorros de alta energía, básicamente, se disipan por completo, sin un chorro compañero.


figura nº 2,el lado izquierdo muestra el ejemplo de un chorro sin un compañero visible.El lado derecho muestra chorros asimétricos (donde un chorro pierde la mayor parte de su energía) estos son raros en colisiónes protón-protón pero las mediciones del ATLAS mostraron que tales eventos ocurren con una alta probabilidad en colisiones plomo-plomo.La asimetría Aj para 2 chorros con energías E1 y E2 está definida como Aj=(E1-E2)/(E1+E2).Crédito.Credit: G. Aad et al.

¿Qué nos dicen estos resultados sobre el plasma de quarks y gluones? Que el camino libre medio de partículas en el plasma puede ser convenientemente expresados a través de una relación sin dimensiones (η/sħ), donde η es la viscosidad de corte, s es la densidad de la entropía y ħ es la constante de Planck. En un plasma quark-gluón acoplado débilmente, el camino libre medio debería ser grande (η/sħ1), mientras debería ser pequeño en un plasma fuertemente acoplado. El análisis de datos del RHIC ha demostrado que es extremadamente pequeño, cercano al teóricamente conjeturado más bajo límite de η/sħ=1/4π para un acoplamiento infinitamente fuerte (ver aquí) .Que esta imagen de acoplamiento fuerte se mantenga para el QGP visto en el LHC parece ahora probable. Ingenuamente, uno podría haber esperado que en comparación con los chorros producidos en el RHIC, los chorros de energía más alta disponibles en el LHC viajarían más lejos a través del plasma antes de disipar por completo su energía, pero las mediciones del ATLAS mostraron que la distancia de frenado de un chorro es comparable al radio de los núcleos de plomo utilizados en las colisiones. (La energía / momento va depositada dentro de una onda de sonido o choque[ ver aquí y aquí ], la cual todavía tiene que propagarse por algún tiempo, hasta que al final se congela, convirtiéndose en los hadrones observados.) Una teoría que podría explicar este sorprendente resultado es una teoría de acoplamiento fuerte llamada Correspondencia AdS / CFT , que es una prolongación de la teoría de cuerdas que relaciona el límite de acoplamiento fuerte de los quarks y gluones a una teoría de la gravedad en una dimensión superior. En este cuadro de la AdS / CFT , el equilibrio del plasma de quarks y gluones se conecta a la producción de un agujero negro, y el chorro que se extingue puede ser trazado cayendo en este agujero negro (ver aquí y aquí ).Las predicciones basadas en esta teoría sugieren que la distancia de frenado de un chorro varía como E1/3/T4/3 (ver aquí ), lo que significa que en el LHC, un chorro con E=100 GeV se detiene a la misma distancia que un chorro de 35 GeV en el RHIC-similar a lo observado por el ATLAS. En conjunto, estos resultados desde el ATLAS y ALICE están proporcionando nueva evidencia de que el plasma quark-gluón producido en el LHC está todavía fuertemente acoplado. Después de sólo tres semanas de la carrera del LHC con iones pesados, estamos asistiendo a un comienzo muy emocionante de esta nueva era.




fuente de la información:


http://physics.aps.org/articles/v3/105#c2