Una representación de la evolución del universo durante 13,77 mil millones de años. El extremo izquierdo representa el momento más temprano que ahora podemos comprender, cuando un período de «inflación» produjo un crecimiento exponencial en el universo. (El tamaño está representado por la extensión vertical de la cuadrícula en este gráfico). Durante los siguientes mil millones de años, la expansión del universo se desaceleró gradualmente a medida que la materia del universo se atraía entre sí por la gravedad. Más recientemente, la expansión ha comenzado a acelerarse nuevamente a medida que los efectos repulsivos de la energía oscura dominan la expansión del universo. Crédito: Centro de Vuelo Espacial Goddard de la NASA
Tres décadas de observaciones de telescopios espaciales convergen en un valor preciso de la constante de Hubble
La historia de la ciencia recordará que la búsqueda de la tasa de expansión del universo fue el gran Santo Grial de la cosmología del siglo XX. Sin ninguna evidencia observacional de la expansión, contracción o quietud del espacio, no tendríamos idea de cuándo el universo iba o venía. Además, tampoco tendríamos idea de cuántos años tiene, o de hecho, si el universo fuera eterno.
El primer acto de esta revelación se produjo cuando, hace un siglo, el astrónomo estadounidense Edwin Hubble descubrió una miríada de galaxias fuera de nuestra galaxia natal, la[{» attribute=»»>Milky Way. And, the galaxies weren’t standing still. Hubble found that the farther a galaxy is, the faster it appears to be moving away from us. This could be interpreted as the uniform expansion of space. Hubble even said that he studied the galaxies simply as “markers of space.” However, he was never fully convinced of the idea of a uniformly expanding universe. He suspected his measurements might be evidence of something else more oddball going on in the universe.
“You are getting the most precise measure of the expansion rate for the universe from the gold standard of telescopes and cosmic mile markers.” — Nobel Laureate Adam Riess
For decades after Hubble, astronomers have toiled to nail down the expansion rate that would yield a true age for the universe. This required building a string of cosmic distance ladders assembled from sources that astronomers have a reasonable confidence in their intrinsic brightness. The brightest, and therefore farthest detectable milepost markers are Type Ia supernovae.
When the Hubble Space Telescope was launched in 1990 the universe’s expansion rate was so uncertain that its age might only be 8 billion years or as great as 20 billion years.
After 30 years of meticulous work using the Hubble telescope’s extraordinary observing power, numerous teams of astronomers have narrowed the expansion rate to a precision of just over 1%. This can be used to predict that the universe will double in size in 10 billion years.
The measurement is about eight times more precise than Hubble’s expected capability. But it’s become more than just refining a number to cosmologists. In the interim the mystery of dark energy pushing the universe apart was discovered. To compound things even further, the present expansion rate is different than it is expected to be as the universe appeared shortly after the big bang.
You think this would frustrate astronomers, but instead it opens the door to discovering new physics, and confronting unanticipated questions about the underlying workings of the universe. And, finally, reminding us that we have a lot more to learn among the stars.
This collection of 36 images from NASA’s Hubble Space Telescope features galaxies that are all hosts to both Cepheid variables and supernovae. These two celestial phenomena are both crucial tools used by astronomers to determine astronomical distance, and have been used to refine our measurement of the Hubble constant, the expansion rate of the universe. The galaxies shown in this photo (from top row, left to bottom row, right) are: NGC 7541, NGC 3021, NGC 5643, NGC 3254, NGC 3147, NGC 105, NGC 2608, NGC 3583, NGC 3147, Mrk 1337, NGC 5861, NGC 2525, NGC 1015, UGC 9391, NGC 691, NGC 7678, NGC 2442, NGC 5468, NGC 5917, NGC 4639, NGC 3972, The Antennae Galaxies, NGC 5584, M106, NGC 7250, NGC 3370, NGC 5728, NGC 4424, NGC 1559, NGC 3982, NGC 1448, NGC 4680, M101, NGC 1365, NGC 7329, and NGC 3447. Credit: NASA, ESA, Adam G. Riess (STScI, JHU)
Hubble Reaches New Milestone in Mystery of Universe’s Expansion Rate
NASA’s Hubble Space Telescope has completed a nearly 30-year marathon by calibrating more than 40 “milepost markers” of space and time to let scientists precisely calculate the expansion rate of the cosmos — a mission with a plot twist.
Pursuit of the universe’s expansion rate began in the 1920s with measurements by astronomers Edwin P. Hubble and Georges Lemaître. In 1998, this led to the discovery of “dark energy,” a mysterious repulsive force accelerating the universe’s expansion. In recent years, thanks to data from Hubble and other telescopes, astronomers found another strange twist: a discrepancy between the expansion rate as measured in the local universe compared to independent observations from right after the big bang, which predict a different expansion value.
The cause of this discrepancy remains a mystery. But Hubble data, encompassing a variety of cosmic objects that serve as distance markers, support the idea that something weird is going on, possibly involving brand new physics.
“You are getting the most precise measure of the expansion rate for the universe from the gold standard of telescopes and cosmic mile markers,” said Nobel Laureate Adam Riess of the Space Telescope Science Institute (STScI) and the Johns Hopkins University in Baltimore, Maryland.
Riess leads a scientific collaboration investigating the universe’s expansion rate called SHOES, which stands for Supernova, H, for the Equation of State of Dark Energy. “This is what the Hubble Space Telescope was built to do, using the best techniques we know to do it. This is likely Hubble’s magnum opus, because it would take another 30 years of Hubble’s life to even double this sample size,” Riess said.
Riess’s team’s paper, to be published in the Special Focus issue of The Astrophysical Journal reports on completing the biggest and likely last major update on the Hubble constant. The new results more than double the prior sample of cosmic distance markers. His team also reanalyzed all of the prior data, with the whole dataset now including over 1,000 Hubble orbits.
When NASA conceived of a large space telescope in the 1970s, one of the primary justifications for the expense and extraordinary technical effort was to be able to resolve Cepheids, stars that brighten and dim periodically, seen inside our Milky Way and external galaxies. Cepheids have long been the gold standard of cosmic mile markers since their utility was discovered by astronomer Henrietta Swan Leavitt in 1912. To calculate much greater distances, astronomers use exploding stars called Type Ia supernovae.
Combined, these objects built a “cosmic distance ladder” across the universe and are essential to measuring the expansion rate of the universe, called the Hubble constant after Edwin Hubble. That value is critical to estimating the age of the universe and provides a basic test of our understanding of the universe.
Starting right after Hubble’s launch in 1990, the first set of observations of Cepheid stars to refine the Hubble constant was undertaken by two teams: the HST Key Project led by Wendy Freedman, Robert Kennicutt and Jeremy Mould, Marc Aaronson and another by Allan Sandage and collaborators, that used Cepheids as milepost markers to refine the distance measurement to nearby galaxies. By the early 2000s the teams declared “mission accomplished” by reaching an accuracy of 10 percent for the Hubble constant, 72 plus or minus 8 kilometers per second per megaparsec.
In 2005 and again in 2009, the addition of powerful new cameras onboard the Hubble telescope launched “Generation 2” of the Hubble constant research as teams set out to refine the value to an accuracy of just one percent. This was inaugurated by the SHOES program. Several teams of astronomers using Hubble, including SHOES, have converged on a Hubble constant value of 73 plus or minus 1 kilometer per second per megaparsec. While other approaches have been used to investigate the Hubble constant question, different teams have come up with values close to the same number.
The SHOES team includes long-time leaders Dr. Wenlong Yuan of Johns Hopkins University, Dr. Lucas Macri of Texas A&M University, Dr. Stefano Casertano of STScI and Dr. Dan Scolnic of Duke University. The project was designed to bracket the universe by matching the precision of the Hubble constant inferred from studying the cosmic microwave background radiation leftover from the dawn of the universe.
“The Hubble constant is a very special number. It can be used to thread a needle from the past to the present for an end-to-end test of our understanding of the universe. This took a phenomenal amount of detailed work,” said Dr. Licia Verde, a cosmologist at ICREA and the ICC-University of Barcelona, speaking about the SHOES team’s work.
The team measured 42 of the supernova milepost markers with Hubble. Because they are seen exploding at a rate of about one per year, Hubble has, for all practical purposes, logged as many supernovae as possible for measuring the universe’s expansion. Riess said, “We have a complete sample of all the supernovae accessible to the Hubble telescope seen in the last 40 years.” Like the lyrics from the song “Kansas City,” from the Broadway musical Oklahoma, Hubble has “gone about as fur as it c’n go!”
Weird Physics?
The expansion rate of the universe was predicted to be slower than what Hubble actually sees. By combining the Standard Cosmological Model of the Universe and measurements by the European Space Agency’s Planck mission (which observed the relic cosmic microwave background from 13.8 billion years ago), astronomers predict a lower value for the Hubble constant: 67.5 plus or minus 0.5 kilometers per second per megaparsec, compared to the SHOES team’s estimate of 73.
Given the large Hubble sample size, there is only a one-in-a-million chance astronomers are wrong due to an unlucky draw, said Riess, a common threshold for taking a problem seriously in physics. This finding is untangling what was becoming a nice and tidy picture of the universe’s dynamical evolution. Astronomers are at a loss for an explanation of the disconnect between the expansion rate of the local universe versus the primeval universe, but the answer might involve additional physics of the universe.
Such confounding findings have made life more exciting for cosmologists like Riess. Thirty years ago they started out to measure the Hubble constant to benchmark the universe, but now it has become something even more interesting. “Actually, I don’t care what the expansion value is specifically, but I like to use it to learn about the universe,” Riess added.
NASA’s new Webb Space Telescope will extend on Hubble’s work by showing these cosmic milepost markers at greater distances or sharper resolution than what Hubble can see.
Reference: “A Comprehensive Measurement of the Local Value of the Hubble Constant with 1 km/s/Mpc Uncertainty from the Hubble Space Telescope and the SH0ES Team” by Adam G. Riess, Wenlong Yuan, Lucas M. Macri, Dan Scolnic, Dillon Brout, Stefano Casertano, David O. Jones, Yukei Murakami, Louise Breuval, Thomas G. Brink, Alexei V. Filippenko, Samantha Hoffmann, Saurabh W. Jha, W. D’arcy Kenworthy, John Mackenty, Benjamin E. Stahl and Weikang Zheng, Accepted, The Astrophysical Journal. arXiv:2112.04510
The Hubble Space Telescope is a project of international cooperation between NASA and ESA (European Space Agency). NASA’s Goddard Space Flight Center in Greenbelt, Maryland, manages the telescope. The Space Telescope Science Institute (STScI) in Baltimore, Maryland, conducts Hubble science operations. STScI is operated for NASA by the Association of Universities for Research in Astronomy in Washington, D.C.
La misión del asteroide Psyche de la NASA está en camino de cumplir su nuevo objetivo de lanzamiento de octubre de 2023, según descubrió una revisión independiente.
Psyche estaba programado para lanzarse sobre un cohete SpaceX Falcon Heavy en octubre de 2022 para explorar el intrigante asteroide metálico que dio nombre a la misión. Pero el verano pasado, la NASA pospuso el despegue debido a problemas con el software de vuelo de la nave espacial.
Cuando eso sucedió, la Dirección de Misiones Científicas de la NASA y el Laboratorio de Propulsión a Chorro (JPL) de la agencia en el sur de California, que administra la misión Psyche, convocaron una revisión independiente. En noviembre, esta revisión determinó que la demora se debió en última instancia a problemas laborales en JPL, así como a varios otros factores, como la pandemia de COVID-19 y problemas de comunicación y gestión.
Relacionado: Asteroides: datos divertidos e información sobre rocas espaciales
La semana pasada, la Junta de Revisión Independiente (IRB) completó otra evaluación: su juicio sobre cómo el JPL y el equipo de Psyche respondieron a sus recomendaciones para volver a encarrilar las cosas. Esa guía incluyó agregar miembros experimentados al equipo, reorganizar la fuerza laboral y rastrear el progreso hacia el lanzamiento con métricas más completas, dijeron funcionarios de la NASA.
“El IRB cree que la respuesta a nuestro Proyecto Psyche y a los hallazgos y recomendaciones de la institución JPL es excelente”, dijo el ejecutivo aeroespacial retirado A. Thomas Young, quien dirigió el IRB, durante una conferencia de prensa el lunes por la tarde (5 de junio). .
«Creemos que Psyche está en camino para un lanzamiento en octubre de 2023», agregó. «Creemos que la fecha de preparación para el lanzamiento de 2023 es creíble y la probabilidad general de éxito de la misión es alta».
Esta ilustración muestra la nave espacial Psyche de la NASA acercándose al asteroide metálico Psyche. (Crédito de la imagen: NASA/JPL-Caltech/ASU)
Si se hubiera lanzado el año pasado, Psyche habría golpeado su asteroide objetivo, un objeto rico en metales de 140 millas de ancho (220 kilómetros) en el cinturón principal de asteroides entre Marte y Júpiter, a principios de 2026.
Sin embargo, el deslizamiento hacia 2023 retrasa esa llegada hasta agosto de 2029, ya que la nave espacial ahora debe tomar un camino muy diferente. Además, la nueva trayectoria obligó a la NASA a descartar una pequeña misión satelital llamada Janus, que habría estudiado dos sistemas de asteroides binarios separados.
Los problemas de Psyche también han afectado a otra misión dirigida por JPL: la sonda Venus VERITAS, cuyo lanzamiento ahora se ha retrasado de 2027 a 2031 como muy pronto. Ningún trabajador del JPL fue sacado directamente de VERITAS (abreviatura de «Venus Emissivity, Radio Science, InSAR, Topography and Spectroscopy») para trabajar en Psyche, pero hubo un impacto.
«Lo que pasó con VERITAS es que no creció como se esperaba, y Psyche se quedó más tiempo», dijo la directora del JPL, Laurie Leshin, en la conferencia de prensa del lunes. .
“Psyche ha tenido personal durante la mayor parte de este año con alrededor de 160 JPLers”, agregó. «Y algunos de ellos pueden haberse ido a trabajar VERITAS si [Psyche had] lanzado, pero no estoy seguro de esos números».
Los científicos de asteroides y aquellos interesados en la formación y evolución de los planetas rocosos están ansiosos por saber qué encuentra Psyche en el asteroide que lleva su nombre, ya que es un cuerpo extraño y exótico.
«La psique podría ser el núcleo parcial de un planetesimal destrozado: un mundo pequeño del tamaño de una ciudad o un país pequeño que es el primer bloque de construcción de un planeta», dijeron funcionarios de la NASA. escrito en una descripción del trabajo. «Si es así, el asteroide Psyche puede ofrecer una mirada aguda al interior de los planetas terrestres como la Tierra, que normalmente se oculta debajo de las capas del manto y la corteza».
Cuando los rayos X (en azul) iluminan un átomo de hierro (rojo, en el centro), los electrones del nivel central se excitan. – Animación a través de SWNS
Muchos legos no saben que la ciencia nunca ha podido obtener una radiografía de un solo átomo.
La mayoría de los escáneres de sincrotrón de última generación que pueden administrar son rayos X de un attograma, alrededor de 10,000 átomos, pero la señal producida por un solo átomo es tan débil que no se pueden usar detectores convencionales. Hasta ahora.
Esta hazaña histórica se logró con un instrumento de sincrotrón especialmente diseñado en el Laboratorio Nacional de Argonne en Illinois utilizando una técnica conocida como SX-STM (Microscopía de túnel de barrido de rayos X de sincrotrón).
Los investigadores detrás del avance dicen que allana el camino para encontrar curas para las principales enfermedades que amenazan la vida, desarrollar computadoras cuánticas ultrarrápidas y otros avances en materiales y ecología.
Los átomos son las partículas que forman las moléculas y el límite hasta el cual cualquier sustancia puede descomponerse químicamente. Hay tantas en una pelota de golf como habría en la Tierra.
SX-STM ahora puede medirlos en un grado infinitesimal. La hazaña ha sido descrita como el «santo grial» de la física y un sueño de mucho tiempo del profesor Saw Wai Hla de la Universidad Estatal de Ohio, el autor principal del artículo que explica el descubrimiento.
«Los átomos se pueden visualizar de forma rutinaria con microscopios de sonda de barrido, pero sin rayos X no se puede saber de qué están hechos», explicó el Dr. Hla. “Ahora podemos detectar exactamente el tipo de un átomo en particular, un átomo a la vez, y medir simultáneamente su estado químico. Este descubrimiento transformará el mundo.
Desde su descubrimiento por Roentgen en 1895, los rayos X se han utilizado en decenas de aplicaciones y campos, desde exámenes médicos hasta controles de seguridad en aeropuertos.
OTROS GRANDES AVANCES: Nuevo dispositivo de implante cerebral podría restaurar la función de extremidades paralizadas
El rover Curiosity de la NASA está equipado con una máquina de rayos X para examinar la composición de las rocas.
Un uso importante de los rayos X en la ciencia es identificar el tipo de materiales en una muestra. A lo largo de los años, la cantidad de material necesario en una muestra para la detección de rayos X se ha reducido considerablemente con el desarrollo de los rayos X de sincrotrón.
SX-STM recolecta electrones excitados, partículas fuera de un átomo que se mueven alrededor de protones y neutrones dentro, y el espectro así producido es como una huella dactilar que permite la detección precisa de lo que es el átomo.
MÁS NOTICIAS DE FÍSICA: Los matemáticos descubren la escurridiza forma de ‘Einstein’: ‘El milagro que interrumpe el orden’
«La técnica utilizada y el concepto probado en este estudio han abierto nuevas perspectivas en la ciencia de los rayos X y los estudios a nanoescala», dijo el primer autor de Tolulope, Michael Ajayi, estudiante de doctorado en Ohio.
«Más aún, el uso de rayos X para detectar y caracterizar átomos individuales podría revolucionar la investigación y dar lugar a nuevas tecnologías en áreas como la información cuántica y la detección de elementos traza en la investigación médica y ambiental, por nombrar algunas.
«Este logro también allana el camino para la instrumentación avanzada de ciencia de materiales».
El GPS es la principal fuente de información de posicionamiento, navegación y tiempo para el ejército de EE. UU. y sus socios. El Departamento de Defensa (DOD) ha trabajado durante más de 2 décadas para modernizar el GPS con una señal militar específica más resistente a los atascos conocida como código M. La Fuerza Espacial, parte del Departamento de la Fuerza Aérea, es responsable de modernizar el GPS.
El sistema GPS consta de tres segmentos que cooperan para proporcionar el código M: un segmento de control terrestre, un segmento espacial y el equipo del usuario.
Suelo. En 2022, Space Force retrasó aún más la entrega del segmento de control terrestre debido a problemas de desarrollo. Este retraso pospone la entrega hasta diciembre de 2023 como mínimo. Los funcionarios de la Fuerza Espacial no han finalizado un nuevo cronograma y reconocieron que los riesgos restantes podrían provocar más demoras. La GAO continuará monitoreando el progreso de la Fuerza Espacial contra su nuevo calendario.
Espacio. Space Force cumplió con su requisito aprobado de 24 satélites con capacidad de código M en órbita, pero determinó que se necesitaban al menos tres más para cumplir con ciertos requisitos de precisión del usuario. Construir y mantener esta constelación más grande presenta un desafío. El análisis de GAO indica que es poco probable que 27 satélites estén disponibles de manera constante durante la próxima década. A menos que la Fuerza Aérea evalúe sus requisitos de satélites operativos para establecer un requisito firme para una constelación de 27 satélites, otros esfuerzos del Departamento de Defensa pueden tener prioridad, dejando al combatiente con el equipo de usuario de GPS en funcionamiento por debajo de los niveles de capacidad requeridos.
Equipo de usuario. El desarrollo de MGUE Increment 1 ha progresado hasta el punto en que los departamentos militares están listos para comenzar a probar y desplegar actividades de apoyo en los principales sistemas de armas. Retrasos y desafíos inesperados podrían afectar la puesta en marcha de la capacidad de ciertos sistemas. La siguiente figura ilustra el proceso de integración.
Space Force está buscando expandir el uso de la tecnología de código M mediante el desarrollo de un segundo incremento que consiste en un chip y una placa de código M mejorados, así como un receptor portátil. Space Force carece de un cliente importante comprometido para el receptor portátil. El ejército, el mayor usuario potencial de un dispositivo de este tipo, tiene sus propios planes para receptores portátiles, y los oficiales del Cuerpo de Marines dicen que el servicio aún está considerando sus opciones. Sin un caso comercial sólido para su producto portátil propuesto, Space Force corre el riesgo de gastar recursos significativos sin brindar un beneficio a los usuarios militares.
Por qué GAO hizo este estudio
La Fuerza Aérea lanzó el primer satélite GPS capaz de transmitir la señal de código M resistente a interferencias en 2005. Sin embargo, los continuos retrasos en tierra y los segmentos del equipo del usuario impiden el uso generalizado de la tecnología.
El Congreso incluyó una disposición que permite a la GAO evaluar el costo, el cronograma y el desempeño de los programas de adquisición de GPS. Este informe evalúa (1) los riesgos y desafíos de la transición a un sistema de control terrestre de próxima generación y cómo Space Force los está mitigando; (2) la medida en que Space Force ha identificado y abordado los riesgos que afectan el segmento espacial y la provisión de la capacidad de M-Code; y (3) progreso realizado por el DOD en el desarrollo e integración de equipos de usuario de código M.
Para llevar a cabo este trabajo, la GAO revisó los planes del DOD para el GPS, los datos de confiabilidad de sus satélites y los programas de lanzamiento, y entrevistó a funcionarios del DOD.