Connect with us

Ciencia y tecnología

Luna Azul: cuando y como ver este fenómeno astronómico en México, que ocurre cada dos años y medio

Published

on

A lo largo de la historia, la Luna se ha teñido de azul en distintas ocasiones (Foto: Archivo)

En la noche de Halloween, el próximo 31 de octubre, una luna azul pocas veces adornará las tinieblas del firmamento. Sin embargo, como explica la NASA, no será tan aterrador como muchos esperan.

Según la agencia espacial estadounidense, actualmente se conoce como «Blue Moon» para la segunda luna llena que aparece dentro de un mes. Este fenómeno ocurre aproximadamente cada dos años y medio.

“Por lo general, los meses solo tienen una luna llena, pero a veces se cuela una segunda. Las lunas llenas tienen una diferencia de 29 días, mientras que la mayoría de los meses duran 30 o 31 días, por lo que es posible que quepan dos lunas llenas en un solo mes. Esto ocurre cada dos años y medio, en promedio «, explica la NASA.

La primera luna llena de octubre llegará el primer día, mientras que la segunda será el 31 de octubre, perfecta para crear el ambiente para las celebraciones de Halloween. Sin embargo, y Para decepción de muchos, lo más probable es que no se vea azul.

La Luna mantendrá su habitual gris perla (Foto: Reuters / Archivo)
La Luna mantendrá su habitual gris perla (Foto: Reuters / Archivo)

Según la NASA, la fecha del fenómeno no afecta el color en absoluto, y Lo más seguro es que ese día nuestro satélite lucirá su habitual gris perla. Sin embargo, esto no significa que las lunas azules nunca existieron. A lo largo de la historia, numerosas poblaciones afirmaron haberlo visto en ese color, pero la explicación es diferente.

“Hubo un tiempo, no hace mucho, cuando la gente veía lunas azules casi todas las noches. Lunas llenas, medias lunas, lunas crecientes: todas eran azules, salvo algunas noches en las que eran verdes ”, explica la NASA en su relato.

READ  He aquí por qué no ve teléfonos inteligentes blancos con mucha frecuencia

Un ejemplo fue en 1883. Ese año, una gran explosión sacudió la India. El volcán Krakatoa había entrado en erupción. A 600 kilómetros de distancia, los aldeanos escucharon el rugido, que los científicos comparan con la detonación de una bomba nuclear de 100 megatones. Las columnas de ceniza que brotaron del cráter se elevaron hasta la parte superior de la atmósfera y la Luna se tiñó de azul.

El cambio de color del satélite se debió precisamente a la estructura de estas cenizas, compuesto por partículas de aproximadamente una micra (una millonésima de metro) Amplio. Este tamaño evita que la luz roja se filtre y solo permite que pasen otros colores.

«La clave para tener una luna azul es tener muchas partículas en el aire que sean un poco más anchas que la longitud de onda de la luz roja (0,7 micrones). y que no hay otros tamaños presentes. Esto es raro, pero los volcanes a veces escupen esas nubes ”, explica la NASA.

Las nubes de ceniza expulsadas de volcanes o incendios forestales pueden hacer que la Luna se vuelva azul (Foto: Archivo)
Las nubes de ceniza expulsadas de volcanes o incendios forestales pueden hacer que la Luna se vuelva azul (Foto: Archivo)

Así, durante años, los rayos blancos del satélite que brillaban a través de las nubes de ceniza «emergieron azules y, a veces, verdes». El sol a veces se veía lavanda, mientras que por primera vez se veían en el cielo nubes noctilucentes, de un tono azul eléctrico.

Después de eso, otros volcanes hicieron que la Luna volviera a cambiar su característico gris perla. Este es el caso de Chichón, ubicado en el estado de Chiapas, México, que explotó en 1983. También del Monte Santa Helena, en el estado de Washington, EE. UU., Que hizo erupción en 1980, o del Monte Pinatubo, en las Islas Filipinas, que lo hizo en 1991.

READ  La aspiradora Dyson V15 Detect utiliza un láser verde para iluminar sus pisos sucios

Además de la erupción de volcanes, existe otro fenómeno que puede hacer que el satélite se vuelva azul: los incendios forestales.

Según Sue Ann Bowling, profesora de física de la Universidad de Alaska, El 23 de septiembre de 1950, varios acres que se habían estado quemando silenciosamente en Alberta, se convirtieron en incendios «importantes y muy humeantes».

“Los vientos llevaron el humo hacia el este y el sur con una velocidad inusual, y las condiciones del fuego produjeron grandes cantidades de gotas aceitosas del tamaño justo (aproximadamente 1 micrón de diámetro) para dispersar la luz roja y amarilla. Dondequiera que el humo se despejara lo suficiente, el sol era visible. Era lavanda o azul. Ontario y gran parte de la costa este de los EE. UU. Se vieron afectados por el día siguiente, pero el humo continuó. Dos días después, los observadores en Inglaterra informaron un sol índigo en los cielos atenuados por el humo, seguido de una luna igualmente azul esa noche. «, recordó el experto, según la agencia espacial.

De esta forma, la Luna del 31 de octubre solo sería azul si uno de estos desastres ocurre antes. Y dado el precio a pagar mejor siempre permanezca en su precioso gris perla.

Cómo ver la Luna Azul desde México

Octubre es el único mes de 2020 con dos lunas llenas (Foto: REUTERS / Eduardo Muñoz)
Octubre es el único mes de 2020 con dos lunas llenas (Foto: REUTERS / Eduardo Muñoz)

Aunque no cambiará su tonalidad, la Luna Azul es un fenómeno astronómico fascinante, que ocurre cada dos años y medio. Además, se estima que no coincidirá con una noche de Halloween hasta el 2039.

READ  YouTube Music facilita el inicio de la radio desde la canción que se está reproduciendo actualmente

Observar el evento es muy simple, porque se puede ver a simple vista, sin la ayuda de un telescopio o binocularesAunque al utilizar estos instrumentos profesionales, podrá disfrutar de la superficie del satélite en detalle.

Si se siente decepcionado de que la Luna no se ponga realmente azul, Te recomendamos que salgas a la calle este jueves 1 de octubre. Esa noche estará en plena fase y lucirá una mágica tonalidad naranja, que nos sumergirá de lleno en la temporada otoñal.

Para disfrutar el momento, la Red de Planetarios Quintana Roo y el Comité de la Noche Nacional de las Estrellas recomiendan ir a un lugar con un clima despejado, y sin objetos o estructuras que obstruyan la vista.

“Para no perderse los tonos rojizos anaranjados con los que se observa, busque lugares sin muchos obstáculos en el horizonte, porque estos colores son más vívidos mientras la Luna está más cerca. Octubre es el único mes de este año que comenzará y terminará con luna llena. No te pierdas ninguno de ellos. »

MÁS SOBRE ESTE TEMA:

El otoño ha comenzado: frentes fríos, cambio de horario y eventos astronómicos que llegarán con la nueva temporada

Esta es la hora y el día en que será el equinoccio de otoño

El invierno comienza en México el 25 de octubre: todo lo que necesitas saber

Pronostican 54 frentes fríos y 14 tormentas invernales en México, entre septiembre y mayo

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Published

on

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Tras el lanzamiento de Nothing Ear y Ear(a) esta semana, Nothing también está lanzando una nueva actualización para Nothing Phone(2) que trae muchas actualizaciones, incluida la integración ChatGPT.

Nothing OS 2.5.5 se está implementando ahora en Phone (2), todavía no en Phone (1) y Phone (2a), con varias incorporaciones nuevas. Hay soporte para UltraHDR de Android (llamado «Ultra XDR» en los teléfonos Nothing), una opción de refuerzo de RAM, un nuevo widget de grabadora, un nuevo widget de batería y más.

Sin embargo, la mayor incorporación es la integración nativa de ChatGPT en los productos Nothing.

Nothing Phone (2) obtendrá algunos widgets con ChatGPT, uno para entrada de voz y el otro para texto, y habrá un nuevo botón en la captura de pantalla y en las ventanas emergentes del portapapeles para importar este contenido a ChatGPT.

Nada explica:

Se agregaron nuevos widgets de ChatGPT para iniciar ChatGPT en diferentes modos desde su pantalla de inicio para un acceso más rápido.

Se agregó un botón en la ventana emergente de captura de pantalla y portapapeles para pegar contenido directamente en una nueva conversación en ChatGPT.

La integración de Nothing's ChatGPT también se extiende a Ear y Ear(a). Debes estar emparejado con un teléfono Nothing, pero una vez emparejados, ambos auriculares pueden iniciar chats de voz con ChatGPT sin tener que quitar el teléfono.

EL El registro de cambios completo para Nothing OS 2.5.5 está disponible en el sitio web de Nothing Ahora.

Obtenga más información sobre Nada:

Sigue a Ben: Gorjeo/X, TemasY Instagram

Continue Reading

Ciencia y tecnología

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio

Published

on

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio
Agrandar / Una imagen de muestra de Microsoft para «VASA-1: caras parlantes realistas impulsadas por audio generadas en tiempo real».

El martes, Microsoft Research Asia reveló VASA-1, un modelo de IA capaz de crear un vídeo animado sincronizado de una persona hablando o cantando a partir de una única foto y una pista de audio existente. En el futuro, podría impulsar avatares virtuales que se muestren localmente y no requieran una transmisión de video, o permitir que cualquier persona con herramientas similares tome una foto de alguien encontrado en línea y les dé la sensación de que dice lo que quiere.

«Esto allana el camino para interacciones en tiempo real con avatares realistas que imitan los comportamientos conversacionales humanos», se lee en el resumen del estudio. trabajo de investigación adjunto titulado «VASA-1: Caras parlantes realistas generadas por audio generadas en tiempo real». Es obra de Sicheng Xu, Guojun Chen, Yu-Xiao Guo, Jiaolong Yang, Chong Li, Zhenyu Zang, Yizhong Zhang, Xin Tong y Baining Guo.

El marco VASA (abreviatura de “Visual Affective Skills Animator”) utiliza el aprendizaje automático para analizar una imagen estática y un clip de audio de voz. Luego es capaz de generar un vídeo realista con expresiones faciales precisas, movimientos de cabeza y sincronización de labios con audio. No clona ni simula voces (como otras investigaciones de Microsoft), sino que se basa en una entrada de audio existente que puede grabarse o hablarse especialmente para un propósito particular.

Microsoft afirma que el modelo supera significativamente a los métodos anteriores de animación de voz en términos de realismo, expresividad y eficacia. A nosotros, esto nos parece una mejora con respecto a los modelos de animación de un solo cuadro anteriores.

READ  Reloj inteligente de calidad con muy descuento que puedes comprar desde casa

Los esfuerzos de investigación de IA para animar una sola foto de una persona o personaje se remontan al menos a algunos años, pero más recientemente, los investigadores han trabajado para sincronizar automáticamente un video generado con una pista de audio. En febrero, un modelo de IA llamado EMO: Gesto de retrato viviente del grupo de investigación del Instituto de Computación Inteligente de Alibaba ha causado sensación con un enfoque similar al VASA-1 que puede sincronizar automáticamente una foto animada con una pista de audio proporcionada (lo llaman «Audio2Video»).

Capacitado en clips de YouTube.

Los investigadores de Microsoft entrenaron VASA-1 en el Conjunto de datos VoxCeleb2 creado en 2018 por tres investigadores de la Universidad de Oxford. Este conjunto de datos contiene “más de un millón de declaraciones de 6.112 celebridades”, según el sitio web VoxCeleb2, extraídas de vídeos subidos a YouTube. VASA-1 sería capaz de generar videos con una resolución de 512 x 512 píxeles a hasta 40 cuadros por segundo con una latencia mínima, lo que significa que podría usarse para aplicaciones en tiempo real como videoconferencias.

Para mostrar el modelo, Microsoft creó una página de investigación VASA-1 que muestra muchos ejemplos de vídeos de la herramienta en acción, incluidas personas cantando y hablando en sincronización con pistas de audio pregrabadas. Muestran cómo se puede controlar el modelo para expresar diferentes estados de ánimo o cambiar su apariencia. Los ejemplos también incluyen generaciones más elegantes, como Mona Lisa rapeando sobre una pista de audio de Anne Hathaway interpretando una Canción “Paparazzi” sobre Conan O'Brien.

READ  La aspiradora Dyson V15 Detect utiliza un láser verde para iluminar sus pisos sucios

Los investigadores dicen que, por razones de privacidad, cada fotografía de muestra en su página fue generada por IA. EstiloGAN2 o DALL-E 3 (aparte de la Mona Lisa). Pero está claro que la técnica también podría aplicarse a fotografías de personas reales, aunque es probable que funcione mejor si una persona parece una celebridad en el conjunto de datos de entrenamiento. Aún así, los investigadores dicen que su intención no es manipular a humanos reales.

«Exploramos la generación de habilidades visuales y afectivas para personajes virtuales e interactivos [sic], NO te hagas pasar por nadie en el mundo real. Esto es sólo una demostración de investigación y no hay planes de lanzamiento de productos ni API”, se lee en el sitio.

Si bien los investigadores de Microsoft promocionan posibles aplicaciones positivas, como mejorar la equidad educativa, mejorar la accesibilidad y brindar apoyo terapéutico, la tecnología también podría ser fácilmente utilizada indebidamente. Por ejemplo, podría permitir a las personas simular chats de vídeo, hacer que parezca que personas reales están diciendo cosas que en realidad nunca dijeron (especialmente cuando se combinan con una pista de voz clonada) o autorizar el acoso basado en una sola foto en las redes sociales.

En este momento, el video generado todavía parece imperfecto en algunos aspectos, pero podría ser bastante atractivo para algunas personas si no supieran qué esperar de la animación generada por IA. Los investigadores dicen que son conscientes de esto, razón por la cual no publican abiertamente el código que impulsa el modelo.

«Nos oponemos a cualquier comportamiento destinado a crear contenido engañoso o perjudicial para personas reales y nos gustaría aplicar nuestra técnica para avanzar en la detección de falsificaciones», escriben los investigadores. «Actualmente, los vídeos generados con este método todavía contienen artefactos identificables, y el análisis digital muestra que todavía hay una brecha para lograr la autenticidad de los vídeos reales».

READ  Senderos desde Zero / Senderos hasta Azure, Monark y más

VASA-1 es sólo una demostración de investigación, pero Microsoft está lejos de ser el único grupo que desarrolla una tecnología similar. Si nos basamos en la historia reciente de la IA generativa, es potencialmente sólo cuestión de tiempo antes de que una tecnología similar se convierta en código abierto y esté disponible gratuitamente, y lo más probable es que su realismo siga mejorando con el tiempo.

Continue Reading

Ciencia y tecnología

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Published

on

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Razer acaba de lanzar el , sucesor del popular . Está repleto de mejoras, incluido un factor de forma más grande para acomodar dispositivos móviles más robustos como tabletas de 8 pulgadas e incluso algunos plegables. El controlador también ofrece compatibilidad con USB-C, por lo que debería funcionar con casi cualquier dispositivo, siempre que sea adecuado. Recuerde, incluso los productos Apple modernos.

Razer dice que el controlador fue «diseñado para ofrecer una experiencia de consola auténtica en la serie iPhone 15, iPad Mini y tabletas Android con pantallas de 8 pulgadas». Para ello, cuenta con la tecnología háptica Sensa HD patentada por la compañía, que incluye una bobina háptica cerca de cada mano para aumentar la inmersión. La compañía afirma que esta experiencia superará la que se encuentra con los controladores de consola tradicionales. El nuevo SDK de Interhaptics incluso permitirá a los desarrolladores «crear experiencias hápticas personalizadas».

Esta inmersión se mejora aún más con la integración con el sistema de iluminación Chroma RGB de Razer. Esto permite esquemas de iluminación personalizables, lo que permite a los jugadores llevar consigo «parte de la configuración de su sala de juegos». Más allá de la iluminación y la háptica, el controlador presenta los botones ABXY Mecha-Tactile patentados de la compañía y un D-pad de 8 direcciones. Hay disparadores de efecto Hall del tamaño de una consola, botones multifunción programables L4/R4 y joysticks de tamaño completo, completos con anillos antifricción. El factor de forma ampliado también significa que debería funcionar con la mayoría de los dispositivos sin tener que quitar la carcasa.

Una imagen que muestra el controlador Nexus y la aplicación.

Razer

El controlador puede acceder a la aplicación Nexus sin suscripción de Razer, que genera una asignación de botones personalizada para miles de juegos compatibles en iOS y Android. Esto significa que será una experiencia plug and play para la gran mayoría del contenido disponible, sin tener que manipular la configuración de control. Además, la aplicación Nexus permite a los usuarios grabar y compartir juegos.

READ  Google confirma que Pixel 8a viene con una función clave relacionada con la batería -

El Razer Kishi Ultra está disponible ahora y cuesta $150. Al controlador se le suma una versión actualizada del Kishi V2, que ahora se conecta a través de USB-C. Éste cuesta $100.

Esta publicación contiene enlaces afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.

Continue Reading

Trending