Connect with us

Ciencia y tecnología

Descubren sorprendentes similitudes estructurales entre el cerebro humano y el universo.

Published

on

Un astrofísico y un neurocirujano utilizaron el análisis cuantitativo para comparar dos de los sistemas más complejos de la naturaleza: la red neuronal del cerebro humano y la red cósmica de galaxias del universo.

Franco Vazza y Alberto Feletti, astrofísico y neurocirujano italiano, han revelado sorprendentes similitudes entre la estructura del cerebro humano y la del universo, al comparar las imágenes ampliadas de una sección histológica de una red de células neuronales en el cerebro con la red. de galaxias. que componen nuestro universo.

Los dos tipos de estructuras difieren en escala en 27 órdenes de magnitud (es decir, el universo es mil millones de billones de billones más grande que nuestro cerebro), pero el análisis de ambos reveló que diferentes procesos físicos pueden conducir a la aparición de estructuras. similar en complejidad y autoorganización, mantiene su estudio, publicado en Fronteras de la física.

El punto de partida fue encontrar similitudes entre los dos. El cerebelo humano tiene alrededor de 69 mil millones de neuronas, mientras que la red cósmica observable contiene más de 100 mil millones de galaxias. Además, ambos sistemas están organizados en redes bien definidas, con nodos (neuronas en el cerebro, galaxias en el universo) conectados a través de filamentos.

Y finalmente, ambos son materiales aparentemente pasivos, con un 70% de masa o energía dentro de cada sistema compuesto por elementos que juegan solo un papel indirecto en sus estructuras internas. Se trata del agua en el caso del cerebro y la energía oscura en el universo observable.

READ  Las pantallas de iPhone más grandes llegan a los modelos iPhone 16 Pro

Una vez definidas estas similitudes, los investigadores compararon la red de galaxias con imágenes ampliadas de secciones de la corteza cerebral y el cerebelo humanos.

Gracias a su estudio descubrieron la existencia de similitudes en las fluctuaciones de la densidad de la materia entre el cerebro y la red cósmica.

«Nuestro análisis mostró que la distribución de la fluctuación dentro de la red neuronal del cerebelo en una escala de 1 micrómetro a 0,1 mm sigue la misma progresión que la distribución de materia en la red cósmica pero, por supuesto, en una escala superior a cinco millones a 500 millones de años luz «, el Señaló astrofísico Franco Vazza.

«Probablemente, la conectividad dentro de las dos redes evoluciona siguiendo principios físicos similares, a pesar de la llamativa y obvia diferencia entre los poderes físicos que regulan las galaxias y las neuronas», explicó el neurocirujano Feletti lo que describió como «niveles inesperados de similitud».

Los dos científicos esperan que su método encuentre aplicación tanto en cosmología como en neurocirugía y ayude a comprender mejor la dinámica de la evolución temporal tanto del cerebro como del universo.

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar

Published

on

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar
Agrandar / Captura de pantalla de un video Runway Gen-3 Alpha generado con el mensaje «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

El domingo, Runway anunció un nuevo modelo de síntesis de video de IA llamado Alfa de tercera generación Todavía está en desarrollo, pero parece crear videos de calidad similar a Sora de OpenAI, que debutó a principios de este año (y aún no se ha lanzado). Puede generar nuevos vídeos de alta definición a partir de mensajes de texto que van desde humanos realistas hasta monstruos surrealistas que pisan fuerte por el campo.

A diferencia de la pista mejor modelo anterior A partir de junio de 2023, que solo podría crear clips de dos segundos, Gen-3 Alpha podría crear segmentos de video de 10 segundos de personas, lugares y objetos que tengan una consistencia y coherencia que supere fácilmente a Gen-2. Si 10 segundos parecen cortos en comparación con el minuto completo de video de Sora, considere que la compañía está trabajando con un presupuesto de computación reducido en comparación con OpenAI, que cuenta con fondos más generosos, y en realidad tiene un historial de brindar capacidades de generación de video para usuarios comerciales.

Gen-3 Alpha no genera audio para acompañar los videoclips, y lo más probable es que generaciones temporalmente consistentes (aquellas que mantienen un carácter consistente en el tiempo) dependan de material de formación similar de alta calidad. Pero la mejora de Runway en fidelidad visual durante el año pasado es difícil de ignorar.

READ  La prueba de velocidad del Pixel 8 Pro muestra una gran victoria para el iPhone 15 Pro

El vídeo con IA se está calentando

Han sido unas semanas muy ocupadas para la síntesis de vídeo de IA en la comunidad de investigación de IA, incluido el lanzamiento del modelo chino. kling, creado por Kuaishou Technology, con sede en Beijing (a veces llamado “Kwai”). Kling puede generar dos minutos de vídeo HD de 1080p a 30 fotogramas por segundo con un nivel de detalle y coherencia eso coincidiría con Sora.

Mensaje Alfa Gen-3: «Los sutiles reflejos de una mujer en la ventana de un tren de alta velocidad en una ciudad japonesa».

Poco después del debut de Kling, la gente empezó a crear en las redes sociales. vídeos surrealistas de IA Usando Luma AI Máquina de sueños Luma. Estos videos eran nuevos y extraños pero en general carecía de consistencia; Probamos Dream Machine y no quedamos impresionados con nada de lo que vimos.

Mientras tanto, uno de los pioneros de la conversión de texto a video, Runway, con sede en Nueva York y fundado en 2018, recientemente fue blanco de memes que muestran que su tecnología Gen-2 está perdiendo popularidad en comparación con las plantillas de síntesis de video más nuevas. Esto puede haber motivado el anuncio de Gen-3 Alpha.

Mensaje Alfa Gen-3: «Un astronauta corriendo por un callejón en Río de Janeiro».

Generar humanos realistas siempre ha sido complicado para los modelos CG, por lo que Runway muestra específicamente la capacidad de Gen-3 Alpha para crear lo que sus desarrolladores llaman personajes humanos «expresivos» con una variedad de acciones, gestos y emociones. Sin embargo, la empresa ejemplos proporcionados No eran particularmente expresivos (la mayoría de las veces la gente se limitaba a mirar y parpadear lentamente), pero parecían realistas.

READ  Grimes publica un video desgarrador de X AE A-XII de 10 meses riendo mientras toca el sintetizador

Los ejemplos humanos proporcionados incluyen videos generados de una mujer en un tren, un astronauta corriendo por una calle, un hombre con el rostro iluminado por el brillo de un televisor, una mujer conduciendo un automóvil y una mujer corriendo, entre otros.

Mensaje Alfa Gen-3: «Un primer plano de una mujer joven conduciendo un automóvil, mirando un bosque verde borroso y reflejado visible a través de la ventanilla lluviosa del automóvil».

Los videos de demostración generados también incluyen ejemplos CGI más surrealistas, incluida una criatura gigante caminando por una ciudad en ruinas, un hombre hecho de rocas caminando por un bosque y el monstruo gigante de algodón de azúcar que se ve a continuación, que es probablemente el mejor video en general. página.

Mensaje Alfa Gen-3: «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

Gen-3 impulsará varias herramientas de edición de Runway AI (una de las afirmaciones más notables de la compañía), que incluyen Cepillo multimovimiento, Controles avanzados de cámaraY Modo director. Puede crear videos a partir de mensajes de texto o imágenes.

Runway dice que Gen-3 Alpha es el primero de una serie de modelos entrenados en una nueva infraestructura diseñada para entrenamiento multimodal a gran escala, dando un paso hacia el desarrollo de lo que llama «Modelos globales generales«, que son sistemas hipotéticos de IA que construyen representaciones internas de entornos y las utilizan para simular eventos futuros en esos entornos.

Continue Reading

Ciencia y tecnología

Nintendo Direct junio de 2024: todos los anuncios más importantes

Published

on

Nintendo Direct junio de 2024: todos los anuncios más importantes

GameSpot puede recibir ingresos de asociaciones publicitarias y de afiliados por compartir este contenido y compras a través de enlaces.

READ  Grimes publica un video desgarrador de X AE A-XII de 10 meses riendo mientras toca el sintetizador
Continue Reading

Ciencia y tecnología

Selección de lentes profesionales, HDR+, más [U]

Published

on

Selección de lentes profesionales, HDR+, más [U]

La funcionalidad Feature Drop de junio continúa implementándose a través de una serie de actualizaciones de la aplicación. Pixel Camera 9.4 trae una sección de lentes manual a Pixel 6/7 Pro y Fold, junto con otros ajustes.

Actualización 17/06: La cámara Pixel 9.4 es ampliamente desplegado esta tarde. Otro cambio mueve la preferencia «Almacenar videos de manera eficiente» del menú Avanzado a la página principal Configuración> Video.

Utilice el formato H.265/HEVC en lugar de H.264/AVC para reducir el tamaño del archivo. Es posible que HEVC no sea compatible con algunas plataformas.


Original 14/06: Al igual que con el Pixel 8 Pro, los otros dos teléfonos plegables premium de Google ahora te permiten elegir una de las tres lentes traseras para tomar una foto. Toque el engranaje de configuración en la esquina inferior izquierda (o deslice hacia arriba) para configurar las fotos. Encontrará una nueva pestaña «Pro» junto a «General» con selección de lentes: Automático o Manual.

(A pesar del nombre de la pestaña, estos no son los «controles profesionales» introducidos en el Pixel 8 Pro que le permiten ajustar el enfoque, la velocidad de obturación y el ISO).

La pastilla de zoom situada encima del botón del obturador se sustituye por Ultra gran angular, gran angular y teleobjetivo. Pellizque hacia adentro o hacia afuera para hacer zoom cuando este modo manual esté habilitado. Google usará W de forma predeterminada cuando abras la aplicación más tarde.

Píxel 7 Pro

Otro cambio hace que Pixel Camera mueva el selector RAW/JPEG a la pestaña Pro. Anteriormente estaba enterrado en Configuración > Avanzado. Esto hace que el cambio sea mucho más fácil cuando quieras editar la foto profesionalmente más adelante. En comparación con el 8 Pro, no tienes preferencia de resolución: 12MP o 50MP.

READ  El moño "Clean Girl" favorito de Bella Hadid podría costarte el pelo

Es de suponer que esta actualización trae la selección de fotogramas mejorada HDR+ a Pixel 6+, incluidos Fold y Tablet:

HDR+ ahora te permite identificar el mejor momento en tu foto HDR+ con solo presionar el botón del obturador. Es más inteligente seleccionar la imagen base para producir la imagen fusionada de fotogramas múltiples, teniendo en cuenta criterios como ojos abiertos y sujetos sonrientes.

Versión9.4.103.641377609.23 de Pixel Camera todavía está en implementación a través de Play Store. Se suma a otras actualizaciones del lado del servidor y de las aplicaciones adyacentes al lanzamiento de funciones de junio en los últimos días:

Hasta el viernes, Android 14 QPR3 aún no está ampliamente implementado.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Trending