Connect with us

Ciencia y tecnología

Brain GPS: Marmoset Gaze revela nuevos conocimientos sobre la navegación espacial

Published

on

Brain GPS: Marmoset Gaze revela nuevos conocimientos sobre la navegación espacial

Resumen: Los investigadores encontraron que el tití común, un primate diurno, navega en su entorno de manera diferente a las ratas estudiadas previamente, lo que refleja sus adaptaciones ecológicas únicas.

Los titíes usan señales visuales, basándose en cambios rápidos en la mirada de la cabeza cuando están parados, y minimizan el movimiento de la cabeza durante la navegación. En contraste, las ratas usan movimientos de cabeza de baja velocidad y exploraciones táctiles de bigotes.

A nivel celular, las regiones del hipocampo de los titíes muestran selectividad para la vista 3D y la dirección de la cabeza, lo que sugiere que la mirada, no la ubicación, es clave para su navegación espacial.

Reflejos:

  1. Los titíes y las ratas utilizan diferentes estrategias para explorar su entorno, lo que refleja sus distintos nichos ecológicos. Los titíes dependen en gran medida de las señales visuales y minimizan el movimiento de la cabeza durante la navegación.
  2. En las regiones del hipocampo de los titíes, los investigadores observaron selectividad para la vista 3D y la dirección de la cabeza, lo que sugiere una navegación espacial «basada en la mirada», en contraste con la navegación «basada en el lugar» observada en las ratas.
  3. A diferencia de las ratas, los titíes carecen de oscilaciones theta rítmicas durante la locomoción. En cambio, muestran un reinicio de las oscilaciones theta desencadenadas por cambios de mirada, lo que coincide con la activación de las interneuronas.

Fuente: Noticias de neurociencia

En un nuevo estudio, los científicos descubrieron que el tití común, un primate conocido por su visión diurna única, navega por su mundo de una manera radicalmente diferente a las ratas estudiadas anteriormente.

READ  Los satélites Starlink actualizados de SpaceX no funcionan tan bien

La investigación arroja luz sobre el papel del hipocampo, a menudo comparado con el sistema de posicionamiento global (GPS) del cerebro, en la navegación espacial.

Los titíes, a diferencia de las ratas, usan una estrategia de exploración visual estacionaria y navegan hacia los objetivos minimizando los movimientos de la cabeza. Se basan en los rápidos cambios de mirada de la cabeza para explorar su entorno, un contraste interesante con los movimientos lentos de la cabeza de las ratas y las exploraciones táctiles de los bigotes.

Los titíes, a diferencia de las ratas, usan una estrategia de exploración visual estacionaria y navegan hacia los objetivos minimizando los movimientos de la cabeza. Crédito: Noticias de neurociencia

“Encontramos que las estrategias de exploración y navegación reflejan la adaptación de cada especie a su nicho ecológico”, explican los investigadores. «Para los titíes, la confianza en las señales visuales se alinea con su comportamiento natural durante el día».

A nivel celular, las distinciones se acentúan. Las regiones CA3/CA1 del hipocampo de los titíes muestran selectividad para la vista 3D, la dirección de la cabeza y, en menor medida, la ubicación.

Parece ser por combinaciones de estas variables, lo que sugiere que los titíes utilizan principalmente la mirada para la navegación espacial.

A diferencia de las ratas, los titíes carecen de oscilaciones theta rítmicas de potenciales de campo locales durante la locomoción. En cambio, muestran un reinicio de las oscilaciones theta desencadenadas por cambios en la mirada de la cabeza.

Este reinicio coincide con la activación de las interneuronas, seguida de diversas modulaciones de la actividad de las células piramidales.

Esta divergencia en la navegación de los titíes con respecto al modelo de la rata refleja las capacidades de detección distante de las adaptaciones de los titíes a la visión diurna. Los hallazgos llevaron a los investigadores a considerar el hipocampo del tití como un sistema GPS donde la «G» representa la mirada.

READ  Esto es lo que sabemos sobre el 'humo' que sale de Xbox Series X: VIDEO

Este fascinante estudio no solo abre la puerta a una comprensión más profunda de la navegación espacial entre especies, sino que también podría conducir a avances en el estudio de la función y la navegación del cerebro humano.

Sobre esta noticia de investigación en neurociencia

Autor: Neurociencia Noticias Comunicaciones
Fuente: Noticias de neurociencia
Contactar: Comunicaciones de noticias de neurociencia – Noticias de neurociencia
Imagen: La imagen está acreditada a Neuroscience News.

Investigacion original: Acceso cerrado.
«El caballito de mar del tití común es GPS, pero G es para mirar” por Diego B. Piza et al. BioRxiv


Abstracto

El caballito de mar del tití común es GPS, pero G es para mirar

El hipocampo de los mamíferos se ha comparado con un sistema de posicionamiento global (GPS) que permite la navegación espacial. Esta noción se derivó principalmente de estudios realizados en mamíferos nocturnos, como las ratas; que carecen de muchas adaptaciones a la visión diurna en comparación con los primates diurnos.

Aquí, demostramos que cuando se alimenta en un laberinto 3D, el tití común, un primate diurno del Nuevo Mundo con visión foveal en estéreo-color, utiliza principalmente cambios rápidos de mirada en la cabeza mientras está inmóvil para explorar visualmente su entorno, luego navega hacia objetivos que minimizan el movimiento de la cabeza. . . Por otro lado, las ratas mueven la cabeza a baja velocidad mientras se mueven para explorar el entorno usando sus bigotes.

Estas diferencias en las estrategias de exploración y navegación reflejan las adaptaciones sensoriales de las dos especies a sus nichos ecológicos. En las regiones CA3/CA1 del hipocampo del tití, las neuronas piramidales putativas muestran selectividad para la vista 3D, la dirección de la cabeza y menos para la ubicación, pero principalmente para combinaciones de estas variables.

READ  WhatsApp se prepara para implementar soporte por chat de terceros

Las interneuronas inhibitorias se ajustan a la velocidad angular de la cabeza 3D y la velocidad de traslación, y la mayoría de las células exhiben una selectividad mixta para ambas variables.

Los titíes carecen de las oscilaciones theta rítmicas de los potenciales de campo locales que se observan durante la locomoción en las ratas. En cambio, muestran un reinicio de las oscilaciones theta provocadas por los cambios de mirada que ocurrieron al mismo tiempo que la activación de las interneuronas, seguido de varias modulaciones en la actividad de las células piramidales.

Nuestros resultados muestran que las estrategias de exploración/navegación visual de los titíes y las especializaciones del hipocampo que las respaldan divergen de las observadas en las ratas, lo que refleja las habilidades de detección lejana de las adaptaciones de los titíes a la visión diurna. Entonces, el hipocampo del tití puede considerarse como un GPS, pero G es para la mirada.

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Los creadores del corto basado en Sora explican las fortalezas y limitaciones del video generado por IA

Published

on

Los creadores del corto basado en Sora explican las fortalezas y limitaciones del video generado por IA

Créditos de imagen: niños tímidos

La herramienta de generación de video de OpenAI, Sora, sorprendió a la comunidad de IA en febrero con un video fluido y realista que parece muy por delante de sus competidores. Pero el debut cuidadosamente organizado omitió muchos detalles, detalles que fueron completados por un cineasta al que se le concedió acceso anticipado para crear un cortometraje utilizando a Sora.

Shy Kids es un equipo de producción digital con sede en Toronto que fue seleccionado por OpenAI como uno de los pocos producir cortometrajes principalmente con fines promocionales de OpenAI, aunque tenían una libertad creativa considerable creando una “cabeza de aire”. En un entrevista con el medio de noticias de efectos visuales fxguideEl artista de postproducción Patrick Cederberg describió «realmente usar a Sora» como parte de su trabajo.

Quizás la conclusión más importante para la mayoría es simplemente esta: aunque el artículo de OpenAI que destaca los cortos deja al lector asumir que surgieron más o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con guiones gráficos, edición y corrección de color y trabajos posteriores como rotoscopia y VFX. Al igual que Apple dice «filmado con iPhone» pero no muestra la configuración del estudio, la iluminación profesional y el trabajo de color después del hecho, la publicación de Sora solo habla de lo que permite hacer a las personas, no de la forma en que realmente lo hicieron.

La entrevista de Cederberg es interesante y poco técnica, así que si estás interesado, ve a fxguide y léelo. Pero aquí hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo puede ser un salto menos gigante de lo que pensábamos.

El control sigue siendo en esta etapa lo más deseable y también lo más difícil de alcanzar. …Lo mejor que pudimos conseguir fue ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, así como el tipo de globo, fue nuestra forma de garantizar la coherencia, porque plano a plano/generación en generación, todavía no existe una función para un control total sobre la coherencia.

En otras palabras, cuestiones simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los demás. Obviamente, esto podría cambiar, pero ciertamente hay mucho más trabajo en este momento.

READ  Esto es lo que sabemos sobre el 'humo' que sale de Xbox Series X: VIDEO

cartel de youtube

Los resultados de Sora también tuvieron que ser monitoreados para detectar elementos no deseados: Cederberg describió cómo el modelo generaba regularmente en el globo una cara que el personaje principal tiene como cabeza, o un hilo que colgaba delante de él. Estos tenían que ser eliminados por correo, otro proceso tedioso, si no recibían el mensaje para excluirlos.

Realmente no es posible lograr tiempos y movimientos precisos de los personajes o de la cámara: «Hay un pequeño control temporal sobre dónde suceden estas diferentes acciones en la generación real, pero no es preciso…c «Es una especie de disparo en la oscuridad», Cederberg dicho.

Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado y basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panorámica sobre el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo representó una toma compuesta en orientación vertical y recortó en posproducción. Los clips generados también a menudo estaban en cámara lenta sin ningún motivo en particular.

Ejemplo de un disparo como sale de Sora y como acabó en el corto. Créditos de imagen: niños tímidos

De hecho, el uso de lenguaje cinematográfico común como «pan right» o «dolly» era generalmente inconsistente, dijo Cederberg, lo que el equipo encontró bastante sorprendente.

«Los investigadores, antes de acercarse a los artistas para jugar con esta herramienta, en realidad no pensaban como cineastas», dijo.

Como resultado, el equipo ejecutó cientos de generaciones, cada una de las cuales duró entre 10 y 20 segundos, y terminó usando solo unas pocas. Cederberg estimó la proporción en 300:1, pero, por supuesto, probablemente a todos nos sorprendería la proporción en una sesión fotográfica normal.

READ  Ya puedes disfrutar de Copilot gratis en tu Android

el equipo en realidad Hice un pequeño video detrás de escena. explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, Los comentarios son bastante críticos con todo el proyecto. – pero no tan virulenta como la publicidad impulsada por IA que hemos visto ridiculizada recientemente.

cartel de youtube

La última cuestión interesante se refiere a los derechos de autor: si le pides a Sora que te regale un clip de “Star Wars”, él se negará. Y si intentas eludirlo con «un hombre vestido con una espada láser en una nave espacial retro-futurista», también se negará, porque mediante algún mecanismo reconoce lo que estás intentando hacer. También se negó a hacer un “plano de Aronofsky” o un “zoom de Hitchcock”.

Por un lado, tiene mucho sentido. Pero eso plantea la pregunta: si Sora sabe qué es, ¿eso significa que el modelo fue entrenado en ese contenido para reconocer mejor que está infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto, hasta el punto de lo absurdo, como ocurre con Entrevista de la CTO Mira Murati con Joanna Stern – Es casi seguro que nunca nos lo dirá.

En cuanto a Sora y su uso en el cine, es claramente una herramienta poderosa y útil en su lugar, pero su lugar no es «crear películas desde cero». De nuevo. Como dijo otro villano, “eso viene después”.

Continue Reading

Ciencia y tecnología

El evento iPad 'Let Loose' de Apple también incluirá un evento especial en Londres

Published

on

El evento iPad 'Let Loose' de Apple también incluirá un evento especial en Londres

Apple celebrará un evento especial el 7 de mayo, durante el cual se espera que «se deje llevar» y lance grandes cambios en la línea iPad. En un giro interesante, parece que también habrá un evento paralelo organizado por Apple en Londres ese día.

¿Un evento de Apple en Londres?

En su cobertura del anuncio del evento de Apple hace unos días, el Independiente incluyó este dato:

Apple retransmitirá el lanzamiento en vídeo en directo en todo el mundo, pero irá acompañado de un evento en Londres, lo que podría explicar el lanzamiento inusualmente temprano. La compañía casi ha realizado sus lanzamientos en California, y hacerlo en el Reino Unido representa una ruptura con la tradición.

Sobre las discusiones, Joe Rossignol dice que «confirmó que Apple organizará una reunión de varios días para conocidos periodistas, blogueros y creadores de contenido de redes sociales en Londres» para el evento «Let Loose» del 7 de mayo.

“Habrá participantes de varios países europeos e incluso de Australia. Creo que se llevará a cabo en Apple Battersea y habrá tiempo práctico con nuevos productos”, dice Joe.

El evento en Londres, por supuesto, será sólo por invitación y no estará abierto al público.

Tomar de 9to5Mac

Para el evento «Scary Fast» de octubre centrado en Mac, Apple no celebró un evento presencial en Cupertino. Sin embargo, invitó a la prensa y a influencers a algunas ciudades del mundo para ver el vídeo del evento y familiarizarse con los productos.

Es probable que esto sea lo que suceda en última instancia con el evento “Let Loose” del próximo mes, pero esta vez también con una reunión en persona en Londres. Esto también podría explicar en parte el horario extraño del evento a las 7 a. m. PT/10 a. m. ET, que son las 3 p. m. ET en Londres.

READ  Insectos, pelos y exceso de pegamento: algunos compradores de OnePlus 12 estaban disgustados

Más que cualquier otra cosa, esto podría ser una señal de que Vision Pro está a punto de debutar fuera de los Estados Unidos. Durante el evento también esperamos el lanzamiento de un nuevo iPad Pro, iPad Air, Magic Keyboard y Apple Pencil.

¡Veremos! Todavía queda poco más de una semana para que sea oficialmente el momento de soltarse…

Seguir oportunidad: Temas, Gorjeo, InstagramY Mastodonte.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Ciencia y tecnología

Wear OS 5, que llegará este año, muestra que Google finalmente está avanzando con los relojes inteligentes

Published

on

Wear OS 5, que llegará este año, muestra que Google finalmente está avanzando con los relojes inteligentes

Que quieres saber

  • Antes del Google I/O del próximo mes, Google reveló un cronograma preliminar para las sesiones de desarrolladores.
  • Una de estas sesiones es una vista previa de Wear OS 5 y es la primera confirmación oficial de Google de que llegará una actualización de Wear OS este año.
  • La descripción de la sesión “Construyendo el futuro de Wear OS” incluye algunos detalles preliminares sobre lo que traerá la actualización.

Google I/O 2024 está pasando rápidamente a primer plano, ya que el evento comienza en unas pocas semanas y podría traer nuevos anuncios de hardware y software de Google. La compañía nos dio nuestra primera idea real de qué esperar cuando lanzó un Calendario preliminar de E/S 2024 el jueves 25 de abril. Este cronograma incluye la confirmación anticipada de que pronto estará disponible una actualización de Wear OS.

Hay cuatro categorías principales de eventos en Google I/O este año: móvil, web, ML/AI y nube. Una de las sesiones móviles se titula “Construyendo el futuro de Wear OS«, y enumera explícitamente Wear OS 5, la versión inédita de Wear OS que se espera que llegue este año, como un objetivo. En enero, se detectaron referencias a Wear OS 5 en una versión de Android 14, lo que insinúa que se estaba realizando una actualización.

Continue Reading

Trending