Connect with us

Ciencia y tecnología

Midjourney lanza personajes consistentes para imágenes de generación de IA

Published

on

Midjourney lanza personajes consistentes para imágenes de generación de IA

Únase a los líderes en Boston el 27 de marzo para una velada exclusiva de networking, ideas y conversaciones. Solicite una invitación aquí.


El popular servicio de generación de imágenes con IA Camino medio ha lanzado una de sus funciones más solicitadas: la capacidad de recrear personajes constantemente a través de nuevas imágenes.

Hasta ahora, esto ha sido un gran obstáculo para los generadores de imágenes de IA, por su propia naturaleza.

Esto se debe a que la mayoría de los generadores de imágenes de IA se basan en «modelos de difusión«, herramientas similares o basadas en el algoritmo de generación de imágenes de difusión estable de código abierto de Stability AI, que funcionan aproximadamente tomando texto ingresado por un usuario e intentando reconstruir una imagen píxel por píxel que coincida con esta descripción, como hemos aprendido de experiencias similares. . etiquetas de imagen y texto en su conjunto de datos de entrenamiento masivo (y controvertido) que consta de millones de imágenes creadas por humanos.

Por qué las personas consistentes son tan poderosas (y esquivas) para las imágenes generativas de IA

Sin embargo, como es el caso de los modelos de lenguaje grande (LLM) basados ​​en texto, como ChatGPT de OpenAI o el nuevo Command-R de Cohere, el problema con todas las aplicaciones de IA generativa radica en la inconsistencia de sus respuestas: la IA genera algo nuevo para cada mensaje. ingresado, incluso si se repite el mensaje o se utilizan algunas de las mismas palabras clave.

evento VB

La gira de impacto de la IA – Boston

Estamos emocionados por la próxima parada del AI Impact Tour en Boston el 27 de marzo. Este evento exclusivo, al que solo se puede acceder por invitación, en asociación con Microsoft, incluirá debates sobre las mejores prácticas para la integridad de los datos en 2024 y más allá. Las plazas son limitadas, así que solicita una invitación hoy.

READ  Web de WhatsApp | Cómo saber quién está en línea | Aplicaciones | Aplicaciones | Truco | Tutorial | PC | Computadora | Google Chrome | Estados Unidos España | México | Colombia | NNDA | NNNI | JUEGO DEPORTIVO

Solicitar una invitación

Esto es ideal para generar contenidos completamente nuevos (en el caso de Midjourney, imágenes). Pero, ¿qué pasa si estás escribiendo el guión gráfico de una película, novela, novela gráfica, cómic u otro medio visual que quieras el mismo ¿Uno o más personajes para moverse y aparecer en diferentes escenas, escenarios, con diferentes expresiones faciales y accesorios?

Este escenario preciso, que generalmente es necesario para la continuidad narrativa, ha sido hasta ahora muy difícil de lograr con la IA generativa. Pero Midjourney lo está intentando ahora introduciendo una nueva etiqueta, “–cref” (abreviatura de “referencia de personaje”) que los usuarios pueden agregar al final de sus indicaciones de texto en Midjourney Discord que intentará coincidir con la cara del personaje. características, tipo de cuerpo e incluso ropa a partir de una URL que el usuario pega después de dicha etiqueta.

A medida que la función avanza y se perfecciona, Midjourney podría pasar de ser un juguete genial o una fuente de ideas a una herramienta más profesional.

Cómo utilizar la nueva función Carácter consistente a mitad del viaje

La etiqueta funciona mejor con imágenes de Midjourney generadas previamente. Entonces, por ejemplo, el flujo de trabajo para un usuario sería generar o recuperar primero la URL de un carácter generado previamente.

Empecemos desde cero y digamos que generamos un nuevo personaje con este mensaje: «un hombre calvo y musculoso con una cuenta y un parche en el ojo».

Escalaremos la imagen que nos guste, luego presione la tecla Control y haga clic en ella en el servidor de Midjourney Discord para encontrar la opción «Copiar enlace».

Luego podemos escribir un nuevo mensaje en “usar un esmoquin blanco mientras estamos en una villa –cref [URL]» y pegue la URL de la imagen que acabamos de generar, y Midjourney intentará generar el mismo carácter que antes en nuestro parámetro recién ingresado.

READ  Los renders filtrados del Samsung Galaxy A54 lo hacen parecer el buque insignia

Como verá, los resultados están lejos de ser precisos con respecto al carácter original (o incluso a nuestro mensaje original), pero ciertamente son alentadores.

Además, el usuario puede controlar hasta cierto punto el «peso» de cómo la nueva imagen reproduce el carácter original aplicando la etiqueta «–cw» seguida de un número del 1 al 100 al final de su nuevo mensaje (después del “– cref [URL]»cadena, así: » –cref [URL] –cw 100”. Cuanto menor sea el número “cw”, más variación tendrá la imagen resultante. Cuanto mayor sea el número “cw”, más estrechamente seguirá la nueva imagen resultante a la referencia original.

Como puede ver en nuestro ejemplo, ingresar un «cw 8» muy débil en realidad devuelve lo que queríamos: el esmoquin blanco. Pero ahora le ha quitado el parche distintivo a nuestro personaje.

Bueno, nada que una pequeña “variación regional” no pueda resolver, ¿verdad?

Ok, entonces el parche está en el ojo malo… ¡pero ya estamos llegando!

También puede combinar varios caracteres en uno utilizando dos etiquetas “–cref” una al lado de la otra con sus respectivas URL.

La función se lanzó esta tarde, pero artistas y creadores ya la están probando. Pruébelo usted mismo si tiene Midjourney. Y lea la nota completa del fundador David Holz a continuación:

Hola a todos @aquí, hoy estamos probando una nueva función de «Referencia de personaje». Es similar a la función «Referencia de estilo», excepto que en lugar de hacer coincidir un estilo de referencia, intenta hacer coincidir el personaje con una imagen de «Referencia de personaje».

Cómo funciona

  • Pegar --cref URL después de su mensaje con una URL a una imagen de un personaje
  • Puedes usar --cw para modificar la referencia de 'fuerza' de 100 a 0
  • fuerza 100 (--cw 100) es el valor predeterminado y usa cara, cabello y ropa.
  • En fuerza 0 (--cw 0) solo se centrará en la cara (bueno para cambiar de ropa/peinado, etc.)

¿Para qué está destinado esto?

  • Esta característica funciona mejor cuando se utilizan personajes creados a partir de imágenes de Midjourney. No está diseñado para personas/fotos reales (y probablemente las distorsionará como lo hacen las indicaciones de imágenes normales)
  • Cref funciona igual que las indicaciones de imágenes normales, excepto que se «centra» en los rasgos del personaje.
  • La precisión de esta técnica es limitada, no copiará exactamente hoyuelos, pecas o logotipos de camisetas.
  • Cref funciona tanto para los modelos normales Niji como para MJ y también se puede combinar con --sref

Características avanzadas

  • Puede utilizar varias URL para mezclar información/caracteres de varias imágenes como esta --cref URL1 URL2 (Esto es similar a las indicaciones de múltiples imágenes o estilos)

¿Cómo funciona en web alfa?

  • Arrastra o pega una imagen en la barra de imaginación; ahora tiene tres íconos. seleccionando estos conjuntos, ya sea una imagen, una referencia de estilo o una referencia de personaje. Mayús+selecciona una opción para usar una imagen para múltiples categorías

Recuerde que mientras MJ V6 esté en versión alfa, esta y otras características pueden cambiar repentinamente, pero la versión beta oficial de V6 llegará pronto. Nos encantaría escuchar las opiniones de todos sobre ideas y características. Esperamos que disfrutes de este primer lanzamiento y que te ayude a disfrutar de la historia y la construcción del mundo.

La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología y transacciones comerciales transformadoras. Descubra nuestros Briefings.

READ  iOS 16.2 limita la opción "Todos" de AirDrop a todos

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

La NASA se prepara para lanzar una vela solar para viajes espaciales impulsada por la luz solar

Published

on

La NASA se prepara para lanzar una vela solar para viajes espaciales impulsada por la luz solar

La vela solar experimental de la NASA está lista para despegar hacia la órbita de la Tierra, utilizando la presión de la luz solar para probar un nuevo método de propulsión a través del cosmos.

El lanzamiento del Sistema Avanzado de Vela Solar Compuesta (ACS3) está programado para el martes 23 de abril a bordo del cohete Electron de Rocket Lab desde Nueva Zelanda. La misión utilizará por primera vez barreras compuestas en órbita terrestre, poniendo a prueba su capacidad para desplegar la vela en órbita.

El cohete desplegará los cubos del tamaño de un microondas a unas 600 millas (966 kilómetros) sobre la Tierra (más del doble de la altitud de la Estación Espacial Internacional), donde comenzará a desplegar su panel solar de vela para extenderse 30 pies (9 metros) en cada uno. lado. .

El proceso de despliegue durará aproximadamente 25 minutos y la NASA ha equipado la misión con un conjunto de cámaras digitales a bordo para capturar imágenes de la vela durante y después del despliegue para evaluar su forma y alineación.

Una vez desplegado, el sistema de vela solar tendrá aproximadamente el mismo tamaño que un pequeño estudio en Bushwick. La vela debe ser lo suficientemente grande para generar empuje de manera efectiva y estar en una órbita lo suficientemente alta como para poder ganar altitud y superar la resistencia atmosférica utilizando la pequeña fuerza de la luz solar sobre la vela, que equivale aproximadamente al peso de un clip colocado sobre ella. tu palma, según NASA.

READ  iOS 16.2 limita la opción "Todos" de AirDrop a todos

Los ingenieros del Centro de Investigación Langley de la NASA están probando el despliegue de la vela solar del Sistema de Vela Solar Compuesta Avanzada.
Foto: NASA

La vela solar se desplegará utilizando cuatro brazos compuestos que abarcarán las diagonales del cuadrado para alcanzar 23 pies (7 metros) de largo. Funcionan de manera similar a la botavara de un velero, excepto que están diseñados para capturar el poder propulsor de la luz solar en lugar del viento. Las rampas compuestas están hechas de un material polimérico; son livianos pero rígidos y resistentes a doblarse y deformarse cuando se exponen a diferentes temperaturas.

La fase de vuelo inicial de la misión durará unos dos meses e incluirá una serie de maniobras de apuntamiento para demostrar la subida y bajada de la órbita utilizando únicamente la presión de la luz solar que actúa sobre la vela, escribió la NASA.

Representación artística de la nave espacial Solar Sail System en órbita.

Representación artística de la nave espacial Solar Sail System en órbita.
Dibujo: NASA/Aero Animación/Ben Schweighart

Las velas solares funcionan con fotones del Sol, provocando pequeñas ráfagas de impulso que impulsan la nave espacial más lejos de la estrella. Si una nave espacial puede superar la resistencia de la atmósfera terrestre, podría alcanzar altitudes muy elevadas.

En teoría, las velas solares pueden funcionar indefinidamente. Sin embargo, están limitados por la durabilidad de los materiales de las velas solares y los sistemas electrónicos de las naves espaciales. La sociedad planetaria Vela ligera 2 Se lanzó en junio de 2019 y ganó 3,2 kilómetros (2 millas) de altitud solo dos semanas después de desplegar su vela solar de 32 metros cuadrados (344 pies cuadrados). En noviembre de 2022, la misión finalizó tras comenzar a perder altitud y volvió a entrar en la atmósfera terrestre.

El legado de LightSail 2 ha inspirado varias otras misiones a su paso, incluida ACS3, así como Explorador NEA de la NASA misión a un asteroide cercano a la Tierra y El crucero solar de la NASA (planeado para su lanzamiento en 2025).

La tecnología de pluma compuesta utilizada para esta misión de demostración podría usarse para desplegar velas solares de hasta 500 metros cuadrados (5400 pies cuadrados), o aproximadamente el tamaño de una cancha de baloncesto.

Para más vuelos espaciales en tu vida, síguenos en X y agrega Gizmodo dedicado a tus favoritos Página de vuelos espaciales.

Continue Reading

Ciencia y tecnología

Los nuevos televisores Bravia Mini-LED y OLED de Sony funcionan con Google TV

Published

on

Los nuevos televisores Bravia Mini-LED y OLED de Sony funcionan con Google TV

Sony está dando nueva vida al Bravia del mismo nombre con una línea de 16 televisores nuevos, todos con tecnología de Google TV y algunas características exclusivas para aquellos que han comprado el ecosistema de la compañía.

EL Programación de televisores Bravia 2024 se divide en varios tipos de televisores 4K, que van desde el nuevo panel Mini-LED hasta los LED y OLED estándar. Parece que Sony está dando prioridad a Mini-LED este año, ofreciendo más opciones en su línea que el a veces deseable OLED, aunque ninguna opción en la línea Bravia podría considerarse «económica».

En total hay cuatro modelos individuales con clases de tallas. Los Bravia 9, 8 y 7 son los más caros y utilizan el procesador XR de Sony, que desempeña un papel importante en el reconocimiento de escenas de programas y películas para ofrecer la mejor imagen posible. La serie Bravia 3 trae un procesador X1, que no obtiene el mismo rendimiento pero aún así debería ofrecer una buena imagen.

Todos los televisores de la línea Sony Bravia 2024 ejecutarán Google TV, que ha demostrado ser uno de los mejores sistemas operativos de TV en los últimos años. Por supuesto, esto también trae la funcionalidad del Asistente de Google a su televisor, que puede actuar como un punto de control para sus dispositivos. La gama Bravia también tendrá su hueco en Google Home para poder controlarla a través de teléfonos Android y su herramienta de control remoto. Esto no es una gran sorpresa ya que Sony ya ha utilizado Google TV en sus unidades.

Cada televisor también es compatible con Dolby Vision e IMAX Enhanced, lo cual es casi esencial para aprovechar al máximo la transmisión. Sony también está agregando funciones de PlayStation 5 como HDR automático y modo de imagen de género automático para transmisión de juegos. Los dispositivos de audio Bravia, como las barras de sonido de Sony, también se emparejarán «perfectamente», lo que probablemente significa que verán algunas funciones que otros dispositivos de audio no tienen.

READ  Cómo diferenciar entre aplicaciones web y aplicaciones de Android en su Chromebook

En el extremo más caro, el Serie Mini-LED Sony Bravia 9 4K comienza en $3,299 para el modelo de 65 pulgadas. También están disponibles un modelo de 75 y 85 pulgadas, este último cuesta $5,499. EL Sony Bravia serie 8 es la opción OLED, que alcanza un máximo de $3,899 para el modelo de 77 pulgadas. La serie Bravia 7 todavía viene con un

Bravia 9 Mini-LED

  • 85 pulgadas – $5,499.99
  • 75 pulgadas – $3,999.99
  • 65 pulgadas – $ 3299,99

Bravia 8 OLED

  • 77 pulgadas – $3,899.99
  • 65 pulgadas – $2,799.99
  • 55 pulgadas – $1,999.99

Bravia 7 Mini-LED

  • 85 pulgadas – $ 3499,99
  • 75 pulgadas – $2,799.99
  • 65 pulgadas – $ 2299,99
  • 55 pulgadas – $1,899.99

La serie Bravia 3 es la opción más asequible, pero ofrece un panel LED en lugar de algo más avanzado. Aun así, traen soporte para Google TV y funciones Dolby Vision e IMAX Enhanced con un costo de entrada de $599.

Bravia7LED

  • 85 pulgadas – $1,799.99
  • 75 pulgadas – $1,299.99
  • 65 pulgadas – $999.99
  • 55 pulgadas – $ 849,99
  • 50 pulgadas – $699.99
  • 45 pulgadas – $599.99

Las series Bravia 7 y Bravia 3 ya están disponibles para pedidos anticipados, y Bravia 7 y 8 estarán disponibles pronto. Puedes registrarte para recibir notificaciones o Reserva desde el sitio web de Sony..

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Ciencia y tecnología

Google Messages te permitirá grabar un “Selfie GIF” de 3 segundos

Published

on

Google Messages te permitirá grabar un “Selfie GIF” de 3 segundos

Después de agregar una cámara personalizada, Google Messages debería implementar «GIF selfies».

Para acceder a él, abra una conversación y mantenga presionado el ícono de la cámara en el campo de texto. Por ahora, un solo clic abre el panel con un visor de cámara en miniatura y una galería desplegable. El hecho de que Selfie GIF no forme parte de la nueva cámara personalizada es algo extraño.

Google también dice que «también puedes grabar un GIF de selfie tocando un mensaje en la conversación». Esto parece una de las indicaciones de acción sugeridas, que ya incluyen Adjuntar fotos recientes, Compartir ubicación e Iniciar una videollamada.

Obtendrá una breve cuenta regresiva y la grabación comenzará y finalizará automáticamente. También es posible presionar el botón rojo para comenzar a grabar manualmente, así como reiniciar ya que no hay controles de edición. Estos GIF de selfies duran solo 3 segundos y se guardan en el carrete de su cámara para acceder fácilmente y compartirlos.

Puedo ver cómo esto podría ser divertido y darle a la gente un creador de GIF podría animarlos a intentar capturar fotografías tipo Vine.

A artículo de soporte ya que esta nueva función ya está disponible, pero aún no vemos que Selfie GIF se haya implementado en dispositivos (beta o estables). Esto marca la última característica expresiva en Google Messages y me recuerda a Voice Moods, que solo se implementó para usuarios seleccionados. Por extraño que parezca, Google parece haber lanzado el rediseño de la grabadora de audio para aquellos en el canal estable, pero la mayoría de los usuarios beta ni siquiera la tienen.

READ  Cómo diferenciar entre aplicaciones web y aplicaciones de Android en su Chromebook

Obtenga más información sobre Mensajes de Google:

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Trending