Ciencia y tecnología
La X100VI de Fujifilm añade estabilización de imagen de 5 ejes y aumenta hasta los 40MP
Después de anunciar su llegada, Fujifilm anunció hoy la X100VI en su X-Summit en Tokio, Japón. La nueva versión, pronunciada «X100 seis», conserva el factor de forma compacto familiar pero actualiza el sensor a 40 megapíxeles y agrega estabilización de imagen integrada de 5 ejes.
Con el X00VI, Fujifilm se centró en mantener la misma experiencia de estilo telémetro mientras actualizaba algunas características importantes en lugar de realizar una actualización importante general como la que vio el sistema en el X100V.
La X100VI utiliza la misma lente mejorada de 23 mm f/2 mark II, que equivale a 35 mm en sensores de fotograma completo. El EVF tampoco ha cambiado y conserva los mismos 3,69 millones de puntos que el X100V. Como antes, la cámara utiliza un visor híbrido óptico y electrónico que se puede activar según las preferencias del fotógrafo. La función “Buscador de rango electrónico” (ERF) permite mostrar un pequeño EVF simultáneamente en el OVF. Con esta característica, el fotógrafo puede ver el encuadre completo o el área de enfoque crítica, aumentando así las capacidades de un visor óptico estándar.
La parte posterior del X100VI tiene el mismo panel LCD de 1,62 millones de puntos, pero ahora tiene una bisagra de 15 grados hacia abajo para facilitar su uso en ángulos altos.
La cámara no es completamente resistente a la intemperie, pero esto se puede lograr agregando el anillo adaptador AR-X100 opcional y los filtros protectores PRF-49 a la lente.
Un sensor e IBIS mejorados
El La cámara ofrece 20 simulaciones de películas, incluida Reala Ace, la capacidad de capturar archivos HEIF de 10 bits y puede disparar hasta 20 fotogramas por segundo con el obturador electrónico y hasta 11 fotogramas por segundo con el obturador mecánico (hasta 1 / 180.000 segundos disparando con el obturador electrónico también).
El sensor ofrece un ISO base nativo de 125, lo que mejora la cámara de la generación anterior que solo podía alcanzar esta marca a través de una opción de sensibilidad ampliada. El sensor también admite seguimiento de enfoque automático y puede utilizar AF de detección de sujetos, basado en inteligencia artificial de aprendizaje profundo, para detectar animales, pájaros, automóviles, motocicletas, bicicletas, aviones, trenes, insectos, drones y, por supuesto, personas.
Si la distancia focal de 35 mm no es suficiente, Fujifilm también ha incluido teleconvertidores digitales de 1,4x y 2,0x para pasar a los equivalentes de 50 mm y 70 mm, respectivamente.
La velocidad de disparo mejorada en fotografías y videos, la X100VI todavía usa la misma ranura para tarjeta de memoria SD UHS-1. Esto también significaba que no había suficiente ancho de banda para admitir la grabación ProRes interna.
Como se mencionó, el X100VI agrega estabilización de imagen integrada (IBIS), que es una novedad en la serie X100. El sistema de 5 ejes proporciona hasta seis paradas de estabilización sin aumentar significativamente el tamaño ni el peso del cuerpo de la cámara respecto a la versión anterior: pesa sólo 1,52 onzas (43 gramos) más que el modelo anterior y es sólo dos milímetros más grueso. (1,5 mm delante y 0,5 mm detrás).
El como son creados. La compatibilidad con Frame.io en la X100VI se une a la X-H2, H-H2S y GFX100 II para ofrecer esta funcionalidad en toda la línea Fujifilm. Como se mencionó, el X100VI puede usar Frame.io sin ningún accesorio, mientras que el X-H2 y el X-H2S requieren un mango transmisor de archivos opcional, lo que agrega tamaño y peso al kit.
La Fujifilm X100VI estará disponible en plateado o negro y se espera que esté disponible a principios de marzo de 2024, pero costará un poco más que la
También viene una edición especial.
Para celebrar el 90 aniversario de Fujifilm en 2024, Fujifilm ofrecerá una edición especial limitada de la cámara X100VI, limitada a 1.934 unidades en todo el mundo. La cámara está grabada con el logotipo de Fujifilm de 1934 (el año de su fundación) y cada una tiene un número de serie único. Se empaquetarán en una caja de liberación suave que incluirá una pulsera especial y tarjetas históricas de Fujifilm.
La edición limitada X100VI solo estará disponible directamente en Fujifilm a finales de marzo de 2024 y costará 1.999,99 dólares.
Créditos de imagen: fujifilm
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
Google Play Store lanza descargas simultáneas de aplicaciones de Android
Después de pruebas intermitentes en los últimos años, Google parece haber implementado ampliamente descargas e instalaciones simultáneas de aplicaciones en Play Store, mejorando la calidad de vida.
Para verlo en acción, instale dos aplicaciones (elija descargas más grandes, como Google Docs, Sheets y Slides) y vea cómo se descargan y luego se instalan simultáneamente en lugar de esperar a que una se complete primero. Puedes seguir su progreso en Play Store y en tu pantalla de inicio, como se muestra en las capturas de pantalla a continuación.
Este comportamiento actualizado solo se activa en instalaciones nuevas, mientras que solo funciona con dos aplicaciones a la vez. (Puede ver cómo una tercera descarga permanece «Pendiente» hasta que se completa algo del primer par). A modo de comparación, la App Store de iOS puede manejar tres descargas e instalaciones simultáneas.
Actualmente, las descargas simultáneas de Google Play no se aplican a las actualizaciones de aplicaciones, lo que sería más útil ya que las actualizaciones son más comunes que las nuevas instalaciones. Con suerte, esto es solo un caso en el que Google Play comienza poco a poco antes de expandirse. Este cambio será útil al configurar un nuevo teléfono o tableta Android.
Estamos viendo este cambio en varios teléfonos y tabletas Pixel que hemos probado con Android 14 y Play Store versión 40.6.31.
Más información sobre Google Play:
FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
Los creadores del corto basado en Sora explican las fortalezas y limitaciones del video generado por IA
Créditos de imagen: niños tímidos
La herramienta de generación de video de OpenAI, Sora, sorprendió a la comunidad de IA en febrero con un video fluido y realista que parece muy por delante de sus competidores. Pero el debut cuidadosamente organizado omitió muchos detalles, detalles que fueron completados por un cineasta al que se le concedió acceso anticipado para crear un cortometraje utilizando a Sora.
Shy Kids es un equipo de producción digital con sede en Toronto que fue seleccionado por OpenAI como uno de los pocos producir cortometrajes principalmente con fines promocionales de OpenAI, aunque tenían una libertad creativa considerable creando una “cabeza de aire”. En un entrevista con el medio de noticias de efectos visuales fxguideEl artista de postproducción Patrick Cederberg describió «realmente usar a Sora» como parte de su trabajo.
Quizás la conclusión más importante para la mayoría es simplemente esta: aunque el artículo de OpenAI que destaca los cortos deja al lector asumir que surgieron más o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con guiones gráficos, edición y corrección de color y trabajos posteriores como rotoscopia y VFX. Al igual que Apple dice «filmado con iPhone» pero no muestra la configuración del estudio, la iluminación profesional y el trabajo de color después del hecho, la publicación de Sora solo habla de lo que permite hacer a las personas, no de la forma en que realmente lo hicieron.
La entrevista de Cederberg es interesante y poco técnica, así que si estás interesado, ve a fxguide y léelo. Pero aquí hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo puede ser un salto menos gigante de lo que pensábamos.
El control sigue siendo en esta etapa lo más deseable y también lo más difícil de alcanzar. …Lo mejor que pudimos conseguir fue ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, así como el tipo de globo, fue nuestra forma de garantizar la coherencia, porque plano a plano/generación en generación, todavía no existe una función para un control total sobre la coherencia.
En otras palabras, cuestiones simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los demás. Obviamente, esto podría cambiar, pero ciertamente hay mucho más trabajo en este momento.
Los resultados de Sora también tuvieron que ser monitoreados para detectar elementos no deseados: Cederberg describió cómo el modelo generaba regularmente en el globo una cara que el personaje principal tiene como cabeza, o un hilo que colgaba delante de él. Estos tenían que ser eliminados por correo, otro proceso tedioso, si no recibían el mensaje para excluirlos.
Realmente no es posible lograr tiempos y movimientos precisos de los personajes o de la cámara: «Hay un pequeño control temporal sobre dónde suceden estas diferentes acciones en la generación real, pero no es preciso…c «Es una especie de disparo en la oscuridad», Cederberg dicho.
Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado y basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panorámica sobre el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo representó una toma compuesta en orientación vertical y recortó en posproducción. Los clips generados también a menudo estaban en cámara lenta sin ningún motivo en particular.
De hecho, el uso de lenguaje cinematográfico común como «pan right» o «dolly» era generalmente inconsistente, dijo Cederberg, lo que el equipo encontró bastante sorprendente.
«Los investigadores, antes de acercarse a los artistas para jugar con esta herramienta, en realidad no pensaban como cineastas», dijo.
Como resultado, el equipo ejecutó cientos de generaciones, cada una de las cuales duró entre 10 y 20 segundos, y terminó usando solo unas pocas. Cederberg estimó la proporción en 300:1, pero, por supuesto, probablemente a todos nos sorprendería la proporción en una sesión fotográfica normal.
el equipo en realidad Hice un pequeño video detrás de escena. explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, Los comentarios son bastante críticos con todo el proyecto. – pero no tan virulenta como la publicidad impulsada por IA que hemos visto ridiculizada recientemente.
La última cuestión interesante se refiere a los derechos de autor: si le pides a Sora que te regale un clip de “Star Wars”, él se negará. Y si intentas eludirlo con «un hombre vestido con una espada láser en una nave espacial retro-futurista», también se negará, porque mediante algún mecanismo reconoce lo que estás intentando hacer. También se negó a hacer un “plano de Aronofsky” o un “zoom de Hitchcock”.
Por un lado, tiene mucho sentido. Pero eso plantea la pregunta: si Sora sabe qué es, ¿eso significa que el modelo fue entrenado en ese contenido para reconocer mejor que está infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto, hasta el punto de lo absurdo, como ocurre con Entrevista de la CTO Mira Murati con Joanna Stern – Es casi seguro que nunca nos lo dirá.
En cuanto a Sora y su uso en el cine, es claramente una herramienta poderosa y útil en su lugar, pero su lugar no es «crear películas desde cero». De nuevo. Como dijo otro villano, “eso viene después”.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
El evento iPad 'Let Loose' de Apple también incluirá un evento especial en Londres
Apple celebrará un evento especial el 7 de mayo, durante el cual se espera que «se deje llevar» y lance grandes cambios en la línea iPad. En un giro interesante, parece que también habrá un evento paralelo organizado por Apple en Londres ese día.
¿Un evento de Apple en Londres?
En su cobertura del anuncio del evento de Apple hace unos días, el Independiente incluyó este dato:
Apple retransmitirá el lanzamiento en vídeo en directo en todo el mundo, pero irá acompañado de un evento en Londres, lo que podría explicar el lanzamiento inusualmente temprano. La compañía casi ha realizado sus lanzamientos en California, y hacerlo en el Reino Unido representa una ruptura con la tradición.
Sobre las discusiones, Joe Rossignol dice que «confirmó que Apple organizará una reunión de varios días para conocidos periodistas, blogueros y creadores de contenido de redes sociales en Londres» para el evento «Let Loose» del 7 de mayo.
“Habrá participantes de varios países europeos e incluso de Australia. Creo que se llevará a cabo en Apple Battersea y habrá tiempo práctico con nuevos productos”, dice Joe.
El evento en Londres, por supuesto, será sólo por invitación y no estará abierto al público.
Tomar de 9to5Mac
Para el evento «Scary Fast» de octubre centrado en Mac, Apple no celebró un evento presencial en Cupertino. Sin embargo, invitó a la prensa y a influencers a algunas ciudades del mundo para ver el vídeo del evento y familiarizarse con los productos.
Es probable que esto sea lo que suceda en última instancia con el evento “Let Loose” del próximo mes, pero esta vez también con una reunión en persona en Londres. Esto también podría explicar en parte el horario extraño del evento a las 7 a. m. PT/10 a. m. ET, que son las 3 p. m. ET en Londres.
Más que cualquier otra cosa, esto podría ser una señal de que Vision Pro está a punto de debutar fuera de los Estados Unidos. Durante el evento también esperamos el lanzamiento de un nuevo iPad Pro, iPad Air, Magic Keyboard y Apple Pencil.
¡Veremos! Todavía queda poco más de una semana para que sea oficialmente el momento de soltarse…
Seguir oportunidad: Temas, Gorjeo, InstagramY Mastodonte.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
-
Horoscopo3 años ago
Horóscopo: ¿qué dice tu ascendente para hoy y el fin de semana del 27 de noviembre?
-
Ciencia y tecnología3 años ago
Localizan la región de Marte más apropiada para la existencia de vida.
-
Entretenimiento2 años ago
¿Britney Spears y Sam Asghari están casados? Planes después de la conservación
-
Negocios3 años ago
Reguladores federales investigan bolsas de aire en vehículos 30M
-
Deportes4 meses ago
Vista previa: Perú vs Brasil – predicciones, noticias del equipo, alineaciones
-
Horoscopo3 años ago
Paseo espacial estadounidense fuera de la Estación Espacial Internacional pospuesto debido a un problema médico con el astronauta
-
Entretenimiento3 años ago
Eva Longoria, Shonda Rhimes y Jurnee Smollett abandonan la junta de Time’s Up: «Listos para un nuevo liderazgo»
-
Deportes4 meses ago
Kyogo Furuhashi anota y Japón venció a El Salvador 6-0 en un amistoso | Noticias de futbol