Connect with us

Ciencia y tecnología

Starlink, Internet satelital de SpaceX, cuesta $ 99 al mes con un pago inicial de $ 499

Published

on

Una antena parabólica Starlink

Una antena parabólica Starlink
Foto: SpaceX

SpaceX ha estado lanzando cientos de satélites Starlink a la órbita terrestre baja para proporcionar Internet de banda ancha a los lugares más remotos de la Tierra. ¿El precio del servicio? $ 99 al mes con un pago inicial de $ 499, según un correo electrónico filtrado a CNBC para sus primeros probadores beta.

A medida que Starlink amplía su cobertura con más satélites (y ya hay 895, suficientes para una prueba extensa en el norte de Estados Unidos), se admiten nuevos interesados ​​en la fase beta del servicio. El lunes, SpaceX envió un correo electrónico a los primeros probadores beta dándoles la bienvenida a la prueba «Better Than Nothing Beta», un nombre elegido intencionalmente para reducir las expectativas de estos primeros clientes:

«Como puede adivinar por el título, estamos tratando de reducir sus expectativas iniciales», firmó el equipo de Starlink en los correos electrónicos. «Espere que las velocidades de datos oscilen entre 50 y 150 Mb y una latencia de 20 a 40 ms durante los próximos meses a medida que mejoramos el sistema Starlink. También habrá breves periodos sin conectividad ”.

Los correos electrónicos, que marcan el inicio de la beta pública de Starlink tras una beta privada para empleados, detallan el costo inicial del servicio, que será de $ 99 al mes, pero con un pago inicial de $ 499 para recibir el «kit Starlink». » . Este kit incluye la antena parabólica para conectar a los satélites, un trípode para montar eltenía un cielo abierto y un enrutador wifi. También hay una aplicación Starlink disponible en Google Play y el Tienda de aplicaciones.

Puedes registrarte para la beta en el web el Starlink. Según SpaceX, casi 700.000 personas han expresado interés en el servicio solo en Estados Unidos. La cobertura inicial también se extenderá a Canadá en 2020, y SpaceX planea ofrecer una «cobertura casi global del mundo habitado» para 2021. Si todo va bien, Starlink se convertirá en una empresa que cotiza en bolsa en cinco años.

READ  ¿Crees que Android TV sigue empeorando? La interfaz final de Plex es dar control a los usuarios

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar

Published

on

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar
Agrandar / Captura de pantalla de un video Runway Gen-3 Alpha generado con el mensaje «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

El domingo, Runway anunció un nuevo modelo de síntesis de video de IA llamado Alfa de tercera generación Todavía está en desarrollo, pero parece crear videos de calidad similar a Sora de OpenAI, que debutó a principios de este año (y aún no se ha lanzado). Puede generar nuevos vídeos de alta definición a partir de mensajes de texto que van desde humanos realistas hasta monstruos surrealistas que pisan fuerte por el campo.

A diferencia de la pista mejor modelo anterior A partir de junio de 2023, que solo podría crear clips de dos segundos, Gen-3 Alpha podría crear segmentos de video de 10 segundos de personas, lugares y objetos que tengan una consistencia y coherencia que supere fácilmente a Gen-2. Si 10 segundos parecen cortos en comparación con el minuto completo de video de Sora, considere que la compañía está trabajando con un presupuesto de computación reducido en comparación con OpenAI, que cuenta con fondos más generosos, y en realidad tiene un historial de brindar capacidades de generación de video para usuarios comerciales.

Gen-3 Alpha no genera audio para acompañar los videoclips, y lo más probable es que generaciones temporalmente consistentes (aquellas que mantienen un carácter consistente en el tiempo) dependan de material de formación similar de alta calidad. Pero la mejora de Runway en fidelidad visual durante el año pasado es difícil de ignorar.

READ  Eche un vistazo más de cerca a los nuevos tamaños de pantalla y caras de Apple Watch con estas maquetas

El vídeo con IA se está calentando

Han sido unas semanas muy ocupadas para la síntesis de vídeo de IA en la comunidad de investigación de IA, incluido el lanzamiento del modelo chino. kling, creado por Kuaishou Technology, con sede en Beijing (a veces llamado “Kwai”). Kling puede generar dos minutos de vídeo HD de 1080p a 30 fotogramas por segundo con un nivel de detalle y coherencia eso coincidiría con Sora.

Mensaje Alfa Gen-3: «Los sutiles reflejos de una mujer en la ventana de un tren de alta velocidad en una ciudad japonesa».

Poco después del debut de Kling, la gente empezó a crear en las redes sociales. vídeos surrealistas de IA Usando Luma AI Máquina de sueños Luma. Estos videos eran nuevos y extraños pero en general carecía de consistencia; Probamos Dream Machine y no quedamos impresionados con nada de lo que vimos.

Mientras tanto, uno de los pioneros de la conversión de texto a video, Runway, con sede en Nueva York y fundado en 2018, recientemente fue blanco de memes que muestran que su tecnología Gen-2 está perdiendo popularidad en comparación con las plantillas de síntesis de video más nuevas. Esto puede haber motivado el anuncio de Gen-3 Alpha.

Mensaje Alfa Gen-3: «Un astronauta corriendo por un callejón en Río de Janeiro».

Generar humanos realistas siempre ha sido complicado para los modelos CG, por lo que Runway muestra específicamente la capacidad de Gen-3 Alpha para crear lo que sus desarrolladores llaman personajes humanos «expresivos» con una variedad de acciones, gestos y emociones. Sin embargo, la empresa ejemplos proporcionados No eran particularmente expresivos (la mayoría de las veces la gente se limitaba a mirar y parpadear lentamente), pero parecían realistas.

READ  Zoom anuncia un nuevo modo de "enfoque" para los estudiantes

Los ejemplos humanos proporcionados incluyen videos generados de una mujer en un tren, un astronauta corriendo por una calle, un hombre con el rostro iluminado por el brillo de un televisor, una mujer conduciendo un automóvil y una mujer corriendo, entre otros.

Mensaje Alfa Gen-3: «Un primer plano de una mujer joven conduciendo un automóvil, mirando un bosque verde borroso y reflejado visible a través de la ventanilla lluviosa del automóvil».

Los videos de demostración generados también incluyen ejemplos CGI más surrealistas, incluida una criatura gigante caminando por una ciudad en ruinas, un hombre hecho de rocas caminando por un bosque y el monstruo gigante de algodón de azúcar que se ve a continuación, que es probablemente el mejor video en general. página.

Mensaje Alfa Gen-3: «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

Gen-3 impulsará varias herramientas de edición de Runway AI (una de las afirmaciones más notables de la compañía), que incluyen Cepillo multimovimiento, Controles avanzados de cámaraY Modo director. Puede crear videos a partir de mensajes de texto o imágenes.

Runway dice que Gen-3 Alpha es el primero de una serie de modelos entrenados en una nueva infraestructura diseñada para entrenamiento multimodal a gran escala, dando un paso hacia el desarrollo de lo que llama «Modelos globales generales«, que son sistemas hipotéticos de IA que construyen representaciones internas de entornos y las utilizan para simular eventos futuros en esos entornos.

Continue Reading

Ciencia y tecnología

Nintendo Direct junio de 2024: todos los anuncios más importantes

Published

on

Nintendo Direct junio de 2024: todos los anuncios más importantes

GameSpot puede recibir ingresos de asociaciones publicitarias y de afiliados por compartir este contenido y compras a través de enlaces.

READ  Eche un vistazo más de cerca a los nuevos tamaños de pantalla y caras de Apple Watch con estas maquetas
Continue Reading

Ciencia y tecnología

Selección de lentes profesionales, HDR+, más [U]

Published

on

Selección de lentes profesionales, HDR+, más [U]

La funcionalidad Feature Drop de junio continúa implementándose a través de una serie de actualizaciones de la aplicación. Pixel Camera 9.4 trae una sección de lentes manual a Pixel 6/7 Pro y Fold, junto con otros ajustes.

Actualización 17/06: La cámara Pixel 9.4 es ampliamente desplegado esta tarde. Otro cambio mueve la preferencia «Almacenar videos de manera eficiente» del menú Avanzado a la página principal Configuración> Video.

Utilice el formato H.265/HEVC en lugar de H.264/AVC para reducir el tamaño del archivo. Es posible que HEVC no sea compatible con algunas plataformas.


Original 14/06: Al igual que con el Pixel 8 Pro, los otros dos teléfonos plegables premium de Google ahora te permiten elegir una de las tres lentes traseras para tomar una foto. Toque el engranaje de configuración en la esquina inferior izquierda (o deslice hacia arriba) para configurar las fotos. Encontrará una nueva pestaña «Pro» junto a «General» con selección de lentes: Automático o Manual.

(A pesar del nombre de la pestaña, estos no son los «controles profesionales» introducidos en el Pixel 8 Pro que le permiten ajustar el enfoque, la velocidad de obturación y el ISO).

La pastilla de zoom situada encima del botón del obturador se sustituye por Ultra gran angular, gran angular y teleobjetivo. Pellizque hacia adentro o hacia afuera para hacer zoom cuando este modo manual esté habilitado. Google usará W de forma predeterminada cuando abras la aplicación más tarde.

Píxel 7 Pro

Otro cambio hace que Pixel Camera mueva el selector RAW/JPEG a la pestaña Pro. Anteriormente estaba enterrado en Configuración > Avanzado. Esto hace que el cambio sea mucho más fácil cuando quieras editar la foto profesionalmente más adelante. En comparación con el 8 Pro, no tienes preferencia de resolución: 12MP o 50MP.

READ  Zoom anuncia un nuevo modo de "enfoque" para los estudiantes

Es de suponer que esta actualización trae la selección de fotogramas mejorada HDR+ a Pixel 6+, incluidos Fold y Tablet:

HDR+ ahora te permite identificar el mejor momento en tu foto HDR+ con solo presionar el botón del obturador. Es más inteligente seleccionar la imagen base para producir la imagen fusionada de fotogramas múltiples, teniendo en cuenta criterios como ojos abiertos y sujetos sonrientes.

Versión9.4.103.641377609.23 de Pixel Camera todavía está en implementación a través de Play Store. Se suma a otras actualizaciones del lado del servidor y de las aplicaciones adyacentes al lanzamiento de funciones de junio en los últimos días:

Hasta el viernes, Android 14 QPR3 aún no está ampliamente implementado.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Trending