Ciencia y tecnología
NotePin de Plaud, impulsado por ChatGPT y que se vende por $169, tiene un lugar permanente en mi bolsa de viaje
Afortunadamente, la insignia Plaud.AI ocupaba poco espacio en mi bolso de mano. También me dio un doble golpe: estaba volando por todo el país y sabía que iba a tomar muchas notas.
Si alguna vez has estado en una reunión conmigo, sabrás que siempre llevo mi computadora portátil. Mi estúpido cerebro necesita tomar notas. Dicho esto, escribir mientras se escucha puede distraer tanto como ser interesante. Como mínimo, te impide mantener una conversación natural, especialmente en esos momentos en los que sigues escribiendo después de que la otra persona ha terminado de hablar.
Por supuesto, puedes intentar escribir más rápido o encontrar un atajo, pero descubrí que ambos métodos tienden a hacer que el texto sea ilegible. El siguiente paso obvio es grabar, con el permiso de la otra persona, por supuesto. Cuando era un periodista novato, las grabadoras de voz digitales independientes todavía eran una preocupación común.
Hoy grabo en mi computadora portátil o pongo mi teléfono en la mesa entre el sujeto y yo. Estos dispositivos presentan sus propios problemas, como la falta de micrófonos adecuados y la tendencia a captar ruidos al escribir cuando cumplen una doble función. Siento una ligera nostalgia por los días en que tenía mi pequeña grabadora Olympus con su llave USB-A incorporada.
El motivo de Plaud.AI se encuentra en algún punto entre los escenarios anteriores. A principios de este año, la startup lanzó Plaud Note, un dispositivo de grabación que se conecta magnéticamente a la parte posterior de un teléfono celular y utiliza ChatGPT para transcribir conversaciones. Aunque no tuve la oportunidad de probar este dispositivo anterior, aproveché la oportunidad cuando la compañía me habló sobre el próximo NotePin.
Dudo que este producto tenga una gran audiencia en la era de los teléfonos inteligentes que lo hacen todo, pero estaba seguro de que sería uno de ellos. A veces siento que estoy tomando notas sólo para tener algo que hacer en las reuniones. Digo esto porque muchas de mis notas languidecen, por no poder encontrar información relevante o simplemente por ser indescifrables.
Otter.AI me ayudó mucho en ambos frentes cuando subí grabaciones al servicio de transcripción impulsado por IA. El proceso de Plaud es similar, pero más sencillo. En el caso de NotePin, lo usa en su muñeca o lo sujeta magnéticamente a su solapa, toca una vez para guardar y toca nuevamente para detener. Las grabaciones se guardan en su teléfono en tiempo real y desde allí puede decidir si descargarlas o no para transcribirlas, dependiendo de qué tan sólida sea su suscripción mensual.
El dispositivo de $169 viene con 300 minutos de transcripción mensuales gratuitos. Mientras tanto, el plan Pro cuesta $ 6,60 por mes, lo que cuadriplica los minutos de transcripción y agrega algunas funciones como plantillas personalizadas y «Pregunte a AI», que la compañía describe como «un agente de IA para extraer más información de los registros, información que no fue descubierta». a través de modelos resumidos e información que abarca múltiples registros”.
En última instancia, elegir una cuenta Pro dependerá de la cantidad de tiempo que pases en reuniones por mes. Dado que la mayoría de mis reuniones se realizan por teleconferencia, no creo que actualice. Pero quién sabe: tal vez los millones de sesiones informativas a las que asistiré en el CES en enero me obliguen.
Una cosa que realmente me gusta de Plaud es el diseño deliberado de la empresa. El concepto de registrar la vida fue un fracaso. Creo que mucho de esto se debe a que la mayoría de la gente no quiere registrar todas sus idas y venidas diarias. Y las personas que conocen generalmente no quieren ser grabadas.
El NotePin es deliberado en el sentido de que lo presionas para activarlo. Esta es una acción intencional que probablemente la persona sentada frente a usted notará. Cuando comience la grabación, sentirás un breve zumbido háptico. Si eso no es suficiente para disipar tus miedos, puedes abrir la aplicación Plaud en tu teléfono para ver si realmente se está grabando. Cuando haya terminado, otra pulsación le dará un zumbido háptico para indicar que la grabación se ha completado.
GPT hace un buen trabajo con transcripciones y resúmenes. También hay una herramienta de mapas mentales, aunque no la encontré particularmente interesante. Los hablantes están separados por voz y el sistema es capaz de manejar varios hablantes en 59 idiomas. El texto es claro, la interfaz es fácil de usar y los resúmenes son útiles. También es muy fácil compartir un enlace al audio con un colega.
Mi mayor problema actualmente, como usuario de Otter desde hace mucho tiempo, es la imposibilidad de tocar palabras en la transcripción para reproducir el audio correspondiente. Creo que esto es algo que Plaud planea agregar, si aún no lo ha hecho.
A diferencia de otros pines de IA, el producto de Plaud parece ser una solución a problemas del mundo real. Estos son problemas a los que me enfrento todo el tiempo como periodista. Mi mayor pregunta en este momento es si hay suficientes personas en el mundo como yo para apoyar el modelo de negocio de Plaud.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
Se informa que la fecha de lanzamiento del Pixel 9a es más temprana que nunca
Tras el lanzamiento anticipado de la serie Pixel 9 en agosto, ahora se informa que el Pixel 9a de gama media podría lanzarse en marzo de 2025, la primera fecha de lanzamiento en la historia de la línea.
Los calendarios de lanzamiento de Google han cambiado significativamente recientemente. La serie Pixel 9 se lanzó en agosto, más de dos meses antes de las expectativas habituales de octubre, e incluso antes de que debutara Android 15. Y, más allá de eso, hay evidencia de que Android 16 también podría lanzarse mucho antes de lo habitual.
El calendario inicial también parece estar vigente para el Pixel 9a.
De acuerdo a títulos de Android, que cita “múltiples fuentes”, el Pixel 9a estará “disponible para pedidos anticipados” a mediados de marzo de 2025, la fecha de lanzamiento más temprana de Pixel hasta la fecha, con diferencia.
Este cambio de programación de dos meses se alinearía exactamente con el resto de la serie Pixel 9a y explicaría por qué ya estamos viendo tantas filtraciones, e incluso prototipos, en la naturaleza.
El mismo informe también cita representaciones «anteriores» basadas en CAD del Pixel 9a como evidencia de la línea de tiempo alterada, pero filtraciones similares del Pixel 8a llegaron a la web casi exactamente en esta época el año pasado, solo una semana después.
La serie Pixel de gama media de Google ha sido la más volátil en términos de calendario de lanzamientos. El lanzamiento inicial del Pixel 3a tuvo lugar en Google I/O en mayo de 2019, pero el excelente seguimiento del Pixel 4a terminó retrasándose en agosto debido a la pandemia de COVID-19, y el Pixel 5a siguió ese calendario un año después. En 2022, el Pixel 6a se lanzó en julio y el Pixel 7a finalmente regresó a I/O con un lanzamiento en I/O 2023. El Pixel 8a continuó el patrón, con un anuncio la semana anterior a I/O el 7 de mayo. .
El informe también afirma que Google tiene la intención de mantener esta línea de tiempo, y el Pixel 10a en 2026 también se lanzará en marzo. También se menciona el lanzamiento del Pixel 10 en agosto, una fecha que no se mencionó (aunque el informe parece hacer referencia a rumores existentes). Un lanzamiento en agosto tendría sentido dado el patrón establecido por el lanzamiento del Pixel 9, pero con tantos cambios de programación por parte de Google, es difícil saber cuáles son los planes de la compañía.
Obtenga más información sobre el Pixel 9a:
Sigue a Ben: Gorjeo/X, TemasY Instagram
FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
Menú de inserción rápida, resumen de bienvenida
Google es despliegue ChromeOS 129 con las últimas funciones de Chromebook Plus anunciadas ayer, incluido el menú de inserción rápida.
La nueva clave Quick Insert es actualmente exclusiva del Samsung Galaxy Chromebook Plus y otros dispositivos la obtendrán el próximo año. Para los Chromebook existentes, hay una tecla de inicio + acceso directo F para acceder al menú en ChromeOS 129.
Te permite acceder a Help Me Write, emoji y GIF (con una barra dedicada en la parte superior), historial de navegación para “agregar enlaces sin buscar, copiar y pegar entre ventanas” y buscar en Google Drive y archivos locales. Otras herramientas le permiten realizar cálculos, convertir unidades de medida, agregar fechas específicas e incluso habilitar el bloqueo de mayúsculas.
En Chromebook Plus, Live Captions ahora ofrece traducción en vivo durante una videollamada, mientras miras YouTube y otros videos. Se admiten más de 100 idiomas.
Más funciones de Chromebook Plus, como la Grabadora, llegarán a ChromeOS 130 a finales de este mes.
Todos los usuarios verán un «Resumen de bienvenida» al inicio para «abrir sus ventanas y aplicaciones anteriores». Esto se puede desactivar desde Configuración > Preferencias del Sistema. También obtienes una fila inferior con tarjetas sobre el clima, próximos eventos del calendario, sugerencias de archivos de Drive y páginas de tu teléfono u otros dispositivos. Estas sugerencias también están disponibles en el modo Vista previa alejada.
En Configuración rápida, encontrará un nuevo mosaico de «Enfoque» que habilita No molestar durante un período de tiempo determinado. Muestra Google Tasks para que puedas seleccionar un elemento de la lista, mientras puedes escuchar sonidos de Focus o una relajante lista de reproducción de YouTube Music.
Otras características nuevas en ChromeOS 129:
- El PIN que establezca ahora se puede utilizar «en todas las superficies de autenticación de ChromeOS».
- La aplicación Configuración ahora tiene la capacidad de controlar el brillo de la pantalla y el teclado, con la capacidad de «encender o apagar el sensor de luz ambiental según sea necesario». Aún no lo vemos en vivo.
- «Esta versión tiene como objetivo brindar una experiencia de bienvenida de alta calidad al notificar a los usuarios que su dispositivo está conectado exitosamente y solicitarles que lo configuren y lo aprovechen al máximo».
- “El método abreviado de teclado Seleccionar para hablar (Buscar + s) ahora funciona cuando se presiona por primera vez. Ya no es necesario habilitarlo primero en la configuración. Aparece un cuadro de diálogo que confirma que desea habilitar Seleccionar para hablar la primera vez que presiona el método abreviado de teclado.
FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
Ciencia y tecnología
Meta probablemente entrena IA en imágenes tomadas por Meta Ray-Bans
Meta, la empresa matriz de Facebook, la semana pasada Se agregaron nuevas funciones de IA. a sus gafas Ray-Ban Meta equipadas con una cámara. Puede utilizar la función de cámara de las gafas para obtener información sobre su entorno y recordar cosas como dónde estacionó. Ahora también hay soporte para vídeo con fines de IA, para “ayuda continua en tiempo real”.
Con todas estas nuevas características que implican que la cámara vea constantemente lo que hay alrededor del usuario, surgen nuevas preguntas sobre qué hace Meta con estos datos. TechCrunch Se le preguntó específicamente a Meta si usaba las imágenes recopiladas por Meta Glasses para entrenar modelos de IA, y Meta se negó a responder.
«No lo discutiremos públicamente», dijo Anuj Kumar. TechCrunch. Kumar es un director senior que trabaja en dispositivos portátiles con IA. «Esto no es algo que normalmente compartamos externamente», dijo otro portavoz. Cuando se le pidió una aclaración sobre si las imágenes se utilizaron para entrenar la IA, el portavoz dijo «no decimos ninguna de las dos cosas».
TechCrunch no lo dice, pero si la respuesta no es un «no» claro y definitivo, es probable que Meta esté considerando usar las imágenes capturadas por Meta Glasses para entrenar Meta AI. Si ese no fuera el caso, no parece haber ninguna razón para que Meta sea ambigua en su respuesta, especialmente con todos los comentarios públicos sobre los métodos y los datos que las empresas utilizan para la capacitación.
Meta entrena su IA con imágenes e historias publicadas públicamente en Instagram y Facebook, que considera datos disponibles públicamente. Pero los datos recopilados de las gafas Meta Ray-Ban diseñadas específicamente para interactuar con la IA de forma privada no son los mismos que una imagen de Instagram publicada públicamente, y eso es preocupante.
Como TechCrunch Tenga en cuenta que las nuevas funciones de IA de Meta Glasses capturarán muchas imágenes pasivas para alimentar a la IA y responder preguntas sobre el entorno del usuario. Por ejemplo, pedir ayuda a Meta Glasses para elegir un atuendo capturará docenas de imágenes desde el interior de la casa del usuario, y esas imágenes se cargarán en la nube.
Las Meta Glasses siempre se han utilizado para imágenes y vídeos, pero de forma activa. Por lo general, sabes cuándo estás capturando una foto o un video porque es con el propósito expreso de subirlo a las redes sociales o guardar un recuerdo, como con cualquier cámara. Sin embargo, con la IA no se conservan estas imágenes porque se recopilan con el propósito expreso de interactuar con el asistente de IA.
Meta definitivamente no confirma lo que sucede con las imágenes de Meta Glasses que se cargan en sus servidores en la nube para que las utilice la IA, y esto es algo que los propietarios de Meta Glasses deben tener en cuenta. El uso de estas nuevas funciones de IA podría hacer que Meta recopile cientos de fotografías privadas que los usuarios no tenían la intención ni el conocimiento de compartir.
Si Meta no utiliza Meta Glasses de esta manera, esto debe indicarse explícitamente para que los clientes puedan saber exactamente qué se comparte con Meta y para qué se utiliza.
Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España.
Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.
-
Horoscopo4 años ago
Horóscopo: ¿qué dice tu ascendente para hoy y el fin de semana del 27 de noviembre?
-
Entretenimiento3 años ago
¿Britney Spears y Sam Asghari están casados? Planes después de la conservación
-
Negocios3 años ago
Reguladores federales investigan bolsas de aire en vehículos 30M
-
Entretenimiento3 años ago
Eva Longoria, Shonda Rhimes y Jurnee Smollett abandonan la junta de Time’s Up: «Listos para un nuevo liderazgo»
-
Horoscopo3 años ago
Paseo espacial estadounidense fuera de la Estación Espacial Internacional pospuesto debido a un problema médico con el astronauta
-
Entretenimiento2 años ago
Publicación abierta: Presentado por el documental Abercrombie & Fitch de Netflix que explica qué es un centro comercial
-
Ciencia y tecnología4 años ago
Localizan la región de Marte más apropiada para la existencia de vida.
-
Deportes10 meses ago
Vista previa: Perú vs Brasil – predicciones, noticias del equipo, alineaciones