OpenAI prepara un altavoz IA con cámara para el hogar

Dispositivo de altavoz IA para el hogar

OpenAI, la compañía conocida por haber impulsado ChatGPT a escala global, se prepara para dar un paso clave: pasar del software al hardware con un altavoz inteligente con cámara pensado para el hogar. Este movimiento situaría a la empresa en plena batalla por el control del salón, un espacio donde hoy dominan propuestas como Amazon Echo, Google Nest o Apple HomePod.

Según distintas informaciones filtradas, la firma está ultimando un altavoz IA con cámara integrada y micrófonos que funcionaría como cerebro doméstico, capaz no solo de escuchar órdenes de voz, sino también de observar el entorno, interpretar hábitos y actuar de forma proactiva. La idea es apostar por una experiencia mucho más contextual y personalizada que la de los asistentes actuales.

Este nuevo dispositivo se presentaría como un altavoz inteligente al uso, pero su enfoque iría más allá del simple control por voz y la reproducción de música. La integración profunda de ChatGPT sería el elemento diferencial, convirtiendo el aparato en una especie de asistente personal doméstico que conversa, entiende matices y se adelanta a determinadas necesidades del usuario.

Frente a los modelos habituales centrados sobre todo en el sonido o en funciones básicas de domótica, la apuesta de OpenAI se basa en una combinación de inteligencia conversacional avanzada, visión por computadora y reconocimiento de patrones. Para el mercado europeo y español, donde los altavoces conectados están ya bastante extendidos, la propuesta apuntaría a un escalón superior en cuanto a capacidades de IA.

En lo económico, las filtraciones apuntan a que el precio de salida se movería en una horquilla de entre 200 y 300 dólares, es decir, en torno a unos 185-275 euros al cambio, situándolo de entrada en la gama media-alta del segmento. Quedaría, por tanto, más cerca de la estrategia de Apple con el HomePod que de los modelos más asequibles de Amazon o Google.

Un altavoz IA que observa, escucha y entiende el contexto

Altavoz IA con cámara en el hogar

La gran diferencia frente a otros altavoces inteligentes estaría en la forma en que el dispositivo percibe lo que ocurre a su alrededor. Diversos reportes señalan que el altavoz de OpenAI incorporaría una cámara capaz de reconocer objetos y personas en el entorno, así como varios micrófonos para captar conversaciones cercanas con claridad.

No se trataría solo de añadir videollamadas a un altavoz, algo que ya hemos visto en otros equipos con pantalla, sino de usar la cámara como una pieza clave de la experiencia. Las filtraciones hablan de funciones similares al reconocimiento facial tipo Face ID, con la capacidad de identificar a distintos miembros del hogar y adaptar la interacción a cada uno.

Esta misma tecnología podría utilizarse, según se ha adelantado, para autenticar compras o confirmar acciones sensibles mediante el rostro del usuario. En la práctica, sería posible aprobar un pedido, gestionar pagos o acceder a determinados perfiles simplemente colocándose frente al dispositivo, sin contraseñas ni PINs.

Además de la identificación de personas, la cámara serviría para reconocer objetos situados en una mesa o en la estancia. Esto permitiría escenas como que el altavoz detecte productos de la compra, recomiende recetas en función de lo que ve o avise si falta algo habitual en la despensa. También podría interpretar gestos básicos o movimientos, ampliando las formas de interactuar más allá de la voz.

La compañía estaría apostando por una IA capaz de reaccionar a situaciones concretas. Por ejemplo, si el sistema detecta que un usuario se ha quedado despierto hasta tarde y tiene una reunión importante a primera hora, podría sugerirle ir a dormir antes, ajustar la alarma o reorganizar compromisos para evitar llegar agotado. La clave está en esa capacidad proactiva que va más allá de ejecutar órdenes bajo demanda.

En el día a día, el altavoz actuaría como un asistente que ayuda a mantener organizada la agenda familiar, coordinar recordatorios, gestionar listas de tareas y ofrecer recomendaciones personalizadas. La idea es que pase de ser un simple gadget a convertirse en una presencia constante que acompaña rutinas, sin forzar al usuario a sacar el móvil o abrir una aplicación concreta.

ChatGPT como motor del hogar conectado

El corazón del dispositivo sería una integración profunda de ChatGPT, aprovechando las últimas versiones del modelo y sus capacidades multimodales. Esto implicaría no solo comprender lenguaje natural con más precisión, sino también analizar imágenes y contexto para ofrecer respuestas más ricas.

A diferencia de los asistentes actuales, que muchas veces se limitan a ejecutar comandos básicos (poner música, encender luces, responder consultas sencillas), el altavoz de OpenAI aspiraría a sostener conversaciones más naturales y continuas, recordando información relevante del usuario y ajustando el tono y el contenido en función de cada persona.

En un hogar español o europeo, esto podría traducirse en gestionar rutinas familiares complejas: coordinar horarios de los niños, ayudar con tareas escolares, proponer menús semanales, controlar dispositivos de domótica o incluso servir de apoyo lingüístico en casas bilingües. Todo ello con un enfoque más contextual que los sistemas que solo reaccionan a palabras clave.

La capacidad del modelo para interpretar conversaciones cercanas abre la puerta a interacciones menos rígidas. No sería imprescindible hablarle con frases muy estructuradas; bastaría con mencionar algo mientras se prepara la cena para que el sistema tome nota, proponga acciones o formule recordatorios más tarde. La IA pasaría a ser un acompañante en segundo plano, siempre disponible pero sin necesidad de activar un comando para cada petición.

Esta mayor presencia plantea, lógicamente, dudas sobre cómo se gestionarán los datos. La empresa tendrá que explicar con detalle y transparencia si las conversaciones se procesan en la nube, qué se almacena, durante cuánto tiempo y cómo pueden los usuarios controlar la información que comparten. En Europa, donde el RGPD marca un marco regulatorio estricto, este punto será decisivo para la aceptación del producto.

Diseño y estrategia de hardware: el sello de Jony Ive

Para dar forma física a esta apuesta, OpenAI se ha aliado con un nombre muy conocido en el sector: Jony Ive, histórico responsable de diseño en Apple. Su firma, io Products, fue adquirida por OpenAI por valor de 6.500 millones de dólares, y desde entonces se ha integrado en una nueva división dedicada en exclusiva al hardware de inteligencia artificial.

Más de 200 empleados estarían actualmente volcados en esta línea de productos, lo que anticipa un esfuerzo serio por parte de la compañía y no un simple experimento. La meta declarada es crear dispositivos que combinen simplicidad de uso, estética cuidada y capacidades avanzadas de IA, siguiendo una filosofía similar a la que llevó a Apple a destacar en electrónica de consumo.

Sam Altman, director ejecutivo de OpenAI, ha reconocido públicamente que ya se encuentran desarrollando prototipos del altavoz tras descartar diseños anteriores que no cumplían con el listón marcado. El objetivo es que el resultado final sea un objeto discreto, fácil de entender a primera vista y que se integre sin estridencias en el salón o en cualquier estancia de la casa.

Dentro de esta estrategia, el altavoz no sería el único producto contemplado. Se habla también de unas gafas inteligentes, una lámpara conectada y un pin o dispositivo portátil sin pantalla como proyectos en distintas fases de exploración. No está garantizado que todos lleguen al mercado, pero refuerzan la idea de que OpenAI busca construir un pequeño ecosistema de dispositivos alrededor de ChatGPT.

En el contexto europeo, un diseño sobrio y bien acabado puede marcar la diferencia, especialmente en países como España donde el salón sigue siendo un espacio social clave y donde los usuarios valoran tanto la funcionalidad como la apariencia de los gadgets que colocan en casa. La colaboración con Ive pretende precisamente reforzar esa percepción de producto cuidado, más cercano a la gama premium que a un altavoz puramente utilitario.

Fechas de lanzamiento y posicionamiento en el mercado

En cuanto a los plazos, las informaciones disponibles apuntan a un calendario relativamente amplio. El altavoz con cámara tendría como horizonte un estreno comercial a partir de comienzos de 2027, con algunas fuentes extendiendo esa referencia hasta 2028 para la llegada de otros dispositivos como las gafas inteligentes.

Esta ventana temporal indica que el proyecto se encuentra todavía en una fase de desarrollo en la que pueden producirse ajustes en el diseño, en las funciones o incluso en la estrategia de precios. No obstante, la horquilla de 200-300 dólares se repite en la mayoría de filtraciones, lo que sugiere que OpenAI quiere colocarse claramente por encima de los altavoces más básicos, pero sin llegar a terrenos de lujo inalcanzables.

En el mercado actual, esto situaría al altavoz de OpenAI como de los modelos más avanzados de Amazon, Google y Apple. El HomePod de Apple sería quizá la referencia más cercana en cuanto a posicionamiento, mientras que Amazon y Google cuentan con un catálogo más amplio que combina productos de entrada muy económicos con otras opciones más capaces.

La diferencia, si se cumplen las expectativas, estaría en el peso específico de la IA dentro del producto. Mientras que muchos altavoces del mercado se centran sobre todo en la reproducción de audio y en un conjunto limitado de comandos, el dispositivo de OpenAI aspiraría a ofrecer una experiencia de asistente personal mucho más rica y autónoma, apoyándose en modelos de lenguaje de última generación.

Para los consumidores españoles, un factor clave será la calidad del soporte en castellano y en otros idiomas europeos, así como la integración con servicios locales: plataformas de música, aplicaciones de domótica compatibles con los estándares europeos, servicios de entrega a domicilio o calendarios corporativos utilizados en la región. Si el altavoz llega con un enfoque demasiado centrado en el mercado estadounidense, podría encontrar más difícil hacerse un hueco aquí.

Privacidad, dudas razonables y expectativas reales

Un aspecto que está generando debate desde el primer momento es el de la privacidad en el hogar. Un altavoz con micrófonos siempre atentos ya plantea dudas habituales; si además añade una cámara capaz de identificar rostros, observar la actividad en la sala y reconocer objetos, el nivel de escrutinio público será aún mayor.

Colectivos de defensa de derechos digitales y organismos reguladores en Europa previsiblemente pondrán el foco en cómo se gestionan las imágenes, las grabaciones y los metadatos generados por el dispositivo. Control granular, opciones claras de desactivación y almacenamiento local de parte de la información podrían convertirse en requisitos de facto para lograr un mínimo de confianza.

Más allá de la privacidad, también existe la cuestión de la utilidad real. Muchos dispositivos impulsados por IA llegan al mercado envueltos en grandes promesas —desde sustituir al smartphone hasta revolucionar el trabajo en casa— y luego se quedan en propuestas interesantes pero marginales. El altavoz de OpenAI tendrá que demostrar que realmente ahorra tiempo, simplifica tareas y aporta valor diario, no solo que es tecnológicamente llamativo.

La madurez actual de la inteligencia artificial juega un papel importante en esta ecuación. Los modelos han mejorado de forma muy notable, pero siguen cometiendo errores, alucinan respuestas o fallan en tareas aparentemente sencillas. Para que un dispositivo situado en el centro del salón gane el nivel de confianza necesario, la experiencia tendrá que ser más estable y predecible que la que ofrecen hoy muchas aplicaciones basadas en IA.

Pese a todo, el movimiento de OpenAI encaja en una tendencia más amplia: llevar la inteligencia artificial del móvil y el ordenador a objetos de uso cotidiano, integrándola en el entorno físico. Si la compañía logra equilibrar innovación, diseño, control de datos y verdadera utilidad, este altavoz con cámara podría convertirse en el primer paso de una nueva generación de dispositivos domésticos centrados en la inteligencia artificial contextual.

Dyson PencilWash: la fregona que quería ser un lápiz está lista para limpiar tu casa sin olores

Dyson PencilWash

Si algo sabe hacer bien Dyson, es coger un objeto cotidiano y aburrido, meterle horas de ingeniería y convertirlo en algo que todos queremos tener en el armario de la limpieza. Y justo así es cómo ha nacido en sus laboratorios PencilWash, una fregona eléctrica que, como su nombre indica, apuesta todo por la delgadez (tipo lápiz) al tiempo que busca solucionar el mayor drama de estos dispositivos: el terrible olor a humedad que desprenden. Te contamos todos los detalles.

Olvida el rodillo que huele mal

El gran problema de muchas fregonas eléctricas actuales es su mantenimiento. Si no limpias bien el filtro, las bacterias hacen fiesta y el aparato acaba oliendo peor que lo que intentabas limpiar. Dyson lo tenía bien presente y ha cortado por lo sano tomando una drástica decisión: eliminar la succión de aire y apostar por el fregado mecánico con una PencilWash que no tiene filtro.

Dyson PencilWash

De esta forma, el equipo utiliza en su lugar un sistema de hidratación de 8 puntos que moja el rodillo con agua limpia constantemente, mientras otro mecanismo extrae el agua sucia en cada rotación, eliminando con ello el riesgo de moho,. El rodillo además es de microfibra de alta densidad (64.000 filamentos por cm²), diseñado para que el suelo se seque casi al instante.

Tan fina que llega donde tú no llegas

Lo de «Pencil» (lápiz) no es solo una estrategia de marketing. El mango tiene exactamente un diámetro de solo 38 mm y todo el conjunto pesa apenas 2,2 kg. Pero lo más interesante para los que odiamos mover sofás a la hora de pasar la fregona está en su capacidad de «aplanarse», gracias a que es capaz de adoptar un ángulo de 170°, quedándose prácticamente en horizontal para deslizarse bajo camas y estanterías.

Dyson PencilWash

Evidentemente su perfil también ayuda: con solo 15 cm, puede entrar bajo muebles bajos donde antes solo llegaba el polvo (y esas pelusas que ya tienen incluso nombre propio –guiño, guiño-).

Autonomía y metros cuadrados

A pesar de su tamaño compacto, la marca asegura que puedes cubrir un piso de unos 100 m² con un solo depósito de 300 ml. Tiene una autonomía de 30 minutos, que sobre el papel parece poco, pero al ser limpieza húmeda focalizada, suele dar de sobra para el día a día. Además, la batería es intercambiable, un detalle que seguro agradecerás para alargar la vida útil del producto -o incluso para jugar con un segundo chute en caso de que pretendas hacer una sesión de limpieza de más tiempo y no quieras esperar a su recarga.

Para rematar la propuesta, Dyson lanzan además 02 Probiotic, un líquido de limpieza, con probióticos naturales (sin químicos agresivos) y que no hace espuma, que ayuda a que el interior de la máquina no genere olores y sea seguro si tienes mascotas o niños gateando por casa.

Precio y disponibilidad

La Dyson PencilWash llega hoy mismo, 19 de febrero, al mercado español. Si quieres jubilar el cubo y la fregona tradicional tendrás que hacer, eso sí, una pequeña inversión de 349 euros.

La puedes encontrar ya disponible en la web de Dyson y en sus tiendas físicas oficiales.

Dyson PencilWash

Falla de seguridad en los robots aspiradores DJI ROMO: qué ha pasado y cómo te afecta

Falla de seguridad en robots aspiradores DJI ROMO

La reciente falla de seguridad en los robots aspiradores DJI ROMO ha encendido todas las alarmas sobre lo que puede ocurrir cuando un dispositivo que recorre nuestra casa, con cámara y micrófono integrados, se convierte en una puerta de entrada para terceros. El caso ha salpicado de lleno a Europa, con especial relevancia en países como España, donde estos equipos empiezan a ganar presencia en los hogares.

Lo que parecía un simple robot de limpieza de alta gama terminó siendo un ejemplo muy claro de cómo una mala gestión de permisos y autenticación puede exponer la intimidad de miles de usuarios. Durante varios días, resultó posible controlar de forma remota aspiradoras ROMO, ver lo que captaban sus cámaras, escuchar a través de sus micrófonos e incluso trazar planos detallados de viviendas sin el conocimiento de sus propietarios.

Un experimento doméstico que destapó una brecha global

Investigación sobre vulnerabilidad DJI ROMO

El protagonista de esta historia es Sammy Azdoufal, director de estrategia de Inteligencia Artificial en la empresa de alquiler de viviendas Emerald Stay y desarrollador de aplicaciones afincado en Barcelona. Todo comenzó cuando decidió, casi por curiosidad, vincular su aspiradora DJI ROMO a un mando de PlayStation 5 para controlarla como si fuera un coche teledirigido.

Para lograrlo, Azdoufal creó una aplicación de mando a distancia usando un asistente de IA y aplicó técnicas de ingeniería inversa sobre los protocolos de comunicación de DJI. Su intención inicial era simplemente comunicarse con su propio robot, pero al conectar con los servidores de la compañía ocurrió algo inesperado: empezaron a responder miles de aspiradoras que no eran suyas.

En cuestión de minutos, su portátil llegó a identificar alrededor de 6.700 a 7.000 dispositivos repartidos por 24 países, llegando posteriormente a tener visibilidad sobre unos 10.000 aparatos entre robots ROMO y otros equipos conectados. Cada pocos segundos, los dispositivos enviaban mensajes con datos de estado, rutas de limpieza, número de serie y otra información técnica que se acumuló en más de 100.000 mensajes MQTT en apenas nueve minutos.

La gravedad del asunto no se limita al volumen de dispositivos alcanzados, sino a que el acceso se lograba con un único elemento: el token privado extraído del propio robot de Azdoufal. Ese identificador, pensado para que los servidores reconozcan a un usuario legítimo, actuaba en la práctica como una especie de “llave maestra” que abría la puerta a miles de robots ajenos.

Medios especializados como The Verge comprobaron la vulnerabilidad de primera mano: un periodista permitió que Azdoufal intentara controlar su ROMO desde Barcelona, y este consiguió manejar el robot de forma remota con solo conocer su número de serie, sin necesidad de contraseñas adicionales.

Qué podían ver y hacer los atacantes con los ROMO

Datos expuestos en falla de seguridad DJI ROMO

El alcance de la vulnerabilidad va mucho más allá de encender o apagar una aspiradora a distancia. Gracias a ese fallo en la validación de permisos, quien explotara el problema podía controlar el movimiento del robot y acceder a información extremadamente sensible sin ningún tipo de autorización del propietario.

Entre los datos y funciones accesibles se incluían las cámaras integradas de los modelos más avanzados, lo que permitía ver imágenes en directo del interior de las viviendas. Además, el sistema ponía a disposición de quien se conectara los mapas 2D de las casas generados durante las sesiones de limpieza, con el trazado de cada habitación, pasillo y obstáculo detectado.

A todo ello se sumaba la posibilidad de consultar parámetros como el nivel de batería, el recorrido exacto del robot, las estancias que estaba limpiando en cada momento o los objetos que había encontrado en su camino. Con estos datos, un atacante podía llegar a inferir hábitos y rutinas, saber cuándo una casa estaba vacía o localizar zonas especialmente sensibles dentro de un domicilio.

En algunos casos, el robot también puede servir como punto de partida para averiguar la ubicación aproximada del usuario, ya sea a través de la dirección IP o de la información de red asociada. Este tipo de combinación -mapas del hogar, posibles imágenes, audio y datos técnicos- convierte un simple electrodoméstico en una fuente muy poderosa de inteligencia doméstica.

Azdoufal insiste en que, durante sus pruebas, no recurrió a técnicas de fuerza bruta ni vulneró sistemas cifrados de manera tradicional. Según su propio testimonio, se limitó a utilizar el token de su dispositivo y se encontró con que los servidores le proporcionaban, por diseño defectuoso, datos de miles de usuarios más.

Cómo funciona la vulnerabilidad: el problema del token y el backend

Backend y MQTT en fallo de seguridad DJI ROMO

En el centro de este incidente se encuentra el sistema de comunicación entre los robots ROMO y la plataforma DJI Home, que emplea el protocolo MQTT para enviar y recibir datos en tiempo real. Esta tecnología es habitual en el Internet de las Cosas porque es ligera y eficiente, pero requiere una gestión rigurosa de permisos para que cada dispositivo solo pueda acceder a su propia información.

Según ha explicado la propia compañía, el problema residía en un fallo de validación de permisos en el backend, no en el cifrado de las comunicaciones. Es decir, los datos viajaban de forma segura por la red, pero una vez dentro de la infraestructura de DJI los controles que determinan qué puede ver cada cliente no estaban correctamente ajustados.

En la práctica, el token privado del robot de Azdoufal actuó como un identificador global que permitía suscribirse a mensajes de otros dispositivos, recibir su telemetría e incluso ejecutar acciones remotas. El fallo hacía que el sistema aceptara esas peticiones como si fueran legítimas, sin verificar adecuadamente que cada solicitud correspondiera únicamente al robot autorizado.

Este tipo de vulnerabilidad es especialmente delicado porque se sitúa “del lado del servidor”. Aunque el usuario tenga una conexión cifrada y una app aparentemente segura, si el backend no aplica políticas estrictas de control de acceso, un atacante con los conocimientos adecuados puede moverse con bastante libertad dentro de la nube del fabricante.

Especialistas en ciberseguridad recuerdan que casos así ponen de manifiesto que el cifrado por sí solo no basta: TLS protege el canal, pero no impide que un servicio mal configurado entregue información sensible a quien no debería recibirla. Por eso cobran tanta importancia las auditorías externas de seguridad y los programas de recompensa por errores, especialmente en productos que se meten literalmente en casa del usuario.

Respuesta de DJI: parches rápidos y mensaje de calma

Tras la comunicación del hallazgo por parte de Azdoufal y su posterior publicación en medios internacionales, DJI ha asegurado que la vulnerabilidad ya está completamente solucionada. Según la portavoz de la compañía, Daisy Kong, la empresa detectó internamente un problema en DJI Home a finales de enero y comenzó a desplegar parches poco después.

En concreto, la firma afirma haber lanzado un primer parche el 8 de febrero, seguido de una actualización adicional el 10 de febrero para garantizar que la corrección se aplicaba a todos los nodos de servicio. La compañía sostiene que esta segunda actualización fue la que terminó de extender la solución a toda su infraestructura, reinstaurando los controles de permisos que habían fallado inicialmente.

DJI subraya que el fallo se limitaba a una posibilidad teórica de acceso no autorizado a vídeo en directo y otros datos de los ROMO, y que los casos reales detectados fueron “extremadamente raros” y asociados fundamentalmente a investigadores de seguridad que estaban probando los dispositivos. Además, la empresa recalca que las comunicaciones no se transmitían en texto claro y que el cifrado seguía activo en todo momento.

Tras recibir el informe detallado de Azdoufal, la compañía ha reiterado que “no hay evidencia de un impacto más amplio” sobre su base de usuarios y que el problema ya está resuelto. Sin embargo, el propio investigador ha reconocido al medio estadounidense que todavía ha sido capaz de detectar otro fallo grave relacionado con los ROMO, que por el momento prefiere no hacer público para no facilitar su explotación.

Desde la empresa se insiste en que mantienen estándares estrictos de privacidad y seguridad, que han invertido en soluciones de cifrado a nivel de industria y que cuentan con un programa de recompensa de errores para incentivar que este tipo de descubrimientos se comunique de forma responsable.

El impacto para los usuarios en España y Europa

En el contexto europeo, donde la protección de datos personales está fuertemente regulada por el RGPD, un incidente como el de los DJI ROMO no pasa desapercibido. Aunque la compañía insista en que el número de afectados reales ha sido muy limitado, el hecho de que fuera técnicamente posible acceder a cámaras, micrófonos y mapas del hogar de miles de usuarios es, por sí mismo, un motivo de preocupación.

En países como España, donde cada vez más hogares apuestan por la domótica y por dispositivos conectados, este caso sirve como recordatorio de que un robot aspirador no es solo un electrodoméstico: es un sensor móvil que recorre la casa entera y puede generar una radiografía muy precisa de cómo vive una familia, qué espacios utiliza, dónde guarda determinados objetos o cuándo suele estar ausente.

Reguladores europeos y defensores de la privacidad llevan tiempo advirtiendo de los riesgos de los dispositivos con cámara y micrófono integrados, desde altavoces inteligentes hasta timbres con vídeo o cámaras de vigilancia doméstica. El incidente con los ROMO se suma a una lista creciente de casos que muestran que no todas las marcas asumen con la misma seriedad las implicaciones de seguridad.

Además, al tratarse de una compañía con infraestructura global y servidores distribuidos, surgen dudas adicionales sobre dónde se almacenan exactamente los datos, quién puede acceder a ellos y bajo qué jurisdicción se gestionan. Aunque el cifrado dificulta el acceso a terceros externos, los propios empleados o servicios internos de la empresa pueden, en teoría, tratar esa información, lo que eleva el listón de responsabilidad que se exige a fabricantes y proveedores.

Para los usuarios europeos, este tipo de incidentes suele traducirse también en un mayor escrutinio regulatorio y en presiones para que se adopten certificaciones de ciberseguridad específicas para productos del Internet de las Cosas destinados al hogar, algo que ya se está debatiendo tanto en Bruselas como en diferentes capitales nacionales.

Qué medidas pueden tomar los propietarios de robots aspiradores

Aunque DJI insista en que no se requiere ninguna acción adicional por parte de los usuarios y que los parches ya se han aplicado, el episodio deja claras algunas recomendaciones prácticas que pueden ayudar a reducir riesgos con cualquier robot aspirador conectado, sea o no de esta marca.

En primer lugar, conviene revisar periódicamente las actualizaciones de firmware y de la aplicación móvil asociada. La mayoría de fabricantes activan las actualizaciones automáticas, pero no está de más comprobar en los ajustes que el dispositivo está realmente al día, sobre todo después de noticias de este tipo.

También es recomendable limitar los permisos que se conceden a las aplicaciones: por ejemplo, valorar si es estrictamente necesario habilitar el acceso remoto desde fuera de casa, o si tiene sentido que la app tenga permisos permanentes para la cámara o el micrófono del móvil cuando no se están utilizando funciones específicas.

Otra práctica prudente pasa por controlar las zonas de la vivienda por las que se mueve el robot. Muchos modelos permiten establecer áreas restringidas o muros virtuales. Evitar que el aspirador entre en habitaciones especialmente sensibles -como despachos con documentación, habitaciones infantiles o zonas donde se manipula información privada- puede reducir el impacto de un posible incidente.

Por último, resulta útil mantener una visión crítica sobre los dispositivos conectados que se incorporan al hogar: comprobar el historial de seguridad del fabricante, buscar si ya ha tenido problemas previos, revisar qué tipo de datos recoge y cómo los almacena, y no dar por hecho que por el mero hecho de ser un producto popular es automáticamente seguro.

El caso de los DJI ROMO ha dejado claro que incluso una marca con experiencia tecnológica y amplia presencia internacional puede pasar por alto un fallo de validación de permisos con consecuencias potencialmente graves. La digitalización del hogar trae comodidad y automatización, pero también obliga a asumir que cada aparato conectado es un posible punto débil si algo se hace mal en su diseño o en su mantenimiento.

Con la vulnerabilidad ya corregida pero con nuevas investigaciones en marcha, el episodio sirve como toque de atención tanto para fabricantes como para usuarios: la seguridad de un robot aspirador no se mide solo por lo bien que limpia, sino por lo bien que protege lo que ve, oye y aprende de la casa en la que trabaja.

Ring de Amazon rompe su alianza con Flock en plena polémica por la vigilancia

Cámaras de seguridad doméstica y sistemas de vigilancia

La decisión de Ring, filial de Amazon, de cancelar su acuerdo con Flock Safety ha reavivado el debate sobre hasta dónde deben llegar las cámaras conectadas y los sistemas de vigilancia automatizada en barrios y ciudades. Aunque la integración entre ambas compañías nunca llegó a ponerse en marcha, el simple anuncio de la alianza había generado un notable malestar entre defensores de la privacidad, usuarios y parte de la clase política.

En las últimas semanas, la polémica se ha visto alimentada por un anuncio de Ring emitido durante la Super Bowl, en el que la función Search Party ayuda a localizar a un perro perdido a través de una red de cámaras y algoritmos de inteligencia artificial. Lo que para algunos era una demostración de utilidad, para otros resultaba una muestra inquietante de hasta qué punto la tecnología podría emplearse para rastrear personas en tiempo real.

Un acuerdo abortado antes de compartir un solo vídeo

Ring y Flock Safety habían anunciado en 2023 su intención de integrar las cámaras domésticas de Ring con la plataforma de Flock, especializada en sistemas automatizados de lectura de matrículas instalados en miles de comunidades de Estados Unidos. La idea era permitir que la policía pudiera solicitar a propietarios de timbres y cámaras Ring el envío de grabaciones a través de la conocida función Community Requests de la aplicación Neighbors.

Sin embargo, tras una revisión interna, Ring concluyó que la integración con Flock exigiría “mucho más tiempo y recursos” de lo previsto. En un comunicado, la compañía explicó que, de manera conjunta con Flock, habían decidido dar marcha atrás y cancelar la asociación antes de que se activara técnicamente.

Ambas empresas insisten en un mismo punto clave: la conexión nunca llegó a desplegarse y no se transfirieron vídeos de clientes de Ring a Flock en ningún momento. Flock repite esta versión y subraya que la ruptura fue una decisión de mutuo acuerdo que, según afirma, les permitirá centrarse mejor en sus respectivos productos y clientes.

Flock, uno de los mayores operadores privados de lectores automáticos de matrículas del país, gestiona cámaras capaces de capturar miles de millones de imágenes de vehículos cada mes. Aunque asegura que no colabora directamente con el Servicio de Inmigración y Control de Aduanas (ICE) ni con otras agencias federales de seguridad interior, la compañía ha sido señalada en el pasado por su posible papel indirecto en investigaciones migratorias.

La función Community Requests de Ring se mantiene, pero con límites

Pese a la cancelación del acuerdo, la función de solicitudes comunitarias de Ring sigue activa dentro de la aplicación Neighbors, muy popular entre usuarios de cámaras y timbres de la marca. A través de este sistema, las fuerzas de seguridad locales pueden publicar peticiones de colaboración en relación con delitos o investigaciones en curso y pedir a los vecinos que compartan fragmentos de vídeo relevantes.

Ring recalca que las agencias federales, incluido ICE, no están autorizadas para enviar solicitudes a través de Neighbors. Solo las fuerzas del orden locales que cumplan determinados requisitos pueden generar estas peticiones y, en cualquier caso, piden imágenes para sus propias investigaciones sin que haya acceso generalizado a la red de cámaras de los usuarios.

La compañía también insiste en que los propietarios nunca están obligados a compartir material: quienes reciben una solicitud pueden ignorarla, responder o contactar directamente con el investigador, e incluso desactivar por completo la recepción de estas peticiones en los ajustes de la app.

Cuando un usuario decide colaborar y envía un vídeo, la transferencia se realiza a través de un socio externo, Axon Evidence. Este intermediario gestiona el envío de las imágenes a la agencia de seguridad pública que hizo la solicitud, y es dicha agencia la que pasa a controlar el acceso, la conservación y el uso del material conforme a su propia normativa y a la legislación vigente.

Además del clip de vídeo, se remiten al cuerpo policial la dirección asociada a la cámara y el correo electrónico del titular de la cuenta. Antes de completar el envío, se informa al usuario de estas condiciones y de que la retención de los datos quedará sujeta a la política interna del departamento correspondiente.

Críticas por el anuncio del Super Bowl y miedo a una vigilancia distópica

La ruptura del acuerdo con Flock se ha producido justo después de una oleada de reacciones negativas al anuncio de Ring en la Super Bowl. En el spot, la función Search Party coordinaba la red de cámaras del vecindario para seguir la pista de un perro hasta reunirlo con su familia, presentando la tecnología como una herramienta para localizar mascotas y vigilar incendios forestales.

Numerosos espectadores recurrieron a las redes sociales para expresar su preocupación, temiendo que la misma tecnología pudiera emplearse para rastrear personas. Muchos usuarios aseguraron que desactivarían la función por miedo a una sociedad en la que cada movimiento quedara registrado y potencialmente analizado por algoritmos.

La Electronic Frontier Foundation (EFF), organización de referencia en la defensa de las libertades civiles en el entorno digital, advirtió de los riesgos para la privacidad. Recordó que Amazon Ring ya incorpora capacidades biométricas en productos concretos, como la función Familiar Faces, que reconoce y compara rostros captados por la cámara con una base de datos creada por el usuario.

Según la EFF, no resulta difícil imaginar un escenario en el que se combinen el reconocimiento facial y búsquedas a escala de barrio, con cámaras privadas alimentando sistemas de rastreo masivo. Esta hipótesis alimenta el temor a formas de vigilancia ubicua que podrían ir más allá de las garantías legales actuales, tanto en Estados Unidos como en otros países occidentales.

En el ámbito político, el senador demócrata Edward Markey instó directamente a Amazon a retirar la función Familiar Faces. En una carta enviada al consejero delegado, Andrew Jassy, el senador interpretó la reacción al anuncio de la Super Bowl como una señal clara de rechazo ciudadano frente al “monitoreo constante” y a los algoritmos intrusivos de reconocimiento de imágenes.

El papel de Flock, ICE y las dudas sobre el uso de datos

Mientras Ring lidia con sus propias controversias, Flock Safety continúa en el foco por el uso de sus lectores de matrículas en investigaciones policiales. La compañía sostiene que no mantiene acuerdos con ICE ni con otras agencias del Departamento de Seguridad Nacional que permitan un acceso directo a sus sistemas o cámaras, y que son sus clientes —ayuntamientos, departamentos de policía u otras entidades— quienes controlan los datos que se capturan.

En la práctica, esto significa que si un cuerpo de policía local decide compartir información con una agencia federal, Flock afirma no tener capacidad para bloquear esa decisión. La empresa, eso sí, ha pausado programas piloto con organismos como la Oficina de Aduanas y Protección Fronteriza o Investigaciones de Seguridad Nacional, después de que creciera la presión pública por el impacto de las redadas migratorias.

Informes periodísticos de medios especializados, como 404 Media, han señalado que en algunos departamentos de policía se utilizaron las herramientas de Flock para búsquedas vinculadas a inmigración y a otras investigaciones en las que intervenía ICE. Las menciones a términos como “inmigración” o “inmigración ilegal” en solicitudes internas habrían servido para justificar consultas en sistemas de escaneo de matrículas.

Ante estas revelaciones, Flock abrió una auditoría interna sobre el uso de sus datos en el estado de Illinois. El examen detectó decenas de agencias policiales que habrían realizado búsquedas por motivos considerados “inaceptables” según la legislación local. Como consecuencia, la compañía asegura que revocó el acceso a información de Illinois a 47 organismos.

El director ejecutivo de Flock, Garrett Langley, ha defendido públicamente que el verdadero problema no es la tecnología en sí, sino la confianza en las fuerzas del orden. Según su visión, un lector automático de matrículas sería una herramienta relativamente limitada para vigilar personas si se compara con el nivel de detalle que ya ofrecen los teléfonos móviles sobre la ubicación y los hábitos de cada individuo.

Estas declaraciones no han frenado las dudas de organizaciones de derechos civiles y activistas, que ven en la combinación de cámaras fijas, lectores de matrículas y dispositivos domésticos conectados un cóctel que, si se coordina a gran escala, podría configurar sistemas de rastreo persistente con escaso control democrático.

Impacto en usuarios y debate en Europa sobre la vigilancia inteligente

Aunque la mayor parte de estas controversias se están produciendo en Estados Unidos, el debate tiene un eco directo en Europa y en España, donde la implantación de cámaras inteligentes y timbres conectados crece año a año. Las preocupaciones sobre privacidad, uso policial de las imágenes y reconocimiento facial se cruzan con un marco normativo más estricto, marcado por el Reglamento General de Protección de Datos (RGPD) y los debates en torno a la futura regulación de la inteligencia artificial.

En el mercado europeo, cualquier intento de integrar cámaras domésticas con sistemas externos de lectura de matrículas o plataformas policiales se enfrentaría a un escrutinio especialmente intenso por parte de las autoridades de protección de datos. La idea de que vecinos compartan grabaciones con la policía a través de apps no es del todo ajena, pero su despliegue masivo requeriría garantías claras sobre finalidades, plazos de conservación, supervisión y derechos de acceso y oposición.

Para los usuarios, la situación actual deja sensaciones encontradas. Por un lado, muchas personas valoran la sensación de seguridad adicional que proporcionan timbres con vídeo, cámaras exteriores y soluciones conectadas que permiten vigilar el domicilio desde el móvil. Por otro, crece la inquietud sobre quién puede llegar a ver esas imágenes, durante cuánto tiempo y con qué fines reales.

Casos como el de Ring y Flock refuerzan la idea de que los acuerdos entre empresas tecnológicas y cuerpos policiales deben comunicarse con absoluta transparencia y someterse a controles independientes. La experiencia reciente muestra que un mínimo desliz en la comunicación, o una simple percepción de falta de claridad sobre la colaboración con agencias como ICE, basta para erosionar la confianza y provocar cancelaciones de suscripciones, como ya han expresado algunos clientes veteranos de Ring.

Todo apunta a que, tanto en Estados Unidos como en la Unión Europea, la discusión sobre cámaras inteligentes, reconocimiento facial y acceso de las fuerzas del orden será un tema recurrente en los próximos años. El equilibrio entre seguridad y privacidad sigue siendo delicado, y la presión social ya está obligando a grandes compañías como Amazon a recalibrar alianzas y funcionalidades que, sobre el papel, prometían hacer los barrios más seguros, pero que también pueden acercar un modelo de vigilancia permanente que muchos ciudadanos no están dispuestos a aceptar.

La cancelación del acuerdo entre Ring y Flock llega, por tanto, como una señal de que las empresas empiezan a medir con más cuidado el impacto reputacional y legal de sus integraciones con sistemas de vigilancia policial. La tecnología avanza rápido, pero la percepción pública y los marcos regulatorios marcan los límites: mientras unos ven una oportunidad para reforzar la seguridad en comunidades y ciudades, otros observan con preocupación cómo se dibuja un escenario en el que cada movimiento queda potencialmente registrado, analizado y compartido mucho más allá de la puerta de casa.

Amazon lanza Alexa+ en México: así es la nueva generación del asistente con IA generativa

Amazon lanza Alexa+ en México

Amazon ha dado un paso importante en su estrategia de inteligencia artificial al anunciar el lanzamiento de Alexa+ en México, una versión renovada de su asistente de voz que se apoya en modelos de lenguaje avanzados e IA generativa. El país se convierte así en el primer mercado de habla hispana en estrenar esta experiencia, un movimiento que la compañía presenta como el siguiente salto en asistentes de voz tras años de uso intensivo de la Alexa clásica.

Durante la fase inicial, el servicio se ofrece en acceso anticipado y se integra en el ecosistema ya conocido de altavoces y pantallas Echo. Alexa+ combina una interacción mucho más conversacional con la posibilidad de realizar tareas concretas del día a día, desde reservar un restaurante hasta organizar un viaje o gestionar dispositivos del hogar conectado, siempre con el foco puesto en el contexto mexicano.

Qué es Alexa+ y en qué se diferencia de la Alexa clásica

Nuevo asistente Alexa+ con IA generativa

Alexa+ es, en esencia, una reingeniería completa del asistente de Amazon que marca el nuevo rumbo de Alexa. La compañía ha sustituido buena parte de la lógica anterior por grandes modelos de lenguaje (LLM), incluyendo tecnologías propias como Amazon Nova y soluciones de terceros, para conseguir que la interacción se parezca más a una charla con una persona que a una lista de comandos memorizados.

Mientras la versión estándar de Alexa sigue disponible y se mantiene gratuita para funciones básicas (música, clima, noticias, control sencillo del hogar inteligente o respuestas generales), Alexa+ se plantea como una capa premium con IA generativa capaz de comprender peticiones complejas, mantener el contexto en la conversación y encadenar varias acciones sin que el usuario tenga que ir paso a paso.

Uno de los cambios más visibles es que ya no hace falta hablarle al asistente como si se tratara de un manual de instrucciones. Alexa+ acepta frases informales, ideas a medias y referencias previas, reaccionando de forma más natural. Se pueden interrumpir respuestas, corregir sobre la marcha o retomar temas de hace unos minutos sin necesidad de repetirlo todo desde cero.

La compañía subraya que la intención es acercarse a la idea de un asistente personal digital que no solo contesta preguntas, sino que también puede tomar decisiones dentro de ciertos márgenes, sugerir opciones y adaptarse al ritmo de la conversación, algo que no era posible con la Alexa original en su forma más básica.

Un asistente diseñado para México: idioma, cultura y contexto

Alexa+ adaptada al español de México

Uno de los puntos donde Amazon ha puesto más énfasis es en que Alexa+ no es simplemente una traducción del modelo en inglés. El asistente ha sido entrenado de forma específica para comprender el español de México, con sus acentos, expresiones típicas y referencias culturales habituales en la conversación diaria.

Esto se nota tanto en lo que entiende como en la forma en la que responde. Alexa+ reconoce modismos y frases coloquiales habituales en el país, puede recomendar taquerías cercanas si alguien comenta que le apetecen unos tacos al pastor, y está al tanto de temas locales como equipos de fútbol, tráfico o restricciones vehiculares. La idea es que el usuario no tenga que ajustar su forma de hablar para usar el asistente.

Para reforzar este enfoque, el servicio ofrece tres opciones de voz: la clásica de Alexa; una variante con acento marcadamente mexicano; y una tercera voz más neutra y relajada para quienes prefieren un tono menos local. Todas se pueden cambiar desde la configuración, y están disponibles desde el inicio para quienes activen la nueva experiencia.

Más allá del acento, Alexa+ está pensada para entender mejor el contexto del país: desde preguntas sobre si un coche puede circular un día concreto, hasta dudas relacionadas con servicios públicos o información cotidiana que un usuario mexicano suele consultar con frecuencia.

Funciones avanzadas: reservas, viajes, compras y ocio

La gran apuesta de Alexa+ está en su capacidad para convertir una petición informal en una acción concreta. En lugar de limitarse a listar opciones, el asistente puede tomar la iniciativa y ejecutar la tarea completa cuando el usuario se lo permite.

En el ámbito de las reservas, por ejemplo, Alexa+ se integra con OpenTable para gestionar mesas en restaurantes. Basta con peticiones del tipo “estaremos en tal zona a tal hora, busca una mesa para dos como la última vez” para que el sistema recurra al historial y preferencias y proponga una opción razonable, confirmando los detalles con el usuario.

En lo que respecta a la organización de viajes, el asistente puede apoyarse en fuentes como Fodor’s o Tripadvisor para recomendar rutas, actividades y alojamientos, además de organizar la información en función de la duración del viaje, el tipo de plan (familiar, de pareja, de trabajo) o el presupuesto aproximado. No se trata solo de dar listados de destinos, sino de construir itinerarios coherentes a partir de las preferencias que vaya detectando.

El apartado de compras en línea también recibe un empujón. Alexa+ puede buscar productos, comparar opciones dentro de Amazon, sugerir alternativas según el perfil del usuario (por ejemplo, piel sensible, alergias o tamaño de la vivienda) y finalizar la compra por voz si así se configura, siempre con la posibilidad de revisar y corregir antes de confirmar.

Además, el asistente se integra con servicios de música y entretenimiento como Spotify y Amazon Music, y puede reproducir listas, podcasts o contenidos sugeridos para trabajar, estudiar o relajarse, todo con comandos naturales tipo “pon algo tranquilo para concentrarme” sin necesidad de mencionar listas concretas.

Integración con servicios cotidianos y socios locales

Para que Alexa+ resulte realmente útil en la jornada diaria, Amazon está trabajando con una lista creciente de servicios y empresas presentes en México. Algunos ya están disponibles desde el lanzamiento y otros se irán incorporando con el tiempo.

Entre los que ya se han mencionado se encuentran plataformas como Rappi y Uber, que permitirán realizar acciones como pedir comida a domicilio o solicitar un vehículo mediante comandos de voz sencillos. La intención es que, a largo plazo, el usuario pueda resolver buena parte de sus recados rápidos sin tener que abrir varias apps en el móvil.

Otra funcionalidad llamativa es la posibilidad de compartir documentos oficiales —como la CURP o la identificación oficial— a través de la aplicación para que Alexa+ pueda acceder a esos datos cuando hagan falta, por ejemplo al rellenar formularios o al consultar números de referencia. En el caso de recibos de servicios como la luz, el asistente es capaz de leer el número de contrato y registrar el consumo mensual, de forma que el usuario pueda preguntar después cuánto ha gastado en un periodo concreto.

El sistema también se conecta con medios informativos y contenidos locales, incluyendo canales de noticias nacionales e internacionales. De esta forma, basta con pedir un resumen de la actualidad para recibir un boletín adaptado a las preferencias del usuario, sin limitarse a una única fuente.

Este tipo de integraciones se suman a las ya tradicionales de Prime Video, Amazon Music o la tienda de Amazon, que siguen funcionando como hasta ahora pero con una capa extra de contexto gracias a la IA generativa, permitiendo, por ejemplo, recomendaciones más finas según gustos o hábitos de reproducción.

Control del hogar inteligente y rutinas con lenguaje natural

En el terreno del hogar conectado, Alexa+ amplía lo que la versión clásica ya ofrecía. La diferencia está en cómo se formulan las órdenes y en la capacidad del sistema para interpretar frases vagas o indirectas y traducirlas en acciones sobre luces, enchufes, termostatos o cámaras.

Con dispositivos de seguridad como Ring, por ejemplo, basta con decir algo como “muéstrame la puerta principal” para que la pantalla Echo correspondiente abra directamente la cámara. El asistente también puede revisar grabaciones recientes para determinar si alguien sacó al perro o si ha llegado un paquete, siempre dentro de los límites de configuración que el usuario haya autorizado.

En cuanto al confort en casa, la IA reconoce comentarios del tipo “empieza a hacer calor aquí” o “está muy oscuro” y actúa sobre ventiladores, aires acondicionados o iluminación sin que haya que recordar cómo se llama cada dispositivo en la app. Esto reduce la fricción para quienes no quieren complicarse con nombres y escenas complejas.

Las rutinas personalizadas se benefician especialmente de la nueva arquitectura. En lugar de tener que configurarlas paso a paso desde el móvil, ahora se pueden definir de viva voz, indicando lo que se quiere que ocurra cada mañana, al llegar a casa o antes de dormir. A partir de ahí, Alexa+ encadena acciones como encender luces, leer el pronóstico del tiempo, poner música o repasar la agenda.

Este enfoque busca que el hogar inteligente sea algo más cercano a un diálogo continuo con el asistente que a un listado de reglas rígidas, reduciendo la curva de aprendizaje para usuarios que nunca han configurado dispositivos conectados.

Memoria, personalización y reconocimiento de personas

Otro de los pilares de Alexa+ es su capacidad para recordar datos relevantes sobre cada persona y utilizarlos como contexto. El asistente puede aprender qué le gusta o no a cada miembro de la familia, qué alergias o restricciones alimentarias tienen, o qué tipo de música prefieren, siempre a partir de lo que los usuarios decidan compartir.

Durante las demostraciones, se han mostrado ejemplos en los que Alexa+ recuerda que a una persona no le gustan ciertos ingredientes y ajusta automáticamente las recetas recomendadas o las listas de la compra. Si se envía una foto de una receta escrita a mano, la IA es capaz de extraer ingredientes y pasos y guardarlos, incorporándolos luego a la planificación semanal.

El asistente también puede leer manuales de uso o documentos enviados desde la app para ayudar a entender instrucciones técnicas o resolver dudas a la hora de reparar un aparato. De este modo, se convierte en una especie de intérprete entre el lenguaje formal de los manuales y las preguntas cotidianas del usuario.

En los dispositivos Echo con cámara, entra en juego la función de visión por IA. Alexa+ puede analizar lo que ve a través de la cámara para ofrecer comentarios contextuales, por ejemplo, sobre la ropa elegida para una ocasión concreta. El usuario puede pedirle que revise si un conjunto encaja con un código de vestimenta determinado y recibir una respuesta basada en lo que el sistema observa.

Al combinar reconocimiento de voz e imagen, el asistente es capaz de distinguir a distintas personas dentro del hogar y adaptar las respuestas: desde recomendaciones de música hasta recordatorios o resúmenes de calendario personalizados, algo que apunta a un uso más individualizado en hogares donde conviven varias personas.

Privacidad, seguridad y gestión de datos

La ampliación de capacidades de Alexa+ viene acompañada de un refuerzo del discurso en torno a la privacidad y el control de datos. Amazon insiste en que el usuario mantiene la capacidad de revisar, gestionar y borrar las interacciones con el asistente.

Todo ello se articula a través del Panel de Privacidad de Alexa, accesible desde la aplicación, donde se pueden ver las grabaciones de voz, las solicitudes realizadas y los datos asociados a cada cuenta. Desde ese mismo lugar es posible eliminar historiales completos o acciones concretas, así como desactivar determinadas funciones si no se desean utilizar.

En los dispositivos compatibles con cámara y micrófono, siguen estando presentes los controles físicos de desconexión, que permiten desactivar la escucha o la captura de imagen con un botón. Amazon remarca que estas opciones no desaparecen con la llegada de Alexa+, y que el usuario puede combinarlas con las herramientas de software para ajustar el nivel de exposición con el que se siente cómodo.

La compañía también señala que el uso de documentos oficiales o imágenes para enriquecer las funciones del asistente es opcional y requiere un consentimiento explícito, de forma que quien no quiera compartir esa información puede seguir utilizando el servicio con un perfil menos personalizado pero igualmente operativo.

Disponibilidad, acceso anticipado y dispositivos compatibles

Alexa+ se estrena en México bajo un esquema de acceso anticipado, similar al que ya se vio en Estados Unidos. En esta primera etapa, el servicio llega con un conjunto limitado de funciones que se ampliarán de manera gradual, a la vez que Amazon recopila comentarios de los usuarios para ir puliendo errores y ajustando la experiencia.

Para entrar en esta fase inicial hay dos vías principales. Por un lado, quienes compren un dispositivo Echo de nueva generación —como los últimos Echo Show de 8 o 11 pulgadas, o modelos como Echo Dot Max y Echo Studio— podrán activar Alexa+ prácticamente desde el primer momento. Por otro, quienes ya tengan un dispositivo Echo compatible pueden registrarse en la web de Amazon México y esperar a ser incluidos en el programa de invitaciones.

Amazon planea ir habilitando el servicio de forma escalonada, con decenas de miles de usuarios añadidos cada semana hasta alcanzar a millones de hogares en unos meses. La compañía ha indicado que la mayoría de dispositivos Echo activos en México serán compatibles, aunque se espera que algunos de los modelos más antiguos se queden limitados a la versión estándar de Alexa.

Durante este periodo de pruebas, es posible que Alexa+ cometa errores puntuales o respuestas imprecisas, algo que Amazon asume como parte del despliegue de una tecnología en constante aprendizaje. La idea es aprovechar este tiempo para ajustar la experiencia antes de considerar que el servicio está completamente consolidado en el país.

Precio de Alexa+ y relación con Amazon Prime

En el plano comercial, Alexa+ se presenta como un servicio de suscripción mensual con un precio fijado en 399 pesos para quienes no formen parte de Amazon Prime. Esta cuota da acceso a las funciones de IA generativa y a las capacidades avanzadas del asistente sobre los dispositivos compatibles.

Sin embargo, uno de los grandes incentivos para impulsar su adopción es que los miembros de Amazon Prime en México no tendrán que pagar un coste adicional por Alexa+. El servicio se integra como un beneficio más dentro de la membresía, junto al envío rápido, Prime Video y el resto de ventajas ya conocidas.

Durante la fase de acceso anticipado, la compañía ha señalado que no se aplicarán cargos extra a quienes prueben la nueva experiencia, lo que permite que un número amplio de usuarios se familiarice con las novedades antes de tomar la decisión de mantener o no el servicio cuando concluya esta etapa.

La combinación de un precio mensual definido para usuarios sin Prime y la inclusión sin coste adicional para suscriptores encaja con la estrategia de Amazon de reforzar el valor percibido de su programa de fidelización, a la vez que explora un modelo de negocio específico en torno a la IA generativa en el hogar.

Con este lanzamiento en México, Amazon pone a prueba una versión más ambiciosa de su asistente de voz, apoyada en tecnología de IA generativa, una fuerte adaptación al español local y una integración profunda con servicios cotidianos. Si la acogida es positiva, no sería extraño ver cómo esta fórmula se replica en otros mercados, incluido el europeo, donde la compañía podría aplicar una estrategia similar ajustando idioma, cultura y regulaciones, pero apoyándose en las lecciones aprendidas en este primer despliegue a gran escala.

Nintendo lanza la Flor Parlante de Super Mario Wonder en Europa

Flor Parlante

La llegada de la Flor Parlante de Nintendo supone que uno de los personajes más llamativos de Super Mario Bros. Wonder salga de la pantalla para convertirse en un aparato físico con el que se puede convivir a diario. Nintendo refuerza así su línea de productos interactivos vinculados al universo de Mario, en un momento en el que el juego sigue muy presente tras su éxito y las nuevas versiones para la próxima consola.

Este dispositivo, a medio camino entre figura decorativa y juguete electrónico, reproduce el carácter hablador y algo imprevisible de la flor del Reino Flor. El objetivo es que acompañe al usuario con comentarios breves repartidos a lo largo del día, sin llegar a ser un asistente inteligente al uso ni depender de aplicaciones, algo que encaja con la filosofía más sencilla y accesible de la compañía.

Un gadget inspirado directamente en Super Mario Bros. Wonder

La Flor Parlante real está basada en el personaje que aparece en Super Mario Bros. Wonder, donde anima al jugador, comenta la partida y aporta un toque de humor constante. En el juego, este peculiar ser habla cuando Mario y compañía pasan a su lado; en la versión física, esa idea se traslada a un dispositivo de sobremesa que cabe en la palma de la mano y que mantiene ese tono desenfadado.

Según ha explicado la propia Nintendo, el aparato lanza frases pregrabadas de forma aleatoria un par de veces cada hora, imitando así la sensación de encontrarse con la flor en plena partida. No pretende ser útil en un sentido práctico, sino ofrecer pequeños momentos de sorpresa, comentarios curiosos y algún que otro susto si el usuario se ha olvidado de que está encendida.

El lanzamiento de este producto se enmarca en una estrategia más amplia en torno a la franquicia. Coincide en fechas con nuevas novedades de Super Mario Bros. Wonder y su edición mejorada para la futura Nintendo Switch 2, lo que refuerza la presencia del Reino Flor tanto en el catálogo digital como en el terreno del merchandising.

Cómo funciona la Flor Parlante de Nintendo

Una de las claves del dispositivo es su sencillez. La Flor Parlante se controla únicamente mediante un botón situado en la parte superior de la maceta, sin pantallas, sin luces LED y sin necesidad de aplicaciones móviles o configuración avanzada. Cada pulsación hace que el personaje diga una frase; si se insiste varias veces, pueden aparecer comentarios especiales o incluso pequeños fragmentos musicales.

Además de estas interacciones manuales, la flor está programada para hablar por iniciativa propia. Emite comentarios aproximadamente dos veces por hora, escogidos de forma aleatoria dentro de un repertorio que se adapta a distintos momentos del día. Puede dar los buenos días por la mañana, despedirse al anochecer o dejar caer alguna reflexión desenfadada a media tarde.

Para quienes prefieran mayor tranquilidad, el dispositivo puede silenciarse manteniendo pulsado el botón durante unos segundos. En los materiales de promoción se indica que este silencio puede ser temporal, lo que deja entrever que, pasado un tiempo, la flor podría volver a la vida si el usuario vuelve a interactuar con ella. En cualquier caso, la idea es que pueda convivir en el salón o en una estantería sin resultar invasiva.

Frases contextuales según la hora y la temperatura

Más allá de hablar de forma aleatoria, la Flor Parlante incorpora funciones para adaptar sus mensajes al entorno. Dispone de un sensor de temperatura que le permite hacer comentarios relacionados con el frío o el calor, con frases del estilo de “hoy hace más calor que ayer” o “aquí hace un poco de frío”. Este detalle refuerza la ilusión de que el personaje “se fija” en lo que le rodea.

La programación también tiene en cuenta la franja horaria. La flor puede saludar al amanecer, despedirse al final del día o incluso bromear con la hora, llegando en ocasiones a equivocarse a propósito para mantener ese tono juguetón. En algunos modelos promocionales se menciona la posibilidad de configurar momentos concretos para recibir mensajes como los buenos días o las buenas noches.

Entre las frases se han destacado algunos ejemplos que buscan conectar con el espíritu del juego, como comentarios filosóficos breves o guiños humorísticos. Expresiones como “a veces está bien dejar la mente en blanco” o preguntas del tipo “¿es raro que las flores hablen?” ayudan a que el dispositivo no se limite a repetir chascarrillos, sino que construya una pequeña personalidad propia.

Sin comandos de voz ni funciones de asistente

Aunque el formato pueda recordar a otros aparatos conectados, Nintendo recalca que la Flor Parlante no responde a órdenes de voz ni actúa como altavoz inteligente. No hay integración con servicios externos, ni escucha continua, ni posibilidad de pedirle que ponga música o consulte información en Internet.

La experiencia, por tanto, se centra en una interacción unidireccional: la flor habla cuando ella “quiere” o cuando el usuario pulsa el botón, pero no procesa preguntas ni ejecuta tareas. Esto la sitúa claramente en el terreno del juguete electrónico y la convierte en un complemento lúdico más que en una herramienta tecnológica.

Esta decisión encaja con otros productos físicos recientes de la compañía, que apuestan por la sorpresa y el acompañamiento ligero. En lugar de competir con dispositivos de inteligencia artificial o altavoces conectados, Nintendo mantiene su enfoque en experiencias controladas, seguras para todo tipo de público y con un componente claramente juguetón.

Relación con el despertador Alarmo y otros productos de Nintendo

La Flor Parlante comparte protagonismo con otro aparato de la casa, el despertador Alarmo. Ambos productos funcionan como pequeños compañeros de mesa o de mesilla, pero cada uno lo hace a su manera. Alarmo apuesta por sonidos y melodías basadas en títulos como Super Mario Odyssey o The Legend of Zelda: Breath of the Wild para despertar o acompañar al usuario.

En cambio, la Flor Parlante se centra en el diálogo. Su principal recurso es la voz, con líneas grabadas que buscan animar, sorprender o simplemente arrancar una sonrisa, sin más ambición que aportar un toque de vida a la habitación donde se coloque. El diseño de ambos dispositivos es compacto y pensado para integrarse fácilmente en un escritorio, una estantería o la zona de juegos.

Esta línea de productos refuerza la tendencia de Nintendo a llevar sus franquicias fuera de la consola, algo que ya se ha visto con figuras amiibo, sets interactivos y colaboraciones con parques temáticos. En este caso, el paso se da con un personaje relativamente reciente, nacido en Super Mario Bros. Wonder, que ha conseguido ganarse un hueco entre los fans.

Idiomas disponibles y enfoque internacional

De cara a su lanzamiento en Europa, uno de los aspectos más destacados es el soporte de idiomas. Nintendo ha confirmado que la Flor Parlante incluirá voces en un total de once lenguas, lo que facilita su comercialización en diferentes regiones sin perder el efecto de cercanía.

Entre esos idiomas se encuentran el español de España y el español latinoamericano, así como inglés, alemán, francés, italiano, neerlandés, portugués de Brasil, japonés, chino y coreano. Esta variedad permite que el dispositivo se adapte tanto al mercado europeo como al americano y al asiático, manteniendo además los matices propios de cada doblaje.

La presencia de voces específicas para el castellano peninsular y el español latino da continuidad al trabajo de localización realizado en el videojuego. Los jugadores que ya se acostumbraron al tono de la flor en Super Mario Bros. Wonder podrán reconocer un estilo similar en el gadget, lo que facilita la transición del mundo virtual al físico.

Fecha de lanzamiento, reservas y disponibilidad en Europa

En cuanto a calendario, Nintendo ha fijado el lanzamiento oficial de la Flor Parlante para el 12 de marzo, fecha en la que comenzará a llegar a los compradores europeos que la hayan reservado con antelación. La compañía ha indicado que el producto puede precomprarse a través de la tienda oficial My Nintendo Store y en una selección de establecimientos autorizados.

Algunos distribuidores han señalado ya un precio de venta recomendado en torno a los 29,99 euros en territorio europeo, mientras que en otros mercados se mueve en cifras equivalentes en dólares. En España, lo habitual en este tipo de lanzamientos es que la disponibilidad inicial se concentre en la tienda online de Nintendo y en cadenas especializadas, por lo que no se descarta que las primeras unidades se agoten rápidamente.

La estrategia de venta sigue la línea de otros productos de coleccionista de la marca, que a menudo se ofrecen en cantidades limitadas y con distribución focalizada en la tienda oficial. Esto puede convertir a la Flor Parlante en un objeto especialmente atractivo para coleccionistas y seguidores de Mario que busquen piezas algo más singulares.

Conexión con las novedades de Super Mario Bros. Wonder y Switch 2

Super Mario Wonder

El despliegue de la Flor Parlante no llega aislado. Su estreno se solapa con nuevos contenidos para Super Mario Bros. Wonder y con la versión mejorada del juego para la futura Nintendo Switch 2, conocida como Switch 2 Edition. Esta edición incorpora mejoras técnicas y nuevo material jugable respecto a la versión original de Switch.

Entre las novedades anunciadas destacan la incorporación de Estela como personaje jugable y la presencia de Destello como personaje de apoyo, así como un conjunto de desafíos y minijuegos englobados bajo el subtítulo Encuentro en el Parque Belabel. Se habla de hasta 17 minijuegos distintos, con opciones para jugar tanto en local como en línea.

La fecha fijada para esta edición de Super Mario Bros. Wonder en la nueva consola es el 26 de marzo, apenas unos días después de que la Flor Parlante llegue a las tiendas. Junto a esta actualización, Nintendo ha adelantado también el lanzamiento de tres nuevas figuras amiibo relacionadas con el título, lo que refuerza el despliegue global en torno al Reino Flor.

En este contexto, el gadget se plantea como un complemento ideal para quienes sigan de cerca las novedades de Mario. La flor que acompaña al jugador en la pantalla pasará a estar presente también en el escritorio o en la estantería, haciendo de puente entre el contenido digital del juego y el día a día del usuario.

Con este movimiento, Nintendo consolida la Flor Parlante como algo más que un simple chiste dentro de Super Mario Bros. Wonder: se convierte en un pequeño objeto interactivo que amplía el universo del juego y refuerza el vínculo de la comunidad con uno de los personajes más recientes del mundo de Mario, todo ello con un enfoque accesible, sin complicaciones técnicas y pensado para encajar con naturalidad en los hogares europeos.

Así es el plan más barato de Starlink en Argentina y lo que anticipa para otros mercados

Plan económico de Starlink

El lanzamiento del plan más económico de Starlink en Argentina está despertando interés más allá de las fronteras del país. La estrategia de la compañía de Elon Musk con el llamado Residencial Lite no solo apunta a mejorar la conectividad en entornos rurales argentinos, sino que también sirve como referencia de por dónde podrían ir los tiros en España y el resto de Europa en el futuro cercano.

Este nuevo plan se coloca como la puerta de entrada más asequible al internet satelital de alta velocidad de la empresa, con una fórmula que combina una cuota mensual más contenida, flexibilidad contractual y prestaciones suficientes para el uso doméstico habitual. Todo ello, eso sí, acompañado de una inversión inicial en equipamiento que sigue siendo relevante si se compara con los operadores fijos tradicionales europeos.

Qué ofrece el plan más barato de Starlink en Argentina

En el mercado argentino, el plan Residencial Lite se posiciona como la tarifa mensual más baja dentro del catálogo de Starlink. Está pensado sobre todo para hogares, pequeñas fincas, chacras y establecimientos situados lejos de los grandes núcleos urbanos, donde la fibra óptica o el ADSL suelen brillar por su ausencia o llegar con un servicio muy limitado.

La propuesta se basa en una conexión fija con datos ilimitados, es decir, sin un tope de gigas mensual como ocurre en muchos servicios móviles. La diferencia clave respecto a los planes superiores está en la prioridad dentro de la red: durante las franjas de mayor uso, el tráfico de los clientes Lite pasa a un segundo plano frente al de los usuarios de planes estándar o premium.

Esta menor prioridad se nota especialmente entre las 18:00 y las 22:00 horas, que suelen ser las horas punta tanto en Argentina como en la mayoría de mercados europeos. En ese tramo horario es cuando es más probable que se perciban reducciones de velocidad, aunque el servicio está concebido para seguir resultando útil para navegar, usar redes sociales, consultar correo o reproducir vídeo en calidad moderada.

Frente a los planes más completos de la compañía, Residencial Lite apuesta por la flexibilidad absoluta: no hay contratos de permanencia ni penalizaciones por baja anticipada, y el usuario puede pausar la suscripción mes a mes. Esta característica encaja bien con la realidad de muchos entornos rurales, donde el uso puede ser más estacional, algo que también podría ser interesante en destinos de segunda residencia en países como España, Francia o Italia.

Velocidades, latencia y experiencia de uso

En términos de rendimiento, el plan más barato de Starlink en Argentina ofrece un abanico de velocidades que, sobre el papel, se sitúa en la franja media de las conexiones domésticas modernas. La compañía habla de entre 50 y 100 Mbps de descarga, con velocidades de subida que se mueven en torno a los 10 a 20 Mbps.

La latencia estimada se sitúa entre 30 y 50 milisegundos, una cifra razonable para un servicio satelital de órbita baja y que, en la práctica, permite realizar videollamadas, jugar ocasionalmente en línea y trabajar en remoto sin mayores problemas. No obstante, quienes vengan de una buena fibra óptica en España o en otros países europeos podrían notar cierta diferencia, sobre todo en servicios muy sensibles al retardo.

Si se compara con el plan Residencial estándar de Starlink, que puede alcanzar picos de entre 150 y 250 Mbps de bajada, el Lite queda claramente por debajo. Sin embargo, su objetivo no es competir con las máximas prestaciones, sino proporcionar una velocidad suficientemente solvente para streaming en plataformas como Netflix, YouTube o Disney+, navegación web intensiva y uso simultáneo de varios dispositivos en el hogar.

La compañía enfatiza que las variaciones en la velocidad dependerán no solo de la franja horaria, sino también de la saturación de cada zona y de las condiciones meteorológicas, algo intrínseco a las comunicaciones por satélite. Esto es extrapolable a otros países donde opera Starlink, incluidos varios mercados europeos, donde las cifras oficiales de velocidad pueden verse afectadas por factores similares.

Cuánto cuesta el plan Residencial Lite y qué equipamiento requiere

El atractivo principal del plan Lite está en que su cuota mensual se fija en 38.000 pesos argentinos, lo que lo convierte en la opción más accesible dentro de la oferta de Starlink en el país. Para muchos usuarios de zonas rurales argentinas, esta mensualidad puede ser competitiva frente a alternativas móviles con datos limitados o soluciones inalámbricas de baja calidad.

Ahora bien, para poder utilizar el servicio es necesario asumir una inversión inicial en hardware. El denominado kit estándar de Starlink, que incluye la antena parabólica autoalineable, un router Wi-Fi de tercera generación y todo el cableado necesario, tiene un precio aproximado de 499.999 pesos. Este desembolso, traducido a la realidad europea, recuerda al coste de instalación de tecnologías como la radioenlace o algunos servicios de internet rural especializados.

Como alternativa, Starlink también comercializa en Argentina el Starlink Mini, una versión más compacta del kit pensada para instalaciones discretas o espacios reducidos. En este caso, el precio ronda los 151.600 pesos, lo que rebaja de forma notable la barrera de entrada, aunque sigue siendo un coste significativo para muchos bolsillos.

A estas cifras hay que añadir el gasto de envío dentro del país, que se sitúa en torno a los 24.400 pesos. De forma opcional, quienes necesiten ampliar la cobertura inalámbrica en viviendas de gran tamaño o con varias plantas pueden adquirir un router adicional para redes, cuyo precio ronda los 175.000 pesos. Este tipo de configuración avanzada es similar a la que ya se ve en hogares europeos que recurren a sistemas mesh para mejorar la señal Wi-Fi.

Con esta estructura de precios, la apuesta de Starlink combina una mensualidad relativamente contenida con un coste de entrada elevado, un modelo que, si se traslada a España o a otros países europeos, podría encajar sobre todo en zonas rurales, segundas residencias o viviendas aisladas donde no llegan alternativas fijas competitivas.

Impacto en la conectividad rural y posibles implicaciones para España y Europa

El despliegue del plan más económico de Starlink en Argentina no se limita a un ajuste de tarifas, sino que forma parte de una estrategia más amplia para ganar presencia en áreas poco atendidas por los operadores tradicionales. En un país con enormes extensiones rurales y desafíos de infraestructura, una conexión satelital de este tipo puede suponer un salto relevante en acceso a servicios digitales.

La filosofía del plan Residencial Lite —precio mensual más bajo, rendimiento suficiente y ausencia de permanencia— podría marcar el camino para futuros lanzamientos en otros territorios. En el caso de España, por ejemplo, donde gran parte del territorio ya dispone de fibra pero aún persisten bolsas de desconexión en zonas rurales, un plan satelital económico podría competir con las ofertas de 4G y 5G fijo que algunos operadores móviles están utilizando para cubrir esos huecos.

En mercados europeos con orografía compleja, como Italia, Grecia o partes de Francia, un modelo similar al argentino permitiría reforzar la cobertura en municipios pequeños o aislados. El hecho de que el plan Lite pueda activarse y desactivarse por meses encaja también con el uso típico de casas de vacaciones o segundas residencias, donde mantener una línea fija todo el año suele resultar poco rentable.

Al mismo tiempo, el coste del equipamiento y la dependencia de la red satelital hacen que este tipo de servicio no esté concebido para sustituir de forma masiva a la fibra óptica en ciudades europeas, sino para complementar la oferta allí donde la inversión en cableado no es viable o resulta poco atractiva para los operadores convencionales.

En cualquier caso, el movimiento en Argentina sirve como laboratorio para medir la aceptación de un plan de entrada más barato dentro del ecosistema Starlink. Si la demanda responde bien y los resultados en términos de uso y congestión son positivos, no sería extraño ver propuestas con características parecidas adaptadas a la realidad regulatoria y económica de la Unión Europea, y también respuestas de otros actores para competir con Starlink.

El plan Residencial Lite de Starlink en Argentina se perfila como una tarifa de acceso pensada para abaratar la entrada al internet satelital sin renunciar a un rendimiento razonable para el día a día. Su combinación de velocidad media, datos ilimitados, flexibilidad mensual y costes iniciales elevados dibuja un escenario que podría replicarse, con ajustes, en España y otros países europeos donde la brecha entre la ciudad conectada y el campo sigue siendo un reto pendiente.

Raspberry Pi AI HAT+ 2: la nueva apuesta de IA local para Raspberry Pi 5

Raspberry Pi AI HAT 2 para IA local

La llegada de la Raspberry Pi AI HAT+ 2 marca un paso importante para quienes quieren trabajar con inteligencia artificial directamente en una Raspberry Pi 5 sin depender de la nube. Esta nueva placa de expansión combina un acelerador neuronal específico y memoria propia para descargar gran parte del trabajo de IA del procesador principal y permitir usos más exigentes en el terreno de la IA generativa en el borde.

Con un precio de referencia en torno a 130 dólares -que en España y otros países europeos se está traduciendo en cifras cercanas a los 140‑150 euros según distribuidor-, la AI HAT+ 2 se sitúa como una opción relativamente asequible para experimentar con modelos de lenguaje ligeros y visión artificial en dispositivos de bajo consumo. No pretende competir con grandes estaciones de trabajo o servicios cloud, pero sí ofrecer una herramienta práctica para proyectos de IoT, automatización, prototipado y formación.

Qué es la Raspberry Pi AI HAT+ 2 y en qué se diferencia de la anterior

Vista general de la placa Raspberry Pi AI HAT 2

La Raspberry Pi AI HAT+ 2 es una placa de ampliación oficial para Raspberry Pi 5 que se monta siguiendo el concepto HAT clásico: se atornilla sobre la placa base y se conecta tanto al conector GPIO como a la interfaz PCI Express integrada en la propia Raspberry. Su objetivo es ampliar la capacidad de cómputo de IA del sistema sin cambiar el formato ni la filosofía de las SBC.

Este modelo llega como sucesor directo de la primera Raspberry Pi AI HAT+, presentada en 2024 y centrada casi por completo en tareas de visión inteligente gracias a los aceleradores Hailo‑8 (26 TOPS) y Hailo‑8L (13 TOPS). Aquella placa estaba muy orientada a detección de objetos, estimación de poses o reconocimiento de escenas con cámara, pero se quedaba corta para modelos de lenguaje algo más ambiciosos.

Con la AI HAT+ 2, Raspberry Pi da el salto a la IA multimodal local apoyándose en el nuevo acelerador de redes neuronales Hailo‑10H y añadiendo en la propia tarjeta 8 GB de memoria LPDDR4X dedicada. Esta combinación permite ir más allá de la visión por computador y abarcar también modelos de lenguaje grandes de tamaño reducido y modelos multimodales directamente en el dispositivo.

Al disponer de DRAM integrada en el HAT, el sistema puede separar mejor los recursos: la Raspberry Pi 5 mantiene su CPU, GPU y RAM principal para la lógica de la aplicación, la interfaz de usuario o los servicios de red, mientras que el coprocesador Hailo‑10H se encarga de la mayor parte de la inferencia de IA. En la práctica, esto reduce el impacto de la IA sobre el rendimiento general del sistema.

Hardware y rendimiento: Hailo‑10H, 40 TOPS y consumo contenido

Detalle del chip Hailo-10H en la AI HAT 2

El corazón de la AI HAT+ 2 es el Hailo‑10H, un acelerador de redes neuronales diseñado para despliegues de IA en el borde y comparable a algunas plataformas con IA integrada. Según los datos facilitados por Raspberry Pi y Hailo, este chip ofrece hasta 40 TOPS de rendimiento de inferencia, trabajando con cuantizaciones como INT4 e INT8 habituales en entornos embebidos. Este salto supone una mejora clara frente a los 13/26 TOPS de la primera generación basada en Hailo‑8 y Hailo‑8L.

Uno de los puntos clave es que el Hailo‑10H está limitado a una potencia de alrededor de 3 W. Esta restricción mantiene el consumo bajo control y facilita su uso en cajas compactas, proyectos alimentados por batería o sistemas donde la disipación térmica es un quebradero de cabeza. La contrapartida es que, en determinadas cargas muy optimizadas para la CPU y la GPU de la Raspberry Pi 5, la ventaja en rendimiento bruto de la NPU no siempre será espectacular.

La placa incorpora 8 GB de memoria LPDDR4X dedicados exclusivamente al acelerador de IA. Esta novedad es significativa: mientras la primera AI HAT+ dependía casi por completo de la memoria del propio SBC, ahora el HAT puede cargar modelos y datos en su propia RAM, reduciendo aún más el impacto en la memoria de la Raspberry Pi 5.

Raspberry Pi señala que, en tareas de visión, el rendimiento del Hailo‑10H es prácticamente equivalente al de la variante de 26 TOPS de la AI HAT+ original, pese al cambio de arquitectura. La mejora real se aprecia sobre todo en la capacidad para manejar cargas de trabajo de IA generativa y en la flexibilidad que aporta la memoria dedicada a bordo.

En el paquete se incluye un disipador específico para la NPU que, aunque no siempre es imprescindible por consumo, se recomienda instalar si se van a lanzar inferencias intensivas durante largos periodos. La idea es mantener el chip en un rango térmico estable y evitar posibles reducciones de frecuencia por temperatura.

Modelos de lenguaje compatibles y lo que se puede hacer en local

Raspberry Pi AI HAT 2 ejecutando modelos de lenguaje

Uno de los reclamos principales del nuevo accesorio es la posibilidad de ejecutar modelos de lenguaje en local sobre una Raspberry Pi 5 sin tener que recurrir a servidores remotos. Durante la presentación, la compañía ha señalado una primera hornada de modelos soportados de entre 1.000 y 1.500 millones de parámetros, una escala manejable para el hardware disponible.

Entre los modelos citados se encuentran DeepSeek‑R1‑Distill, Llama 3.2, Qwen2, Qwen2.5‑Instruct y Qwen2.5‑Coder. La mayoría rondan los 1.500 millones de parámetros, salvo Llama 3.2, que se queda en torno a los 1.000 millones. En conjunto, permiten desplegar funciones como chat conversacional básico, generación y asistencia de código, traducción de textos o respuesta a preguntas sencillas, todo ello con los datos procesados directamente en el dispositivo.

Las demostraciones iniciales incluyen tareas como la traducción de francés a inglés o la resolución de preguntas cortas utilizando Qwen2. En estos ejemplos, la latencia se mantiene baja y la interacción resulta fluida, algo que se traduce en una experiencia mucho más natural que cuando se depende de conexiones inestables o de servidores externos saturados.

Ahora bien, conviene dejar claro que la AI HAT+ 2 no está pensada para modelos masivos como las implementaciones completas de ChatGPT, Claude o los LLM de mayor tamaño de Meta, Anthropic u OpenAI. Esos sistemas trabajan con cifras de parámetros que suelen moverse entre los cientos de miles de millones y los varios billones, muy lejos de lo que puede manejar una NPU de bajo consumo con 8 GB de RAM dedicada.

Aun con esas limitaciones, la placa permite crear proyectos interesantes: asistentes personales que funcionen sin conexión, pequeños bots de chat privados, herramientas de generación de código en entornos aislados o sistemas que combinen reconocimiento de escenas con una breve descripción en texto.

Memoria, límites prácticos y comparación con una Raspberry Pi 5 de 16 GB

Raspberry Pi AI HAT 2 conectada a Raspberry Pi 5

Los 8 GB de LPDDR4X integrados en la AI HAT+ 2 suponen un avance claro respecto a la primera generación, pero también marcan un techo evidente. Muchos LLM cuantizados de tamaño medio y con contextos amplios pueden superar fácilmente los 10 GB de memoria entre pesos, buffers intermedios y contexto, por lo que esta solución está pensada, por ahora, para modelos relativamente compactos o para trabajar con ventanas de contexto más reducidas.

Si se compara con una Raspberry Pi 5 de 16 GB, la placa base con la configuración de memoria más alta sigue ofreciendo más margen para cargar modelos grandes directamente en la RAM del sistema, sobre todo si se dedica prácticamente todo el equipo a la IA y se minimiza el resto de procesos. En ese escenario, prescindir del HAT y tirar solo de CPU/GPU puede seguir siendo la opción más sencilla para ciertos usos muy concretos.

En cambio, la combinación de una Pi 5 -incluso con menos memoria- y el AI HAT+ 2 tiene sentido cuando se quiere distribuir el trabajo: dejar que la NPU se encargue de la inferencia y mantener la placa principal resolviendo otras tareas simultáneas, como mostrar una interfaz gráfica, gestionar bases de datos locales o servir contenido vía web.

La propia Raspberry Pi recuerda que el usuario debe tener presente la necesidad de operar dentro de un conjunto de datos limitado. Los modelos incluidos de serie no pretenden abarcar el conocimiento ni las capacidades de los grandes LLM en la nube; su papel es aportar respuestas útiles dentro de un dominio acotado.

Para afinar más los resultados, la compañía plantea el uso de técnicas como LoRA (Low‑Rank Adaptation), que permiten ajustar un modelo base a tareas concretas sin modificar la mayor parte de sus parámetros. De este modo, se puede entrenar o adaptar un LLM pequeño a un caso de uso específico -por ejemplo, documentación técnica propia de una empresa- sin desbordar los límites de memoria y cómputo del sistema.

Visión por computador, multimodalidad y ejecución simultánea

Raspberry Pi AI HAT 2 para visión por computador

La AI HAT+ 2 no renuncia a los puntos fuertes de su predecesora en visión por computador. El Hailo‑10H mantiene unas capacidades muy cercanas a las del Hailo‑8 en tareas como detección y seguimiento de objetos, estimación de postura humana o segmentación de escenas, lo que permite seguir utilizando modelos populares de visión con muy buen rendimiento.

Raspberry Pi señala que el nuevo HAT puede ejecutar simultáneamente modelos de visión y de lenguaje, algo especialmente atractivo para proyectos que combinen cámara y texto. Un ejemplo típico sería una cámara que detecta personas u objetos utilizando un modelo tipo YOLO y, a la vez, genera descripciones breves o resúmenes mediante un LLM ligero instalado en el propio dispositivo.

En escenarios prácticos se mencionan tasas cercanas a los 30 fotogramas por segundo para algunos modelos de detección de objetos a resoluciones moderadas, siempre con la salvedad de que el rendimiento final dependerá del modelo elegido, la resolución de entrada y la complejidad de la escena. En cualquier caso, el objetivo es que el HAT asuma el peso de la visión mientras la Raspberry Pi 5 gestiona tareas como el almacenamiento, la interfaz o el envío de alertas.

La integración con el ecosistema de cámaras de Raspberry Pi se mantiene como uno de los puntos fuertes. El AI HAT+ 2 se integra en la misma pila de software, de manera que proyectos existentes que ya usaban las cámaras oficiales pueden adaptarse con menos esfuerzo para aprovechar el nuevo acelerador.

El soporte de software aún está en evolución. Aunque existen ya ejemplos, librerías y frameworks tanto desde Raspberry Pi como desde Hailo (con repositorios en GitHub y una Developer Zone con documentación), la ejecución en paralelo de varios modelos -visión, lenguaje y multimodales- todavía se está puliendo. Es de esperar que, con el tiempo, la experiencia sea más sencilla a medida que maduren los controladores y las herramientas.

Casos de uso en España y Europa: industria, IoT y educación

La combinación de tamaño reducido, bajo consumo y procesamiento local de IA encaja bien con varias de las tendencias de digitalización que se están impulsando en España y en el resto de Europa. Sectores como la automatización industrial, la gestión de edificios o el IoT avanzado pueden aprovechar una solución de este tipo para reducir la dependencia de la nube y mejorar la privacidad de los datos.

detección de anomalías en tiempo real en líneas de producción, control de accesos con reconocimiento básico o recuento de personas en instalaciones son algunos ejemplos de uso industrial donde la AI HAT+ 2 puede ser útil, combinando la cámara con modelos de lenguaje que generen avisos o informes resumidos directamente en la propia instalación.

En el ámbito del IoT doméstico y comercial, la placa abre la puerta a asistentes locales o un robot de hogar con IA que no tengan que enviar grabaciones de voz o vídeo a terceros, paneles que interpreten datos de sensores, cámaras que describan escenas o sistemas que generen resúmenes textuales sin salir de la red interna. Este enfoque encaja bastante bien con las normativas europeas crecientemente estrictas en materia de protección de datos.

detección de anomalías en tiempo real en líneas de producción, control de accesos con reconocimiento básico o recuento de personas en instalaciones son algunos ejemplos de uso industrial donde la AI HAT+ 2 puede ser útil, combinando la cámara con modelos de lenguaje que generen avisos o informes resumidos directamente en la propia instalación.

También es una opción interesante como kit de desarrollo para empresas y startups europeas que valoren integrar el chip Hailo‑10H en productos finales. Montar un prototipo basado en Raspberry Pi 5 y AI HAT+ 2 permite validar rendimiento, consumo y estabilidad antes de invertir en diseños de hardware propios más costosos.

En el terreno educativo, desde centros de formación profesional hasta universidades, una combinación de Raspberry Pi 5 y AI HAT+ 2 puede servir como plataforma para acercar la IA aplicada al aula sin necesidad de grandes presupuestos. El alumnado puede experimentar con modelos reales de lenguaje y visión, entender sus límites y aprender a desplegar soluciones en hardware de recursos contenidos.

Perfil de usuario y dónde tiene más sentido usarla

El público objetivo de la AI HAT+ 2 es variado. Por un lado, está la comunidad maker y de aficionados avanzados que ya utilizan Raspberry Pi 5 para proyectos de domótica, robótica o servidores caseros y ahora quieren añadir una capa de IA generativa o visión avanzada sin montar una estación de trabajo específica o pagar suscripciones continuas.

Por otro, la placa se dirige claramente a desarrolladores profesionales y startups que necesitan un entorno de pruebas para IA embebida. Frente a soluciones basadas en GPUs discretas o NPUs integradas en PCs industriales, el formato HAT ofrece un equilibrio interesante entre coste, consumo, tamaño y simplicidad, aunque lógicamente no alcanza los niveles de potencia de plataformas mucho más caras.

Para quienes solo busquen ejecutar modelos de lenguaje en local con el mayor margen de memoria posible, una Raspberry Pi 5 con 16 GB de RAM sin HAT sigue siendo una opción válida, siempre que se acepte que toda la inferencia recaerá sobre la CPU y la GPU del SBC. En cambio, si se pretende combinar IA con otras funciones en paralelo, aprovechar la NPU dedicada suele tener más sentido.

En España, donde las Raspberry Pi son habituales tanto en proyectos caseros como en pequeñas empresas tecnológicas, la AI HAT+ 2 puede encontrar su sitio en prototipos de dispositivos IoT con IA local, sistemas de control de acceso, soluciones de mantenimiento predictivo sencillo o asistentes internos que no deban sacar datos a la nube.

En cierto nivel de comodidad con Linux, el ecosistema Raspberry y los conceptos básicos de despliegue de modelos es recomendable para sacar partido al HAT; no está pensado como un “juguete plug and play” para usuarios completamente novatos.

Integración de software, recursos disponibles y soporte

A nivel de software, la AI HAT+ 2 se integra con el entorno habitual de Raspberry Pi 5. La comunicación con el Hailo‑10H se realiza a través de la interfaz PCIe, y los controladores correspondientes permiten dirigir las cargas de trabajo de IA hacia la NPU, manteniendo la CPU libre para otras tareas.

Hailo ofrece un repositorio en GitHub y una Developer Zone con ejemplos de código, modelos preconfigurados, tutoriales y frameworks orientados tanto a IA generativa como a visión computarizada. Esto reduce la barrera de entrada para quienes no quieran montar toda la pila desde cero, aunque sigue siendo recomendable tener cierta experiencia previa con Python, contenedores o entornos similares.

En el momento del lanzamiento, Raspberry Pi indica que ya hay modelos de lenguaje listos para instalar y que se irán incorporando variantes más grandes o afinadas a casos de uso específicos mediante actualizaciones. La idea es ir ampliando gradualmente el catálogo a medida que el ecosistema madure y se compruebe qué combinaciones de modelos y cuantización funcionan mejor en la práctica.

Como suele ocurrir con este tipo de soluciones, el rendimiento y la estabilidad reales dependerán en gran medida de la madurez del software. Algunas reseñas tempranas apuntan a que todavía hay margen de mejora en herramientas, documentación y soporte para ejecutar varios modelos en paralelo, pero la tendencia va hacia una integración cada vez más pulida dentro del ecosistema Raspberry Pi.

Hoy por hoy, la AI HAT+ 2 se posiciona como una solución intermedia entre la nube y los grandes servidores de IA: permite ejecutar modelos de lenguaje y visión ligeros con baja latencia, mantener los datos bajo control y contener los costes, siempre que el usuario asuma las limitaciones de potencia y memoria propias de un sistema pensado para el bajo consumo y el formato compacto.

Todo lo que se prepara para el próximo CES en Las Vegas

Vista general CES Las Vegas

El CES 2026 de Las Vegas volverá a ser el primer gran escaparate tecnológico del año, un punto de encuentro en el que se cruzan tendencias de consumo, apuestas de futuro y batallas entre gigantes de la electrónica. Entre el 6 y el 9 de enero, la industria pondrá el foco en la inteligencia artificial, la robótica y el hogar conectado, con especial protagonismo para marcas muy presentes en España y Europa.

En esta edición, no solo se presentarán productos aislados, sino estrategias completas que van desde el PC entusiasta hasta el salón de casa, pasando por el coche conectado o la salud digital. Fabricantes como ASRock, Samsung, Bosch, Intel, AMD o LG aprovecharán el CES para enseñar hacia dónde va su catálogo y cómo pretenden encajar sus propuestas en el día a día de los usuarios europeos.

Un CES 2026 centrado en la IA, la robótica y la innovación global

La organización del CES, la Consumer Technology Association (CTA), espera reunir en Las Vegas a más de 4.500 empresas de unos 150 países, con un fuerte peso de la inteligencia artificial aplicada a electrodomésticos, movilidad, salud digital, energía y entretenimiento. En paralelo, otro dato ilustra la magnitud del evento: más de 450 compañías entre grandes marcas, startups y firmas de la lista Fortune 500 enseñarán allí sus novedades.

Durante esos días, la IA y la robótica no serán solo palabras de moda, sino la base de muchas de las demostraciones que veremos en televisores, altavoces, robots de limpieza, vehículos y soluciones profesionales, incluso funciones como el modo IA en Chrome. La feria servirá además como escaparate para las grandes presentaciones de Samsung, LG, Asus, Intel, AMD o Lenovo, con anuncios que afectan tanto al mercado norteamericano como al europeo.

Las grandes tecnológicas organizarán sus propios eventos en la previa del congreso. Samsung celebrará su ya habitual cita ‘The First Look’ el 5 de enero, centrada en experiencias de usuario impulsadas por IA y en la actualización de su ecosistema de producto, mientras que LG detallará ese mismo día sus soluciones de hogar inteligente, audio y televisores, además de un nuevo robot doméstico.

El gaming y el PC también tendrán su momento. Asus ROG aprovechará la medianoche del 6 de enero (hora peninsular española) para centrarse en jugadores y creadores, con sistemas de juego de nueva generación, refrigeración y monitores, y después será el turno de la división general de Asus para hablar de ordenadores con IA. Intel y AMD se repartirán la madrugada con nuevos procesadores para portátiles, centros de datos y tareas de inteligencia artificial.

Además, Lenovo llevará de nuevo su conferencia ‘Lenovo Tech World’ al marco del CES, donde mostrará cómo combina IA, dispositivos, infraestructura y servicios, con la participación de socios clave como Nvidia y Qualcomm, muy influyentes en la hoja de ruta de IA que veremos extenderse en Europa en los próximos años.

ASRock: del monitor OLED al mini PC de IA en un mismo stand

Novedades hardware en CES

Entre las propuestas más llamativas para los entusiastas del PC en el CES 2026 está el despliegue de ASRock, que llega con la intención de reforzar su imagen más allá de las placas base. La compañía ha preparado un catálogo que abarca monitores OLED, refrigeración líquida AIO, nuevas series de placas, fuentes de alimentación y mini PCs, con la idea de cubrir prácticamente todo el ecosistema de hardware de un ordenador de sobremesa moderno.

En la parte de pantallas, ASRock apuesta por paneles QD OLED y WOLED de 27 pulgadas bajo sus familias Taichi y Phantom Gaming. La gama Taichi OLED se compone de cuatro modelos (TCO27QX, TCO27QXA, TCO27USA y TCO27USA W) con resoluciones que van de 2K a 4K y frecuencias de refresco que pueden alcanzar los 540 Hz. A ello se suma certificación VESA DisplayHDR True Black, precisión de color Delta E < 2 y detalles pensados para el usuario exigente como la iluminación personalizable Taichi o la conmutación Dual Mode.

Por su lado, los Phantom Gaming PGO27QSA y PGO27QSA W también se quedan en las 27 pulgadas, con panel QD OLED 2K a 240 Hz, una propuesta más enfocada al escritorio mixto: puerto USB‑C con DisplayPort Alt Mode, carga de hasta 65 W, peana ergonómica con giro de 90 grados y compatibilidad con AMD FreeSync. Este tipo de especificaciones encaja bien con el perfil de usuario europeo que combina trabajo y ocio en un mismo monitor.

Otro frente importante para ASRock en el CES es su entrada decidida en la refrigeración líquida AIO. Bajo las líneas Taichi, Phantom Gaming, Steel Legend, Challenger, Pro y una gama WS para estaciones de trabajo, la firma promete una arquitectura de bomba optimizada y un flujo de líquido orientado a maximizar el intercambio de calor, respaldado por una garantía oficial de seis años.

Más allá de la capacidad de disipación, llaman la atención los modelos con pantalla LCD a todo color en el bloque, pensada tanto para mostrar telemetría del sistema como para personalizar la estética del equipo. En determinadas familias se habla de ventiladores con aspas LCP y rodamientos de doble bola, un enfoque que busca combinar rendimiento térmico y reducción de ruido, algo muy valorado en los montajes de sobremesa que encontramos en muchos hogares europeos.

ASRock también aprovechará la feria para reorganizar su catálogo de placas base. Por un lado, estrena la nueva serie Rock como opción de entrada pensada para quienes necesitan lo esencial bien resuelto, sin extras superfluos. Esta línea incluye las B850 Rock WiFi 7 y B850M Rock WiFi para sockets AMD AM5, y las B860 Rock WiFi 7 y B860M Rock WiFi para Intel LGA 1851, abarcando formatos ATX y microATX, con WiFi 7 y conectividad moderna como reclamo principal.

Por otro, amplía la familia Challenger a más chipsets y formatos. Veremos placas ATX con chipsets AMD X870E, X870 y B850, además de modelos con Intel B860, junto a variantes microATX como la B850M Challenger WiFi, incluida una versión en blanco para quienes buscan una estética más limpia. La idea de la marca es que Challenger sea el punto medio para equipos gaming, con diseño reconocible y especificaciones capaces de mover procesadores exigentes sin llegar a la gama entusiasta.

En el terreno gráfico, ASRock se guarda un golpe de efecto con la Radeon RX 9070 XT Taichi White 16 GB OC, su primera GPU completamente blanca con pantalla LCD integrada e iluminación ARGB ampliada. El montaje interno también mantiene el color blanco, un guiño directo a los cada vez más populares montajes “all‑white”. La pequeña pantalla puede mostrar información del sistema, reloj, previsión del tiempo o animaciones, todo ello gestionado mediante el software Polychrome de la marca.

La oferta de alimentación se completa con las fuentes Phantom Gaming SFX y Steel Legend Platinum. Habrá modelos SFX de 850 W y 1.000 W, pensados para cajas compactas, y una gama Steel Legend que escalará hasta los 1.200 W. Todas comparten eficiencia 80 PLUS Platinum y certificaciones Cybenetics PLATINUM y LAMBDA A, esta última orientada a garantizar bajos niveles de ruido, una característica apreciada en entornos domésticos y de oficina.

Un detalle curioso de estas fuentes está en el cableado: incluyen conector 12V 2×6 con sensores NTC integrados para monitorizar la temperatura en el extremo que se conecta a la GPU. Con el debate actual sobre los estándares de alimentación de tarjetas gráficas de gama alta, esta telemetría extra busca aportar tranquilidad y control al usuario avanzado.

Por último, ASRock quiere reforzar su posición en el segmento de factor de forma reducido con sus mini PCs DeskSlim. Hablamos de chasis de apenas 4,9 litros, capaces de alojar CPUs de hasta 120 W de consumo, una ranura PCIe 5.0 x16 para gráficas discretas de perfil bajo y doble ranura, así como cuatro bancos de memoria DDR5. El enfoque declarado de estos equipos va desde la inferencia de IA y la creación de contenido hasta aplicaciones de CAD y configuraciones multimonitor, un abanico que encaja tanto en despachos como en pequeños estudios creativos europeos.

Samsung: del programa C‑Lab a los electrodomésticos y el audio con IA

Más allá del hardware de PC, Samsung se perfila como uno de los grandes protagonistas del CES 2026 con varias líneas de trabajo: su programa de innovación C‑Lab, la nueva gama de electrodomésticos Bespoke AI y un ecosistema renovado de altavoces y barras de sonido, una tendencia que incluye altavoces con IA que también veremos en otros fabricantes.

En el espacio de innovación, Samsung ha anunciado que su programa C‑Lab llevará a CES 2026 diversos proyectos relacionados con IA, robótica y salud digital, y que las startups asociadas han logrado 17 galardones CES Innovation Awards, incluyendo dos premios Best of Innovation. Entre los participantes se encuentran compañías que trabajan en sonido para el cuidado mental, soluciones de aromas digitales, diagnóstico de enfermedades en mascotas mediante IA o herramientas de producción de vídeo con modelos generativos.

Este despliegue tendrá lugar en Eureka Park, en la Venetian Expo, la zona del CES dedicada específicamente a startups. El fabricante surcoreano quiere que este espacio sirva como plataforma para que las empresas emergentes validen sus tecnologías y ganen visibilidad internacional, reforzando un ecosistema de innovación que se extiende más allá de Seúl hacia regiones como Daegu, Gwangju o Gyeongbuk.

Mientras tanto, en el terreno del hogar conectado, Samsung aprovechará la feria para enseñar en detalle su nueva familia de electrodomésticos Bespoke AI, que incluye productos como Bespoke AI Laundry Combo, Bespoke AI AirDresser, Bespoke AI WindFree Pro y Bespoke AI Jet Bot Steam Ultra. Todos comparten una idea: aprovechar la IA para ajustar el funcionamiento a los hábitos del usuario y mejorar la eficiencia, manteniendo una estética integrada en la línea Bespoke.

La Bespoke AI Laundry Combo, una lavadora‑secadora lanzada inicialmente en 2024, llega ahora con ciclos más cortos y un secado mejorado. El modo Super Speed utiliza un rociado de alta presión que mejora la penetración del detergente y el enjuague, mientras que un nuevo intercambiador Booster se encarga de incrementar el rendimiento del secado.

Pensando en el uso diario, incorpora funciones como Auto Open Door+, que abre la puerta de forma automática al terminar los ciclos de solo lavado para favorecer la circulación de aire interna y reducir el riesgo de malos olores en la ropa que se queda dentro del tambor. A ello se suma un AI Wash & Dry+ mejorado, que combina sensores para calcular la cantidad óptima de agua y detergente, reconocer distintos tipos de tejido (incluidos los de exterior y el denim) y monitorizar en tiempo real el nivel de suciedad de cada carga.

El mantenimiento también se ha tenido en cuenta: el nuevo filtro de pelusa ancho utiliza un diseño de un solo toque con doble capa de filtrado y una superficie mayor de captura, facilitando la limpieza y la retención de partículas. La gama se completa con dos opciones de interfaz: la versión con pantalla LCD de 7 pulgadas y otra más asequible con LCD de 2,8 pulgadas y dial giratorio, pensadas para diferentes presupuestos y preferencias de uso en mercados como el español.

El Bespoke AI AirDresser se actualiza con un enfoque en el cuidado de las prendas y la comodidad. Incorpora la nueva función Auto Wrinkle Care, apoyada en los sistemas Dual AirWash y Dual JetSteam, para reducir arrugas de forma rápida. El Dual JetSteam inyecta calor a alta temperatura en profundidad, lo que ayuda a eliminar hasta el 99,9 % de ciertos virus y bacterias y el 99 % de determinados olores, según los datos facilitados por la compañía.

Incluye además un ciclo de secado inteligente que adapta el tiempo a cargas pequeñas, medianas o grandes, con el objetivo de evitar tanto el secado insuficiente como el excesivo y proteger la calidad de los tejidos. Una de las claves de este producto es su integración con la lavadora‑secadora: mediante Auto Cycle Link, el sistema puede recomendar un ciclo de secado adecuado cuando termina el lavado e incluso encadenar opciones especiales, de forma que, si se selecciona un programa delicado como Blusa en la Laundry Combo, ese mismo perfil queda preparado en el AirDresser.

En climatización, el nuevo Bespoke AI WindFree Pro recurre a la inteligencia artificial y a la tecnología Motion Wind para ampliar y personalizar sus modos de funcionamiento. El número de aspas se ha incrementado de una a tres, formando las Triple Motion Wings, lo que permite dirigir el flujo de aire en múltiples direcciones y ofrecer hasta siete modos de viento distintos, como Max Wind (enfriamiento rápido un 15 % más veloz), Surround Wind (reparto uniforme del aire), Long Reach Wind (mayor alcance) o Down Wind (flujo orientado hacia abajo).

Los modos de IA Direct y Indirect Wind, basados en sensores de radar, detectan la presencia de personas y ajustan el caudal para soplar directamente o desviar el flujo, priorizando el confort. La función AI Fast & Comfort Cooling analiza temperatura, humedad y tamaño de la habitación para alternar entre Fast Cooling, WindFree Comfort y Dry Comfort sin sensación de frío. Paralelamente, el modo AI Energy Mode vigila los patrones de uso y las condiciones exteriores para reducir el consumo energético hasta un 30 % mediante un control más preciso del compresor.

En el terreno de la limpieza del hogar, el Bespoke AI Jet Bot Steam Ultra se presenta como un robot aspirador que quiere minimizar al máximo la intervención humana. Está equipado con un procesador Qualcomm Dragonwing y sistemas de reconocimiento de objetos mediante IA basada en aprendizaje profundo, capaces de identificar personas, mascotas y obstáculos menos evidentes como cables o determinadas alfombras.

Una de sus funciones diferenciadoras es la detección de líquidos con IA, que le permite reconocer derrames y decidir si debe limpiarlos o evitarlos en función de las preferencias indicadas por el usuario en la app. El conjunto se completa con la tecnología Easy Pass Wheel mejorada, que ajusta la altura del cuerpo y las ruedas para superar umbrales de hasta 2,4 pulgadas, algo útil en viviendas europeas con cambios de nivel entre estancias.

En paralelo al hogar conectado, Samsung también ha adelantado parte de su estrategia de audio para el próximo año con la serie de altavoces Samsung Music Studio y nuevas barras de sonido. El modelo más llamativo es el Music Studio 7, un altavoz WiFi de diseño circular tipo “dot” creado junto al diseñador Erwan Bouroullec, pensado para encajar como pieza decorativa y no solo como equipo de sonido.

Este altavoz apuesta por un sistema de audio espacial 3.1.1 canales, con altavoces frontales y uno superior para generar sensación de altura, además de soporte para audio de alta resolución hasta 24 bits y 96 kHz. Podrá utilizarse de forma independiente, en pareja estéreo o integrado con televisores y barras de la marca mediante la tecnología Q‑Symphony, que combina los altavoces del televisor con los externos.

Junto a él llegará el Music Studio 5, una variante más compacta, y una nueva generación de barras de sonido encabezada por la Samsung HW‑Q990H, un sistema de 11.1.4 canales con funciones como Sound Elevation, que centra los diálogos en pantalla, y Auto Volume, diseñada para reducir saltos bruscos de volumen entre aplicaciones y anuncios. También habrá una barra HW‑QS90H, de formato todo en uno con diseño convertible y sensor giroscópico que adapta el sonido según la posición física del dispositivo.

La propia Samsung ha adelantado que Q‑Symphony dará un paso más y permitirá combinar hasta cinco dispositivos de sonido con un televisor compatible, algo que puede resultar especialmente interesante en salones europeos donde se busca un cine en casa inmersivo sin renunciar a la integración estética.

IA y movilidad: la cabina inteligente de Bosch y la presencia coreana

La movilidad y el automóvil conectado serán otro de los grandes bloques del CES 2026, con propuestas que van desde sistemas de infoentretenimiento hasta soluciones avanzadas de asistencia al conductor. Una de las más destacadas llega de la mano de Bosch, que presentará en Las Vegas su nueva cabina con tecnología de IA desarrollada junto a Microsoft y Nvidia.

La idea de Bosch es convertir el vehículo en un “compañero inteligente” capaz de aprender del conductor, entendiendo sus rutinas, preferencias y contexto para anticiparse a necesidades cotidianas. Esto incluye desde comandos de voz sencillos como “tengo frío” para ajustar la climatización, hasta opciones de navegación, entretenimiento y productividad que se integran en un único entorno.

La compañía estima que el mercado de soluciones de infoentretenimiento con IA en vehículos podría alcanzar unos 17.000 millones de euros en 2030, y espera sumar en torno a 2.000 millones de euros en ventas acumuladas a finales de la década con este tipo de cabinas inteligentes. Según sus previsiones, esa cifra equivaldría aproximadamente al 11,7 % del mercado global en este segmento.

Parte de esta estrategia se apoya en la colaboración con Microsoft, que permite transformar el coche en una suerte de “oficina móvil” sin perder de vista la seguridad. Gracias a Microsoft Foundry y a funciones específicas para la cabina, es posible acceder de manera fluida a Microsoft 365, realizar videollamadas con Teams mediante comandos de voz e incluso activar de forma automática el control de crucero adaptativo para reducir la carga del conductor durante reuniones en marcha.

En el plano de hardware, la plataforma de extensión de IA de Bosch se apoya en el SoC Nvidia Drive AGX Orin, diseñado para aplicaciones de inteligencia artificial complejas en el vehículo. Este chip ofrece una potencia de cálculo adicional de entre 150 y 200 teraoperaciones por segundo (TOPS) y utiliza la conocida plataforma Nvidia CUDA, lo que facilita que los fabricantes de automóviles puedan integrar sus propios modelos y agentes de IA.

La integración se resuelve mediante interfaces de alimentación y Ethernet sencillas, compatibles con refrigeración activa por aire o líquida, y se complementa con las suites de software de Nvidia para gestionar el ciclo de vida completo de la IA: desde el procesamiento en tiempo real de datos de sensores hasta modelos de lenguaje visual, capacidades de razonamiento y sistemas avanzados de voz.

Al mismo tiempo, Korea Inc. llegará a CES con una presencia récord. El Ministerio de Comercio, Industria y Energía y el Ministerio de Pymes y Startups del país han anunciado la creación del mayor pabellón integrado coreano en la historia de la feria, con 38 instituciones y unas 470 empresas bajo el mismo paraguas.

En total, se calcula que alrededor de 1.000 compañías coreanas participarán en el CES 2026, incluyendo grandes grupos como Samsung, LG, Hyundai y SK, así como pymes y startups con tecnologías que abarcan desde el hogar conectado hasta la movilidad eléctrica y la salud digital. Corea ha logrado por tercer año consecutivo el mayor número de Premios a la Innovación CES, con 168 compañías premiadas de un total de 284, por delante de Estados Unidos, China y Taiwán.

Las autoridades coreanas ven en el CES un escenario clave para mostrar su competitividad tecnológica en inteligencia artificial y apoyar la internacionalización de sus empresas. El ministro de Comercio, Kim Jung‑Kwan, ha subrayado que el Gobierno proporcionará apoyo activo para que estas capacidades innovadoras se traduzcan en resultados de exportación, algo que también repercute en la oferta tecnológica que llega a Europa y España en forma de nuevos productos y soluciones.

Con todo este despliegue, el CES 2026 se perfila como una edición especialmente intensa en la que la inteligencia artificial transversal, la consolidación del hardware de alto rendimiento y la integración del hogar y el coche conectados marcarán buena parte de la agenda. Desde monitores OLED de altas prestaciones y mini PCs pensados para IA, hasta lavadoras que ajustan solos sus ciclos, robots capaces de reconocer líquidos en el suelo o cabinas de coche que funcionan como oficina segura, la feria de Las Vegas vuelve a mostrar el rumbo que tomará la tecnología que veremos llegar a España y al resto de Europa en los próximos meses.

Samsung integrará Google Fotos en sus Smart TV

Integración de Google Fotos en televisores Samsung

Samsung y Google han decidido dar un paso más en la forma de ver las fotos en casa: a partir de 2026 Google Fotos se integrará directamente en los televisores Samsung AI TV, de manera que las imágenes y vídeos guardados en la nube podrán verse en la pantalla del salón sin recurrir a cables, duplicado de pantalla ni trucos raros.

El movimiento refuerza la idea de que el televisor ya no es solo para ver series y películas. Con esta alianza, la tele se convierte en un punto central para repasar recuerdos familiares, viajes o eventos especiales, algo que en Europa y en España encaja muy bien con el uso cotidiano que se hace del televisor como centro del hogar.

Qué aportará Google Fotos en las Smart TV de Samsung

Según han explicado ambas compañías, la aplicación Google Fotos estará disponible de forma nativa en la gama Samsung AI TV de 2026, abriendo la puerta a una experiencia más parecida a la del móvil, pero pensada para diagonales de 55, 65 pulgadas o incluso más grandes.

El funcionamiento será relativamente sencillo: bastará con iniciar sesión con la cuenta de Google en el televisor para que aparezcan las fotos y vídeos que ya se han sincronizado en la nube. No hará falta conectar el móvil ni enviar contenido manualmente cada vez que se quieran enseñar unas fotos.

Esta integración no se limitará a mostrar una galería básica. varias funciones específicas para aprovechar la pantalla grande y la potencia de los nuevos televisores con IA, con énfasis en la organización automática, la creación de contenido y la personalización.

Además, la compañía coreana ha adelantado que Google Fotos se conectará con Vision AI Companion y con los paneles Daily+ y Daily Board, de forma que ciertas fotos y recuerdos aparecerán de manera contextual a lo largo del día sin que el usuario tenga que abrir la aplicación de forma manual.

En cuanto a compatibilidad, Samsung ha indicado que la integración estará garantizada en los modelos AI TV lanzados en 2026, incluyendo las gamas QLED, Neo QLED y OLED que se presentarán en el CES de Las Vegas. En Europa, y por tanto en España, el despliegue seguirá el calendario habitual de llegada de estas gamas a cada país.

Memories: recuerdos curados y exclusiva temporal

La primera gran función que aterrizará en los televisores será Memories (Recuerdos), prevista para marzo de 2026. Se trata del mismo sistema que ya existe en el móvil, pero adaptado para una experiencia de salón y con algunas mejoras pensadas para el formato panorámico del televisor.

Memories se encargará de agrupar automáticamente fotos y vídeos en colecciones temáticas basadas en personas, lugares, fechas o momentos relevantes que el algoritmo considera significativos. De esta manera, se generarán historias de viajes, celebraciones familiares o escapadas de fin de semana sin que el usuario tenga que ordenar las imágenes una a una.

Uno de los puntos más llamativos del acuerdo es que Memories será exclusiva de los televisores Samsung durante los primeros seis meses desde su lanzamiento. Eso implica que fabricantes como LG o Sony, incluso en modelos con Google TV o Android TV, tendrán que esperar para ofrecer la misma experiencia completa en sus propios equipos.

En la práctica, esta exclusiva sitúa a Samsung en una posición ventajosa en el mercado europeo de televisores inteligentes, donde la competencia es muy fuerte. Durante ese medio año, los usuarios que quieran ver las colecciones de Google Fotos en la tele con todas sus funciones tendrán que recurrir a un modelo de Samsung AI TV.

Conviene tener en cuenta que, pese a esta integración profunda, Google TV sigue sin contar con una app completa de Google Fotos. Lo que existe hoy es una experiencia algo limitada, centrada sobre todo en salvapantallas y fondos, sin las herramientas más avanzadas que ahora sí llegarán primero a los televisores de la marca coreana.

Crear con IA: plantillas, estilos artísticos y vídeos automáticos

La segunda fase del despliegue se producirá en la segunda mitad de 2026, cuando Google Fotos sumará herramientas de creación basadas en inteligencia artificial directamente accesibles desde la tele, pensadas para quienes no se conforman con ver las fotos tal cual.

La función Create with AI (Crear con IA) utilizará plantillas creativas para transformar fotos en montajes, historias o composiciones con distintos estilos visuales. Según lo avanzado por la compañía, se apoyará en modelos de IA de Google DeepMind, como Nano Banana, para generar efectos y animaciones a partir de imágenes estáticas.

Entre las opciones anunciadas está Remix, orientada a cambiar el estilo artístico de una fotografía (por ejemplo, aplicar un acabado más cinematográfico o un aspecto similar a una ilustración), y Photo to Video, que permitirá transformar una selección de fotos en clips de vídeo cortos con transiciones y ritmo prediseñado.

Samsung ha dejado caer que algunas plantillas o efectos podrían ser exclusivos de sus televisores durante un tiempo, aunque ni la compañía ni Google han querido detallar qué elementos concretos estarían sujetos a esa ventaja temporal ni durante cuánto se mantendría.

Más allá del marketing, lo que sí parece claro es que la idea es convertir el televisor en una herramienta cómoda para crear y retocar historias visuales sin depender siempre del móvil o del ordenador, algo que puede encajar bien en hogares donde la tele está en el centro de la vida diaria.

Resultados personalizados y búsquedas temáticas en la nube

Junto con las funciones de creación, la segunda mitad de 2026 traerá otra novedad: Resultados personalizados (Personalized Results), pensados para localizar y mostrar fotos según temas concretos sin que el usuario tenga que navegar carpeta por carpeta.

La idea es que el televisor pueda generar pases de diapositivas automáticos filtrando por contenido: playas, montaña, ciudades europeas, cumpleaños, conciertos… Todo apoyado en la clasificación que Google Fotos ya hace en segundo plano gracias a sus algoritmos de reconocimiento de escenas y objetos.

De este modo, será posible pedirle al sistema que muestre, por ejemplo, todas las fotos de un viaje a París o las imágenes de naturaleza almacenadas en la cuenta, y ver cómo se encadenan en la pantalla grande sin selección manual. Para familias con grandes bibliotecas de fotos acumuladas durante años, esta opción puede simplificar bastante la experiencia.

Estos resultados personalizados también se integrarán con Vision AI Companion, Daily+ y Daily Board, de forma que determinados recuerdos aparezcan en momentos concretos del día o cuando el televisor esté en modo reposo, funcionando casi como un marco digital avanzado.

En cualquier caso, Samsung ha recordado que características y disponibilidad pueden variar según modelo y región, por lo que no se puede dar por hecho que todas las funciones aterrizarán a la vez en todos los países europeos. Es probable que haya diferencias en los tiempos de despliegue entre mercados como Alemania, Francia, Italia o España.

Requisitos, modelos compatibles y dudas pendientes

Para disfrutar de todo este paquete de novedades no bastará con tener cualquier televisor moderno. Samsung ha marcado como requisito básico contar con un modelo AI TV lanzado en 2026 o con un televisor compatible que reciba la correspondiente actualización de Tizen.

Las propias funciones basadas en IA, como la creación de plantillas o ciertos procesados, harán que solo los televisores a partir de 2024 tengan opciones reales de compatibilidad, ya que son los que incluyen el hardware necesario para mover estos algoritmos con soltura. En modelos previos podrían llegar versiones más limitadas o, directamente, quedarse fuera.

La compañía se ha limitado a indicar que los modelos anteriores que sigan en el mercado recibirán las funciones en función del calendario de actualización de su sistema operativo, sin especificar qué gamas (Crystal UHD, QLED, Neo QLED u OLED de años recientes) entran exactamente en la lista.

Además de un televisor compatible, será imprescindible disponer de una cuenta de Google con copia de seguridad de fotos activada. Si la función Memories está deshabilitada en el móvil, tampoco se activará en el televisor, algo a tener en cuenta para quienes cuidan mucho la configuración de privacidad.

Por ahora no se han concretado detalles sobre posibles costes adicionales, suscripciones o cambios en el tratamiento de los datos personales. Tampoco se ha aclarado si la app de Google Fotos sustituirá a las galerías propias de Samsung o convivirá con ellas como una opción más dentro del ecosistema Tizen.

En Europa, lo habitual es que este tipo de servicios deban adaptarse a la normativa comunitaria sobre protección de datos, lo que podría influir en cómo se muestran ciertos contenidos o qué funciones se activan desde el primer día en regiones como España. Habrá que esperar a las fichas oficiales de producto y a los anuncios regionales para conocer el alcance exacto.

La alianza entre Samsung y Google para llevar Google Fotos a los televisores AI TV de 2026 refuerza la tendencia de convertir el televisor en un hub visual donde conviven entretenimiento, información diaria y biblioteca personal. Faltan por despejar dudas sobre compatibilidad concreta, privacidad y fechas exactas en Europa, pero todo apunta a que, en los próximos años, enseñar fotos del último viaje en el salón será tan habitual como poner una serie en cualquier Smart TV moderna.