En paralelo, la compañía detalla por primera vez cifras de uso de energía y agua asociadas a las respuestas de Gemini, mientras el ecosistema reacciona: nuevas funciones impulsadas por IA en Fotos y conversaciones de Apple para usar Gemini en Siri dibujan un mapa donde este modelo gana protagonismo.
Gemini para el hogar: del altavoz al centro de la casa
Google ha anunciado Gemini for Home, una versión del asistente con IA que reemplazará a Google Assistant en dispositivos domésticos compatibles. La propuesta se apoya en dos pilares: entender peticiones en lenguaje natural y gestionar acciones encadenadas sin necesidad de comandos rígidos.
Con esta aproximación, el usuario puede formular solicitudes compuestas del tipo “enciende las luces y fija la temperatura a 22 grados” y esperar que se ejecuten todas las acciones. La comprensión contextual permite también ajustar excepciones, por ejemplo, “apaga todas las luces menos la de mi habitación”.
Gemini estará integrado con las principales aplicaciones de Google para resolver tareas cotidianas. Un ejemplo típico es la cocina: describir lo que hay en la nevera para obtener recetas y, si hace falta, añadir ingredientes a la lista de la compra en un solo paso.
Durante su evento de hardware, Google dejó ver un altavoz inteligente inédito que todavía no ha sido oficializado. La compañía no ha confirmado detalles, pero todo apunta a un dispositivo “Made by Google” preparado para la nueva era de su asistente.
El despliegue será progresivo: los primeros usuarios domésticos podrán acceder a Gemini a partir de octubre, y a lo largo del año irá sustituyendo a Assistant en los equipos compatibles.
Consumo y huella: qué cifras aporta Google y qué dudas persisten
Google ha publicado un análisis sobre el impacto ambiental de la inferencia de su IA. Según sus mediciones internas, una consulta promedio de texto en Gemini requiere 0,24 vatios-hora, emite 0,03 gramos de CO2e y utiliza 0,26 mililitros de agua, un orden de magnitud comparable, dicen, a “encender la tele menos de nueve segundos”.
El informe desglosa el consumo: alrededor del 58% se concentra en los chips especializados que procesan la petición; cerca del 25% recae en CPU y memoria que sostienen la carga; y aproximadamente un 10% se reserva para máquinas de respaldo que solo entran en juego si algo falla. El resto se atribuye a refrigeración y conversión de energía en centros de datos.
La compañía asegura que su metodología es más amplia que la de estimaciones de terceros y, como resultado, eleva 2,4 veces el consumo estimado frente a cálculos anteriores al incluir componentes no contemplados habitualmente. Afirma además haber logrado una reducción de hasta 33 veces en energía por consulta entre mayo de 2024 y mayo de 2025 gracias a optimizaciones de modelo, hardware y software.
Hay matices relevantes: el estudio de Google se centra en la inferencia de texto y no cubre el entrenamiento de los modelos, el almacenamiento de datos ni cargas multimodales más exigentes como generación de imágenes o vídeo. Tampoco detalla el volumen diario de peticiones ni el tamaño medio de las consultas, por lo que algunas voces del sector piden cautela al extrapolar estas cifras.
Gemini en los Pixel 10: edición por voz y más transparencia
En móviles, Gemini impulsa “Editar Preguntando” en Google Fotos: una función que permite modificar imágenes con instrucciones habladas o escritas en lenguaje natural. El sistema propone sugerencias contextuales y ejecuta ajustes como limpiar fondos, retocar iluminación o destacar sujetos sin necesidad de conocer herramientas avanzadas.
De momento, esta novedad se lanza en exclusiva para los Pixel 10, inicialmente en Estados Unidos y en inglés. Google suele abrir estas funciones de forma escalonada, con la intención de llevarlas a más idiomas y dispositivos más adelante.
Además, la compañía implementará credenciales de contenido C2PA en los Pixel 10 para mejorar la trazabilidad: se registran el origen y el historial de modificaciones, incluyendo la aplicación y el modelo de IA utilizado si la imagen ha sido generada o editada con herramientas basadas en Gemini. Estas credenciales alcanzarán a las fotos tomadas con la app de cámara, incluso sin edición posterior.
Otro frente en el que Google insiste es la ejecución local de capacidades de IA en los Pixel, apoyándose en su plataforma de hardware para reducir latencia, mejorar privacidad y, cuando procede, liberar de carga a la nube.
Movimiento de piezas: Apple sopesa usar Gemini en Siri
Fuentes del sector señalan que Apple mantiene conversaciones con Google para integrar Gemini como columna vertebral de una versión renovada de Siri, prevista para 2026. La idea pasaría por un modelo personalizado ejecutándose en servidores de Apple, dentro de su infraestructura de nube privada.
En Cupertino siguen dos caminos en paralelo: una iteración de Siri basada en IA propia (proyecto Linwood) y otra que evalúa tecnología externa (Glenwood). En el pasado reciente, Apple también exploró opciones con OpenAI y Anthropic; no hay una decisión final sobre qué enfoque prevalecerá.
Si se materializa, el acuerdo ampliaría la lista de colaboraciones entre Apple y Google más allá de la búsqueda por defecto en Safari y reforzaría la presencia de Gemini en los grandes actores de la industria.
Gemini encara una fase clave: se instala en el salón con un asistente más natural, gana funciones útiles en el móvil y pone sobre la mesa cifras de consumo más transparentes, aunque discutidas en su alcance. Con fabricantes rivales contemplando su integración y un calendario que apunta a octubre para el hogar, el papel de la IA de Google en el día a día promete ganar peso sin perder de vista el impacto que implica.