Tras dos horas de anuncios casi ininterrumpidos sobre inteligencia artificial en Google I/O 2025, todo el mundo se hace eco en Internet de dos demostraciones destacadas. La primera es Proyecto Astraque convierte al asistente de tu smartphone en un multitarea al estilo Jarvis. También está Veo 3, el alucinante motor de generación de vídeo de Google que crea clips hiperrealistas con sonido y voz.
Entre tuits que gritan "atroz", "guau" y "estamos condenados", está claro que estas herramientas impresionan tanto como aterrorizan. En este repaso informal, explicaremos qué ha pasado, por qué la gente no para de hablar de ello y qué puede significar para el futuro de la tecnología.
Veo 3: el motor de vídeo falso que se robó el show
Durante la keynote, Google hizo una demostración de Veo 3 generando un clip de noticias de 8 segundos en cuestión de minutos. La escena mostraba a un presentador con acento británico que anunciaba un accidente de yate ficticio en el que estaba implicada J.K. Rowling. El resultado parecía y sonaba tan real que incendió las redes sociales.
La demostración llamó la atención porque cualquiera puede crear mentiras visuales convincentes en un tiempo récord. Lo que antes llevaba horas de edición y trabajo de voz, ahora se hace con una sola indicación. Como bromeó un espectador: "Supongo que las noticias de testigos oculares están oficialmente obsoletas".
Las redes sociales reaccionan
En Bluesky y Twitter, los comentarios iban desde "Esto es una locura" a "Estamos todos jodidos". Algunos usuarios no podían dormir imaginando lo rápido que podía propagarse la desinformación. Otros estaban más fascinados, maravillados con la tecnología en sí. "Simplemente increíble", escribió un aficionado, mientras otro pedía: "Quémenlo con fuego".
A pesar de la exageración, surgió una oleada de preocupaciones. Los periodistas advirtieron de campañas de desinformación alimentadas por clips hiperrealistas, y los defensores de la privacidad se preocuparon por la clonación digital de rostros reconocibles. La delgada línea que separa la libertad creativa del engaño parece más borrosa que nunca.
Proyecto Astra: Tu nuevo Jarvis en movimiento
A continuación, Google presentó Project Astra, una actualización de su asistente para teléfonos inteligentes capaz de realizar tareas complejas sin instrucciones constantes. Imagina que le pides que planifique un viaje por carretera, reserve hoteles y ajuste tu calendario mientras conduces. Eso es sólo la punta del iceberg.
La demostración mostraba a un ciclista arreglando una bicicleta con la ayuda verbal paso a paso de Astra. El asistente identificaba las piezas, ofrecía especificaciones de par de apriete e incluso mostraba diagramas de instrucciones, todo ello con las manos libres. Era como tener a un mecánico digital susurrándote al oído.
Comentarios casuales y ocurrencias cínicas
A diferencia de Veo 3, las reacciones al Proyecto Astra fueron más lúdicas que de pánico. La gente bromeaba diciéndole que se borrara si alguna vez resultaba demasiado útil. Un comentario decía: "¿Puede desinstalarse si no me gusta?", mientras que otro bromeaba: "Si realmente puede hacer lo que le pido, desaparecerá solo".
Aun así, algunos usuarios se mostraron realmente entusiasmados. Algunos expertos en tecnología dijeron que estaban impacientes por ver cómo se integraría Astra con los dispositivos domésticos inteligentes y la tecnología para llevar puesta. Otros esperaban que se establecieran sólidos controles de privacidad, por temor a una sombra digital constante que siguiera todos sus movimientos.
Equilibrio entre asombro y aprensión
No se puede negar la capacidad de ingeniería de Google. Veo 3 y Project Astra son ejemplos de capacidades de IA de alto nivel que determinarán la forma en que creamos contenidos e interactuamos con las máquinas. Pero la otra cara de la moneda es el alarmante potencial de uso indebido. Desde los ingeniosos vídeos deepfake hasta un asistente personal hiperconsciente, la tecnología es un arma de doble filo.
Los expertos en desinformación ya han advertido de que las normas reguladas y un etiquetado claro serán esenciales. Sin salvaguardias, corremos el riesgo de vivir en un mundo en el que ver ya no es creer. Del mismo modo, los consumidores exigirán transparencia en el uso de los datos, opciones de exclusión y protección contra la vigilancia injustificada.
¿Y ahora qué?
Google ha dado a entender que lanzará versiones beta de estas herramientas en los próximos meses. Los desarrolladores tendrán acceso anticipado y algunos socios podrán integrar Veo 3 y Astra en sus propias aplicaciones. Se trata de un periodo de prueba crítico: si los primeros en adoptarlas las utilizan de forma responsable, podría aumentar la confianza. Pero un uso inadecuado de gran repercusión podría desencadenar una reacción violenta y una regulación más estricta.
Por ahora, tanto los desarrolladores como los consumidores deben mantenerse informados. Experimentar con las capacidades, compartir las mejores prácticas y presionar para que se establezcan directrices éticas claras. No es la primera vez que la IA promete maravillas e infortunios, ni será la última. Pero con un despliegue responsable, puede que disfrutemos del viaje en lugar de temerlo.