Ataque con imágenes que engaña a Gemini para que filtre datos de los usuarios

Nuevas tácticas de ciberseguridad expuestas. Un reciente hallazgo revela cómo los ataque imágenes aparentemente inofensivas.
El peligro oculto: cómo las imágenes pueden robar datos en sistemas de IA como Gemini. (Composición Gestión MIX con imagen de Ton Photograph/iStock)

Un ataque de ciberseguridad es capaz de robar datos personales de los usuarios al esconder en imágenes una inyección de indicaciones multimodal invisible que, cuando el usuario las carga en sistemas como Gemini CLI, la inteligencia artificial (IA) ejecuta estos y filtra los datos de la víctima.

El escalado de imágenes ha sido descubierto como un “arma” contra los sistemas de inteligencia artificial de producción, como Gemini CLI, Vertex AI Studio o la API de Gemini, Google Assistant y Genspark, entre otros.

Al enviar una imagen aparentemente inofensiva a un modelo de lenguaje, este es capaz de robar datos privados, tal y como ha recogido en una publicación el equipo de The Trail of Bits.

Esto sucede porque esa imagen esconde indicaciones o ‘prompts’ multimodales invisibles para el usuario. Sin embargo, la inteligencia artificial es capaz de ejecutar esos ‘prompts’ y apartir de ellos filtrar los datos de la víctima.

Este proceso funciona a través del escalado de imágenes, un proceso que se ejecuta automáticamente antes de que la IA analice el archivo. Por ello, al adjuntar una imagen en Gemini (ya sea en su agente de código abierto, en la web o en la API) el modelo no accede a la imagen original, sino a una versión escalada.

De esta manera, cuando los algoritmos de escalado se ejecutan en la imagen, el ‘prompt’ malicioso se descubre y Gemini lo ejecuta, activando herramientas como Zapier, una plataforma de automatización ‘online’ que conecta aplicaciones y servicios entre sí sin necesidad de programar.

Con este procedimiento, los investigadores de The Trail of Bits han logrado extraer datos de usuarios almacenados en Google Calendar y enviarlos a un correo electrónico ajeno a la víctima sin confirmación, tal y como recogen en su informe.

Asimismo, han advertido de que este es uno de los muchos ataques de inyección rápida que ya se han demostrado en herramientas de codificación agéntica (como Claude Code y OpenAI Codex), y que han sido capaces de exfiltrar datos y ejecutar remotamente códigos mediante la explotación de acciones inseguras contenidas en entornos aislados, entre otros casos.

TRES ALGORITMOS DE ESCALADO VULNERABLES

Los investigadores han señalado que estos ataques de escalado de imágenes explotan algoritmos de reducción de escala, que convierten múltiples valores de píxeles de alta resolución en un único valor de píxel de baja resolución.

En concreto, los autores del informe han apuntado que existen tres algoritmos de escalado: “interpolación del vecino más cercano, interpolación bilineal e interpolación bicúbica”, y cada uno exige un enfoque diferente para realizar un ataque de escalado de imágenes.

En este caso, los investigadores han utilizado la herramienta Anamorpher, que puede introducir ‘prompts’ en las imágenes para los algoritmos mencionados, que oculta en las partes más oscuras de la foto.

DEFENSA ANTE ESTE TIPO DE ATAQUES

Con todo ello, The Trail of Bits ha recomendando no usar la reducción de escala de imágenes y simplemente limitar las dimensiones de carga, así como tener una vista previa de lo que el modelo realmente ve, incluso en las herramientas CLI y API, siempre que se necesite ejecutar la reducción de escala.

No obstante, los investigadores han destacado que la defensa “más sólida” consiste en implementar patrones de diseño seguros y defensas sistemáticas que mitiguen la inyección de mensajes, más allá de la inyección multimodal.

Así, las entradas, especialmente las de texto dentro de una imagen, no podrán iniciar llamadas a herramientas sensibles sin la confirmación explícita del usuario.

Tags Relacionados:

NOTICIAS SUGERIDAS

Contenido GEC

Más en Respuestas

Temblor en EE.UU. EN VIVO hoy, 27 de marzo 2026: hora exacta, magnitud y dónde fue el epicentro del último sismo

Temblor en México EN VIVO hoy, 27 de marzo 2026: hora exacta, magnitud y dónde fue el epicentro del último sismo

▷ Cambio de hora en Madrid 2026: cuándo se hace, si se adelanta o atrasa y cómo adaptarse al horario de verano

Cambio de hora en Bilbao 2026: día y horario clave para adelantar el reloj de forma manual y correctamente

Cambio de hora en Cataluña 2026: fecha exacta, se adelanta o atrasa el reloj y cómo adaptarse al nuevo horario de verano

Cambio de hora en Barcelona 2026: ¿cuándo es exactamente, se adelanta o se atrasa el reloj y cómo no llegar tarde?

Te puede interesar:

Nvidia está ampliando su imperio a mucho más que un fabricante de chips de IA

Meta reduce unos 700 empleos para reforzar su apuesta por la IA

Buenos Aires tendrá un distrito de inteligencia artificial, ¿qué se espera lograr?

OpenAI anuncia el cierre de Sora: El fin de su red social de vídeos con IA

Por qué es difícil para los seres humanos ejercer autoridad final sobre la IA

George Forsyth apuesta por un gobierno digital con IA en la lucha contra la corrupción

Mark Zuckerberg está creando un asistente de IA para directores ejecutivos