La inteligencia artificial de Google no es tan infalible como parece.

Un investigador ha revelado un fallo en Gemini que permite manipular su comportamiento con simples líneas de texto oculto.

Lo inquietante no es solo la vulnerabilidad, sino que Google ha decidido no corregirla, argumentando que no representa un riesgo real.

Un fallo que se esconde a simple vista

El investigador Viktor Markopoulos, especializado en ciberseguridad, descubrió que Gemini puede ser engañado mediante una técnica conocida como ASCII Smuggling.

Consiste en ocultar instrucciones maliciosas dentro de correos electrónicos o textos aparentemente inofensivos.

Cuando el usuario le pide a la IA “resumir” o “leer” ese contenido, Gemini interpreta los comandos invisibles y los ejecuta, sin que nadie lo note.

El hallazgo demuestra que la IA de Google puede ser utilizada para extraer información confidencial o ejecutar acciones imprevistas, simplemente al interactuar con contenido manipulado.

Markopoulos comprobó el fallo en varios modelos populares: Gemini, Grok y DeepSeek fueron vulnerables, mientras que ChatGPT, Claude y Copilot resistieron sin problema.

El investigador notificó a Google, incluyendo pruebas detalladas. Pero la respuesta no fue la esperada.

Google responde: “No es un error, es ingeniería social”

En lugar de reconocer el fallo como una vulnerabilidad, Google clasificó el incidente como un caso de ingeniería social, es decir, una manipulación del comportamiento humano y no un defecto técnico del sistema.

En otras palabras: no lo consideran un problema que requiera corrección.

La postura ha generado debate en la comunidad tecnológica.

Gemini se integra profundamente en herramientas de uso masivo como Gmail, Docs o Drive, donde se manejan datos personales y corporativos. Ignorar una posible puerta abierta, por mínima que sea, pone en entredicho la estrategia de seguridad de Google frente al auge de la IA generativa.

Markopoulos advierte que este tipo de ataques pueden evolucionar. Si un texto malicioso logra manipular una IA para divulgar información sensible, “el riesgo no es hipotético, es operativo”.

Por ahora, los expertos recomiendan no usar Gemini para analizar correos o documentos desconocidos, especialmente si provienen de fuentes externas.

Puedes seguir a HardwarePremium en FacebookTwitter (X)InstagramThreads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.