¿Te imaginas poder robar la receta secreta de la Coca-Cola simplemente probando el refresco miles de veces hasta descifrar cada ingrediente? Pues algo muy parecido acaba de ocurrir en el mundo de la Inteligencia Artificial, y la víctima ha sido nada menos que el gigante tecnológico de Mountain View.
Hoy, Miércoles 18 de febrero, los foros de ciberseguridad no hablan de otra cosa: el informe del Google Threat Intelligence Group (GTIG) ha revelado un ataque sin precedentes. Un grupo de actores maliciosos (y algunas empresas con ética dudosa) lanzaron una ofensiva de más de 100.000 consultas automatizadas con un solo objetivo: robar la lógica interna de Gemini.
Si creías que el hackeo era solo entrar en cuentas de correo, bienvenido a la era de la Extracción de Modelos.
¿Qué es un ataque de “Extracción de Modelo” (y por qué debería importarte)?
Entrenar un modelo como Gemini 3 Pro cuesta miles de millones de dólares en potencia de cálculo y talento humano. Pero, ¿y si pudieras obtener los mismos resultados gastando solo unos pocos miles?
A esto se le llama Destilación de Modelos o “clonación”. Los atacantes no roban el código fuente (que está blindado), sino que “interrogan” a la IA de forma masiva. Al analizar 100.000 respuestas ante preguntas estratégicamente diseñadas, los hackers pueden entrenar un modelo “estudiante” mucho más pequeño y barato que imita casi a la perfección el comportamiento del “maestro” de Google.
La técnica del “Reasoning Trace Coercion”
Lo más impactante de las noticias de hoy es que los atacantes no buscaban datos simples. Querían el razonamiento.
“Los hackers forzaron a Gemini a mostrar sus pasos lógicos internos, dándole instrucciones para que su ‘pensamiento’ fuera coherente en idiomas específicos no ingleses. Es, literalmente, intentar copiar la forma en que una máquina piensa.”
Radiografía del Ataque: 100.000 “Prompts” contra la muralla de Google
Según los datos filtrados hoy, la campaña no fue obra de un adolescente aburrido en su sótano. Se trata de una operación a escala industrial que ha puesto en jaque los términos de servicio de Google.
¿Quiénes están detrás?
El informe de Google apunta a tres frentes:
- Actores estatales: Grupos vinculados a Corea del Norte (UNC2970) e Irán (APT42) que usan la IA para acelerar la creación de malware.
- Empresas del sector privado: Compañías que buscan una ventaja competitiva “clonando” las capacidades de razonamiento de Gemini para sus propios productos sin pagar las licencias de API.
- Investigadores “Grey Hat”: Que buscan demostrar vulnerabilidades en la arquitectura de los LLM (Large Language Models).
👉Si te interesa aprender sobre la IA dirígete a mi reseña completa y haz click aquí
¿Cómo afecta esto a la seguridad de tus datos?
Aquí viene la parte donde bajamos a tierra. Aunque Google afirma que este ataque no compromete directamente los datos personales de los usuarios, sí abre una puerta peligrosa.
Si un atacante logra clonar la lógica de Gemini, puede crear versiones maliciosas de la IA que parezcan legítimas. De hecho, hoy mismo se ha detectado una red de estafadores usando un “Gemini falso” para vender una criptomoneda inexistente llamada “Google Coin”.
- Malware de nueva generación: Se han identificado familias de virus como HONESTCUE, que se conectan directamente a la API de Gemini para generar código malicioso en tiempo real, mutando para evitar ser detectados por los antivirus tradicionales.
- Phishing hiper-realista: Con la lógica robada, los hackers pueden generar correos de suplantación de identidad que imitan perfectamente el tono y la estructura de comunicación de servicios oficiales.
La respuesta de Google: Blindaje y contraataque
Google no se ha quedado de brazos cruzados. Hoy se ha confirmado que han implementado defensas proactivas en tiempo real:
- Filtros de “huella digital” en prompts: El sistema ahora detecta patrones de consulta repetitivos que sugieren un intento de extracción.
- Ofuscación del razonamiento: Gemini ha dejado de mostrar ciertos pasos lógicos en las respuestas de la API para evitar que sean recolectados por bots.
- Cierre de infraestructuras: Se han desactivado miles de cuentas vinculadas a estas redes de automatización.
Conclusión: ¿El fin de la IA abierta?
Este ataque de 100.000 consultas marca un antes y un después. Si las grandes tecnológicas no pueden proteger su propiedad intelectual, es muy probable que veamos un cierre de las APIs y un aumento en los precios de los servicios de IA.
La lección de hoy, 18 de febrero, es clara: en 2026, la información no es el único tesoro; la lógica es el nuevo oro.
👉Si te interesa aprender sobre la IA dirígete a mi reseña completa y haz click aquí
