Google alerta: La IA, un arma de doble filo en manos de ciberdelincuentes

Google Threat Intelligence Group revela cómo ciberdelincuentes usan la IA para phishing avanzado y espionaje, y detalla sus defensas ante estas nuevas amenazas.

Cristian Do Carmo Rodríguez
12 de feb. de 2026
3 min de lectura
GoogleAvanzadoPrivacidadSeguridadNuevas tecnologíasInteligencia Artificial
Photo by Towfiqu barbhuiya / Unsplash

La inteligencia artificial (IA) ha revolucionado numerosos sectores, y como suele ocurrir con toda tecnología potente, no ha tardado en captar la atención de aquellos con intenciones maliciosas. El Google Threat Intelligence Group (GTIG), el grupo de inteligencia de amenazas de Google, ha estado vigilando de cerca este panorama y ha emitido un aviso claro: la IA ya es una herramienta más en el arsenal de los ciberdelincuentes.

Nuevas tácticas de ataque con IA

Según el reciente informe del GTIG, en los últimos meses se ha observado cómo actores de amenazas están utilizando la IA para:

  • Recopilación de información: La IA permite procesar y analizar vastas cantidades de datos para identificar objetivos, vulnerabilidades o patrones de comportamiento de forma mucho más eficiente.
  • Creación de campañas de phishing hiperrealistas: Gracias a la IA generativa, es posible crear textos, imágenes y audios que imitan a la perfección comunicaciones legítimas, haciendo que los intentos de phishing sean casi indistinguibles de los originales y, por tanto, mucho más efectivos. Adiós a las erratas que nos salvaban antes.
  • Desarrollo y mejora de malware: La IA puede asistir en la escritura de código malicioso, en la evasión de sistemas de detección o incluso en la adaptación de los ataques a las defensas de un objetivo concreto, aumentando la sofisticación y la tasa de éxito de los programas maliciosos.

Aunque el informe señala que aún no se han detectado ataques directos a modelos fronterizos o productos de IA generativa por parte de grupos APT (Actores de Amenazas Persistentes Avanzadas), la evolución de estas tácticas es un claro indicador de hacia dónde se dirige la ciberdelincuencia.

a computer generated image of the letter a
Photo by Steve Johnson / Unsplash

La amenaza emergente

Más allá del uso de la IA para facilitar ataques tradicionales, el GTIG ha detectado y mitigado con frecuencia un tipo de amenaza más sutil pero igualmente dañina: los ataques de extracción de modelos. Esto es puro espionaje corporativo.

¿Qué son?

Se trata de intentos de extraer o replicar la funcionalidad y el conocimiento de un modelo de IA propiedad de una empresa. Es como si alguien intentara "copiar" la inteligencia de un producto sin tener acceso directo a su código fuente o datos de entrenamiento.

¿Quiénes los realizan?

Curiosamente, estos ataques han sido observados principalmente por parte de entidades del sector privado de todo el mundo, lo que apunta a una intensa competencia y a un deseo de obtener ventajas competitivas a través de medios ilícitos.

¿Por qué son importantes?

Para cualquier empresa que invierta en el desarrollo de modelos de IA, la extracción de estos modelos representa una pérdida de propiedad intelectual, una ventaja competitiva diluida y un riesgo potencial si el modelo robado se utiliza de forma perjudicial. Google advierte que otras empresas con modelos de IA se enfrentarán probablemente a esta amenaza en un futuro muy cercano.

La respuesta de Google

Ante este panorama, Google no se ha quedado de brazos cruzados. La compañía ha tomado diversas acciones para proteger a sus usuarios y fortalecer su infraestructura.

Acciones concretas

El informe no solo detalla las observaciones, sino también las contramedidas adoptadas:

  • Publicación del informe: Compartir esta información vital con la comunidad de ciberseguridad y el público en general es crucial para concienciar sobre las nuevas amenazas.
  • Desactivación de cuentas maliciosas: Google ha deshabilitado las cuentas asociadas a actividades maliciosas, interrumpiendo directamente las operaciones de los ciberdelincuentes.
  • Refuerzo de controles de seguridad: La compañía ha fortalecido sus propios controles de seguridad para detectar y prevenir de manera más eficaz este tipo de ataques.
  • Mejoras en modelos Gemini: Los modelos de IA de Google, como Gemini, han sido mejorados específicamente para resistir el uso indebido y los intentos de extracción, garantizando que su potencia se utilice para el bien.

Estas acciones demuestran el compromiso de Google no solo con la seguridad de sus propios productos y usuarios, sino también con la seguridad del ecosistema de la IA en general. La ciberseguridad es una carrera armamentística constante, y la aparición de la IA como vector de ataque y defensa añade una nueva capa de complejidad.

a sign with a question mark and a question mark drawn on it
Photo by Nahrizul Kadri / Unsplash

¿Qué implica esto para el futuro de la IA?

El informe del GTIG subraya la necesidad de una vigilancia constante y una inversión continua en ciberseguridad en la era de la IA. Las empresas que desarrollan o utilizan modelos de inteligencia artificial deben ser conscientes de los riesgos, especialmente los de extracción de modelos, y prepararse para defenderse de ellos. La colaboración entre la industria, los investigadores y los gobiernos será clave para construir un futuro digital seguro, donde la IA pueda prosperar sin ser comprometida por actores maliciosos.

Mantenerse informado es el primer paso. Para aquellos que quieran profundizar, el informe completo está disponible en el blog de Google Cloud Threat Intelligence.