AEPD advierte de riesgos ocultos y visibles del uso de imágenes con IA

La AEPD ha realizado un comunicado sobre los riesgos de usar imágenes de terceros con IA. Analiza desde deepfakes y sexualización hasta la pérdida de control de datos. Es crucial para un uso responsable.

Cristian Do Carmo Rodríguez
20 de ene. de 2026
3 min de lectura
AvanzadoPrivacidadSeguridadNuevas tecnologíasInteligencia Artificial
Photo by Nahrizul Kadri / Unsplash

La Inteligencia Artificial (IA) ha revolucionado muchos aspectos de nuestra vida, y uno de los campos donde más se ha notado su impacto es en la manipulación y generación de imágenes. Sin embargo, esta tecnología, accesible a muchos, no está exenta de riesgos.

La Agencia Española de Protección de Datos (AEPD) ha publicado recientemente una nota informativa, que pone el foco precisamente en las implicaciones y peligros que conlleva el uso de imágenes de terceros en sistemas de IA. Un documento que busca concienciar y sentar las bases para un uso más responsable de estas herramientas.

¿Qué dice la AEPD?

La Agencia ha emitido una guía detallada donde desglosa los diferentes escenarios de riesgo asociados al empleo de fotografías o vídeos de otras personas en aplicaciones de IA. No hablamos solo de herramientas complejas o de uso profesional; incluso en contextos aparentemente inofensivos o lúdicos, existen implicaciones significativas para la privacidad y los derechos fundamentales de las personas.

a cell phone sitting on top of a laptop computer
Photo by Aidin Geranrekab / Unsplash

Los riesgos más evidentes de la IA con imágenes

Este apartado se centra en aquellos peligros que surgen al generar y, sobre todo, al difundir imágenes de terceros creadas o modificadas por IA. Son situaciones que pueden tener un impacto directo y muy grave en la vida de las personas afectadas.

Contenido íntimo sintético y sexualización

Uno de los peligros más alarmantes es la creación de imágenes de contenido sexual explícito o íntimo de una persona sin su consentimiento, atribuyéndole actos o situaciones que nunca han ocurrido. Esto incluye la sexualización de la imagen de individuos.

Daño reputacional y descontextualización

La IA puede generar imágenes o vídeos verosímiles que atribuyen a una persona hechos, conductas o declaraciones falsas. Esto puede acarrear un grave perjuicio para su honor, reputación e incluso su vida personal y profesional. También se destaca la descontextualización de imágenes reales, usándolas para transmitir un mensaje diferente al original.

Menores y personas vulnerables

Existe un especial riesgo en el uso de imágenes de menores de edad o de personas en situación de especial vulnerabilidad. Cualquier manipulación o difusión en estos casos multiplica exponencialmente el potencial de daño.

Peligros ocultos: lo que ocurre tras la subida

Más allá de lo que se genera y se difunde, la AEPD advierte sobre los riesgos menos visibles, que se producen por el simple hecho de subir una imagen o un vídeo a un sistema de IA, aunque el resultado final no llegue a publicarse. Al utilizar estas plataformas, a menudo estamos cediendo un control que no siempre somos conscientes de perder.

a person's head with a circuit board in front of it
Photo by Steve Johnson / Unsplash

Pérdida efectiva de control y copias invisibles

Una vez que subimos una imagen a una plataforma de IA, perdemos el control sobre ella. El proveedor tecnológico puede retenerla, generar copias que no son visibles para el usuario e incluso utilizarla para entrenar sus modelos de IA, con consecuencias imprevisibles a largo plazo.

La cadena de actores y los metadatos

El proceso no es lineal. Intervienen múltiples actores (el usuario, la plataforma, los desarrolladores del modelo, etc.), lo que complica el rastro de la imagen. Además, se pueden generar metadatos que, aunque no parezcan relevantes, pueden ser clave para la identificación persistente de una persona en diferentes contextos y contenidos generados por IA.

¿Cuándo interviene la Agencia Española de Protección de Datos?

La AEPD aclara los límites de su actuación, especialmente en ámbitos personales o domésticos. No obstante, presta una atención prioritaria a los supuestos en los que el uso de imágenes mediante IA incrementa significativamente los riesgos para el individuo afectado.

Esto ocurre, por ejemplo, cuando hay una pérdida evidente de control sobre la propia imagen, se crean contenidos falsos pero verosímiles, se implican a menores o personas vulnerables, se introducen elementos de sexualización, humillación o descrédito, o cuando los contenidos se difunden en entornos donde el impacto personal, social o profesional puede ser demoledor.

Más allá de la protección de datos: implicaciones legales

Es fundamental recordar que, además de la normativa de protección de datos, estas acciones pueden afectar a otros derechos fundamentales como el honor, la intimidad y la propia imagen, regulados por otras leyes. En los casos más graves, cuando existan indicios claros de un delito, la situación iría más allá de las competencias de la AEPD. Serían las autoridades policiales, la Fiscalía y los órganos judiciales quienes tendrían la potestad para investigar y perseguir penalmente estos hechos, pudiendo aplicarse incluso el Código Penal.


La AEPD no solo busca informar, sino también fomentar un uso consciente y ético de la Inteligencia Artificial. En un mundo donde la tecnología avanza a pasos agigantados, la concienciación y la responsabilidad individual son herramientas clave para proteger nuestros derechos y los de los demás.