España pone en cintura a la IA: Nuevas reglas que nos afectarán a todos

Este anteproyecto adaptará la legislación española al reglamento europeo de IA, que ya está en vigor, y además incluye un entorno controlado de pruebas (sandbox) para ayudar a las empresas a cumplir la normativa.

IA bajo control: lo que NO se podrá hacer

A partir del 2 de agosto de 2025, la IA que juegue sucio podrá recibir sanciones millonarias. Aquí van algunas de las prácticas prohibidas que han pasado a la lista negra:

  • Manipulación subliminal: Nada de mensajes ocultos para empujarnos a hacer cosas que no queremos, como gastar más dinero o caer en adicciones.
  • Explotación de vulnerabilidades: Adiós a los sistemas que se aprovechan de la edad, la discapacidad o la situación económica de las personas.
  • Clasificación biométrica dudosa: No se podrá categorizar a las personas por raza, orientación política, religiosa o sexual.
  • Puntuación social: Se acabaron los sistemas estilo "Black Mirror" que deciden si eres digno de un préstamo o de una ayuda social según tu comportamiento.
  • Predicción de delitos: No más "Minority Report". La IA no podrá decidir si alguien es propenso a cometer delitos solo por su historial familiar o su código postal.
  • Espionaje emocional: Nada de evaluar a empleados o estudiantes según sus emociones, salvo en casos de seguridad o salud.

Las multas para quienes infrinjan estas normas pueden llegar hasta 35 millones de euros o el 7% del volumen de negocio mundial de la empresa infractora. Para las pymes, habrá un criterio más flexible.

¿Qué sistemas de IA se consideran de alto riesgo?

El reglamento también mete en cintura a los sistemas que, sin ser directamente ilegales, pueden poner en peligro la seguridad y los derechos de las personas. Se vigilarán de cerca las IA utilizadas en:

Industria y transporte: Desde ascensores hasta coches autónomos, pasando por equipos médicos o juguetes inteligentes.
Biometría e infraestructuras críticas: Sistemas de reconocimiento facial o control de accesos a instalaciones sensibles.
Educación y empleo: IA usada para evaluar estudiantes o decidir contrataciones.
Servicios financieros: Sistemas de IA que deciden si te dan un crédito o te suben el seguro.
Justicia y democracia: Algoritmos que afectan a procesos judiciales o electorales.

Si estos sistemas fallan en cumplir con las normas de transparencia, supervisión humana y gestión de riesgos, se enfrentarán a sanciones que van desde los 500.000 euros hasta los 15 millones de euros.

Además, cualquier contenido generado por IA (deepfakes incluidos) deberá estar correctamente etiquetado para que nadie se lleve una sorpresa al ver a alguien diciendo o haciendo algo que nunca hizo.

España, pionera en pruebas de IA

España se ha adelantado a la normativa europea con su propio sandbox de IA, un espacio de pruebas donde las empresas pueden desarrollar y testear sistemas de alto riesgo antes de lanzarlos al mercado. En diciembre se seleccionaron 12 proyectos, que durante un año estarán bajo la lupa de los expertos para garantizar que cumplen con la normativa.

IA sí, pero con cabeza

Con esta nueva ley, el Gobierno quiere que la IA siga siendo una herramienta y no un problema. Se trata de aprovechar su potencial sin que se convierta en un riesgo para la privacidad, la seguridad o los derechos humanos.

Así que sí, podremos seguir usando asistentes de voz, IA generativa y demás avances, pero con la tranquilidad de que no nos estarán manipulando en la sombra. El futuro es de la IA, pero con normas claras.