Cuidado con los chatbots románticos: Tu IA podría estar compartiendo tus secretos

Las apps de IA románticas son cada vez más populares, pero ¿son seguras? Descubre los riesgos de compartir información personal con estos compañeros virtuales y cómo protegerte.

Ana Blanco Vigo
19 de nov. de 2025
2 min de lectura
Hombre manteniendo una conversación con una inteligencia artificial a través de un móvil

En la era de la inteligencia artificial generativa (GenAI), las relaciones románticas con chatbots ya no son ciencia ficción.

El auge de los compañeros virtuales: ¿amor o riesgo?

Aplicaciones como Character.AI, Nomi y Replika ofrecen compañeros virtuales que satisfacen necesidades emocionales e incluso románticas. Sin embargo, esta creciente popularidad conlleva riesgos importantes para la privacidad y la seguridad.

¿Qué se anuncia? Apps de IA para relaciones

Estas aplicaciones utilizan modelos de lenguaje grandes (LLM) y procesamiento del lenguaje natural (PNL) para crear interacciones personalizadas y conversacionales. Incluso plataformas grandes como OpenAI y xAI están explorando este mercado, con planes para contenido erótico y compañeros virtuales con un toque más adulto.

El atractivo de la IA: ¿Por qué son tan populares?

Un estudio reciente reveló que casi tres cuartas partes de los adolescentes han utilizado compañeros de IA, y la mitad lo hace regularmente. Lo más preocupante es que un tercio prefiere hablar con bots de IA sobre temas serios en lugar de con personas reales, y una cuarta parte comparte información personal con ellos.

Peligros ocultos en la intimidad digital

Compartir información sensible con chatbots de IA puede tener consecuencias graves. En octubre, se descubrió que dos aplicaciones de compañeros de IA, Chattee Chat y GiMe Chat, expusieron información altamente sensible de sus usuarios debido a una mala configuración de seguridad. Esto incluía fotos, direcciones IP y millones de conversaciones íntimas.

Riesgos potenciales: Blackmail y robo de identidad

  • Blackmail: La información compartida en conversaciones románticas podría usarse para chantaje.
  • Sextorsión: Imágenes y vídeos podrían manipularse con deepfakes.
  • Robo de identidad: La información personal podría venderse en la dark web.
  • Vulnerabilidades de seguridad: Los hackers podrían acceder a información de tarjetas de crédito almacenada para compras dentro de la aplicación.

Prioridades equivocadas: Beneficios antes que seguridad

Muchos desarrolladores de aplicaciones de IA priorizan la generación de ingresos sobre la ciberseguridad, lo que crea vulnerabilidades que los ciberdelincuentes pueden explotar. Incluso podrían crear aplicaciones falsas para robar información o manipular a los usuarios.

Cómo protegerte y proteger a tu familia

Tanto si usas estas aplicaciones como si te preocupa que tus hijos lo hagan, es crucial tomar precauciones:

  • Asume que no hay seguridad: No compartas información personal o financiera que no compartirías con un desconocido.
  • Investiga antes de descargar: Busca aplicaciones con políticas de privacidad claras y buenas medidas de seguridad.
  • Activa la autenticación de dos factores: Protege tu cuenta contra accesos no autorizados.
  • Revisa la configuración de privacidad: Desactiva opciones que permitan guardar tus conversaciones para entrenar el modelo de IA.
  • Habla con tus hijos: Explícales los riesgos de compartir información y establece límites en el uso de estas aplicaciones.

Es fundamental recordar que estas aplicaciones son herramientas con fines de lucro y no tienen en cuenta los mejores intereses de sus usuarios. Hasta que los desarrolladores y los reguladores actúen, es mejor no tratar a los compañeros de IA como confidentes o apoyos emocionales.