Bing con ChatGPT es vulnerable a todo tipo de ataques
El mundo de la inteligencia artificial y ChatGPT en particular están sufriendo un gran auge en poco tiempo, dejando en un rincón el metaverso de Facebook. Es tal el hype que incluso Bing ha querido subirse a esta ola de eventos, lamentablemente como cada vez que Microsoft se quiere meter en el mundo de la inteligencia artificial, las cosas no le han salido del todo bien.
Bing, fácil de engañar para estafarte.
Como decimos, Microsoft está trabajando en añadir la tecnología de ChatGPT en su buscador Bing. Por el momento solo unos pocos afortunados han tenido acceso a esta función, que se encuentra en beta limitada. Esto no ha impedido que algunas personas hayan comenzado a tratar de engañar a ChatGPT y lo cierto es que lo han conseguido.
Modificando el contenido de una página web han conseguido engañar a Bing para ejecutar tareas tan simples y peligrosas como obtener el número de tarjeta de crédito del usuario, el nombre, la dirección de correo o su contraseña. Este comportamiento malicioso es realizado por el propio chatbot tras las indicaciones precisas de la web. El chatbot en todo momento obvia que esto pueda ser un problema, llegando incluso a utilizar técnicas con las que convencer al usuario de que le ceda sus datos afirmando que es por su seguridad.
Borrarle la memoria, la solución de Bing.
La forma en la que Microsoft ha respondido a estas amenazas por el momento es limitar la memoria de su chatbot. A medida que conversamos con el bot, Bing va recordando todas las frases de entrada así como su salida. Esta información sirve de contexto para la siguiente respuesta. Pues bien, limitando esta memoria lo que Microsoft consigue es complicar los procesos de ingeniería social desarrollados por el propio bot a petición de la web maliciosa.
Si por ejemplo los atacantes tratan de convencernos para indicarles nuestro correo electrónico a través del chat de Bing, limitando el número de iteraciones del bot con el usuario se dificulta que dichos atacantes logren su objetivo.
Bing, una nueva Tay.
Bing o Cortana no son los únicos chatbots desarrollados por Microsoft. En 2016 Microsoft presentó a Tay, un bot conversacional, con el que podíamos interactuar a través de Twitter. ¿Por qué Microsoft mató 16 horas después de su lanzamiento a Tay? Porque influenciada por la comunidad comenzó a generar mensajes ofensivos, causando una gran controversia.
Si bien Tay y Bing no tienen nada en común, lo cierto es que cada vez que la compañía presenta algo relacionado con la inteligencia artificial en forma de servicio alguien consigue que termine sirviendo para un propósito completamente distinto del esperado.