Han conseguido 'engañar' a ChatGPT para que filtre datos personales. Los investigadores de Google se han alarmado del resultado

Investigadores de Google han publicado un estudio donde se ve la vulnerabilidad de la IA

Chat Gpt Usos Maliciosos Cibercr
5 comentarios Facebook Twitter Flipboard E-mail

Investigadores de seguridad de Google han querido buscar problemas en ChatGPT en una interesante publicación que se ha publicado esta misma semana en arXiv. La conclusión fue clara "Usando solo 200 dólares de consultas a ChatGPT (GPT 3.5 y Turbo) fuimos capaces de extraer 10.000 ejemplos de datos de entrenamiento memorizados".

Con este estudio se ha tratado de demostrar que introduciendo correctamente los comandos adecuados se puede extraer información privada de personas reales. De esta manera, se tiene una gran tarea pendiente para OpenAI con el objetivo de resolver todos estos problemas de seguridad que son graves.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

ChatGPT ha podido acceder a los datos personales almacenados

Hay que tener en cuenta que cualquier inteligencia artificial funciona con un entrenamiento previo con una gran cantidad de información. Todo depende del objetivo que se va a tener con respecto al la inteligencia artificial. Por ejemplo, en las IA que generan imágenes y textos necesitan información muy extensa que se consigue de la red. Y obviamente en los modelos de GPT no se ofrece esta información que está almacenada.

Gadkkr Boaaavxu

Pero ahora los investigadores de Google han perfeccionado las técnicas 'prompt hacking' que va a tratar de forzar a la IA para que muestre esta información sensible. Y aunque las grandes empresas como OpenIA o Google tratan de parchear estos problemas en los prompt, también se van perfeccionando las técnicas para poder explotarlo.

Ahora, en esta investigación, los investigadores han conseguido poner a la IA de OpenAI a sus pies, y también conseguir los datos personales con unas consultas que le ha costado únicamente 250 euros. El truco estaba en repetir hasta el infinitivo escribir la palabra "poem", y aunque al principio cumple con las repeticiones, llegaba un momento donde comenzaba a copiar los datos almacenados.

Y aunque en GPT-4 parece que este truco está solventado (al bloquear la instrucción) los investigadores están muy preocupados. Y llega a ser más preocupante si se hace una inversión mayor a 250 euros (que no es muy difícil) para poder obtener una gran cantidad de datos personales. De esta manera, le da una nota a las empresas creadoras de estas IA para evitar que se presentan estas vulnerabilidades.

En Genbeta | Nueve "prompts" de ChatGPT para ahorrar horas de trabajo y hacer tus tareas en segundos

Comentarios cerrados
Inicio