OpenAI tiene un problema de seguridad con los GPTs de ChatGPT y su parche todavía no lo ha solucionado, según este investigador

Vigilar tus palabras con ChatGPT es una buena idea, pero si además usas GPTs de terceros, con más razón todavía

Aunque ChatGPT tiene capacidad para ahorrarte mucho tiempo y que dispares tu productividad, la realidad es que hay que tener cuidado con la información que le das. De hecho, un buena práctica de seguridad es no contarle datos que no quieres que lleguen a otras personas... algo que la plantilla de Samsung aprendió a las malas. Pero no solo es cuestión de que el modelo de IA de OpenAI se entrene con nuestros chats (salvo que lo configures para que no guarde tu historial) o la gran cantidad de datos que recopila, es que las brechas de seguridad acaecidas en los últimos meses se han traducido en que información sensible llegue a terceros. Y parece que ni siquiera los parches de seguridad de ChatGPT lanzados posteriormente lo han solucionado completamente.

Según un informe de Bleeping Computer del que se hace eco Mashable, OpenAI habría liberado una solución para un problema de ChatGPT según el cual filtraba datos de usuarios a terceros no autorizados. Entre los datos al alcance de personas ajenas se incluirían chats y sus correspondientes metadatos,  como la identificación del usuario y otra información más de la sesión.

Sin embargo Johann Rehberger, investigador de seguridad que descubrió esta vulnerabilidad detallando cómo funcionaba, parece ser que todavía existen agujeros en este parche. A modo de resumen: que el fallo de seguridad sigue activo.

Lo que se sabe de la filtración de datos de ChatGPT

La clave está en los nuevos y personalizados GPT que OpenAI lanzó hace unas semanas y que permiten que usuarios y usuarias creen sus propios GPTs para comercializarlos después en la GPT Store,  una tienda de aplicaciones de inteligencia artificial al estilo Google Play Store o App Store.  Así, Rehberger pudo aprovechar esta función de GPTs para crear la suya, capaz de filtrar datos de ChatGPT valiéndose de esta brecha, algo que también podrían replicar otras personas con el objetivo de robar información confidencial.

Según el investigador de seguridad, se puso en contacto con OpenAI por esta técnica de 'exfiltración de datos' primero en abril y luego en noviembre, proporcionando información adicional sobre cómo pudo crear un GPT personalizado con este proceso. Hace unos días Rehberger publicaba una actualización en su web detallando que OpenAI había parcheado esta vulnerabilidad que produce filtraciones y que 'aunque el parche no es perfecto, es un paso en la dirección adecuada'.

El motivo por el que la solución no es perfecta es que según el investigador, ChatGPT todavía está filtrando datos a través de la vulnerabilidad. Es decir, que todavía se puede engañar al modelo para que envíe datos. Rehberger habla de pruebas rápidas que demuestren que se pueden robar fugas, o lo que es lo mismo, que se filtran pequeñas cantidades de información y además 'es lento y más perceptible para el usuario'.

Aunque este parche vaya en la buena dirección, todavía tiene margen de mejora según estos indicios y ojo porque este fallo de seguridad sigue presente en las aplicaciones de ChatGPT para iOS y Android, que aún no se han actualizado. Así que uses el modelo de OpenAI en tus dispositivos móviles o en tu ordenador, mejor extremar precauciones con la información proporcionada si usas GPTs de terceros.

Portada | Foto de Matheus Bertelli en Pexels

En Genbeta | Haz tu vida más fácil con estas 11 formas de usar ChatGPT en el día a día

Ver todos los comentarios en https://www.genbeta.com

VER 0 Comentario

Portada de Genbeta