Los asistentes de IA han llegado a las manos de todo el mundo irrumpiendo en nuestras vidas y cambiando muchas dinámicas del día a día. Con el lanzamiento de ChatGPT por parte de OpenAI, otras grandes empresas de software como Google o Microsoft se han apresurado a tener listas sus soluciones de Inteligencia Artificial cuanto antes... y eso ha llegado de la mano de bastantes problemas que hemos ido reportando.
Ahora, unos investigadores han descubierto un gravísimo problema de seguridad que deja al descubierto las "conversaciones" y preguntas que los usuarios hacen a las IA.
Hace apenas unos días veíamos cómo, en un intento muy simplón por ser inclusivos, Gemini, una nueva IA de Google se inventaba la historia. Esto levantó muchas polémicas porque este sesgo solo serviría para borrar la historia de la discriminación racial y de discriminación de género que nos precede y que marca muchos desafíos que muchas personas aún viven hoy en día por estos temas. Google tuvo que pausar su IA.
Tú puedes preguntarle lo que quieras a una herramienta de inteligencia artificial y pueden ser cosas muy privadas. Cualquiera puede confesarle una preocupación a un ChatGPT o similar, en forma de duda, para conseguir respuestas y en ocasiones pueden ser temas confidenciales.
Por ese motivo, las "conversaciones" entre personas y las inteligencias artificiales varias deberían estar muy protegidas y los mismos proveedores de estos servicios de chat impulsados por IA tienen medidas (principalmente el cifrado de extremo a extremo, según dicen empresas como OpenAI) para evitar problemas de privacidad.
Sin embargo, un grupo de investigadores ha descubierto un ataque que descifra las respuestas del asistente de IA "con una precisión sorprendente", como recoge Ars Technica. En esta investigación que vamos a mostrar aquí se ve que esa técnica funciona con todas las IA conocidas, menos con Google Gemini. En principio, por la complejidad para llegar a esta información desde la publicación hablan de que sería tarea de hackers y no de cualquier usuario.
Cómo funciona este enorme fallo de seguridad
La técnica aprovecha un canal lateral presente en todos los principales asistentes de inteligencia artificial, "a excepción de Google Gemini". Luego, dicen las conclusiones, refina los resultados bastante brutos a través de grandes modelos de lenguaje especialmente entrenados para la tarea. El resultado: alguien podría descubrir el tema específico del 55% de todas las respuestas capturadas, generalmente con alta exactitud.
En resumen, que "actualmente, cualquiera puede leer chats privados enviados desde ChatGPT y otros servicios", escribió en un correo electrónico Yisroel Mirsky, jefe del Laboratorio de Investigación de IA de la Universidad Ben-Gurion. “Esto incluye actores maliciosos en la misma red Wi-Fi o LAN que un cliente (por ejemplo, si dos personas están conectadas en la misma cafetería), o incluso un actor malicioso en Internet.
Según el investigador, "el ataque es pasivo y puede ocurrir sin el conocimiento de OpenAI o de su cliente. OpenAI cifra su tráfico para evitar este tipo de ataques de escucha, pero nuestra investigación muestra que la forma en que OpenAI utiliza el cifrado es defectuosa y, por lo tanto, el contenido de los mensajes queda expuesto”.
En el siguiente gráfico se puede ver qué servicios de qué proveedores tienen este fallo de seguridad y en qué modelos, según información sacada de la propia investigación:
"Para realizar el ataque, debemos encontrar la respuesta. Para lograr esto, filtramos el tráfico en función del servidor direcciones IP conocidas y del protocolo utilizado por el proveedor. Por ejemplo, para apuntar a ChatGPT, buscamos tráfico UDP. Buscando QUIC, y para Bing Copilot buscamos tráfico TCP llevando TLS", son las palabras de los investigadores en la presentación de su estudio en la página seis.
En Genbeta | Los expertos avisan que la IA puede terminar colapsando: sus datos están siendo contaminados por otras IA
Ver 1 comentarios