Caitlin Roper, una activista australiana, lleva años acostumbrada a la toxicidad en internet. Sin embargo, este año se encontró con un nivel de amenazas que la dejó traumatizada. Entre los mensajes recibidos había imágenes de ella colgada de una soga o envuelta en llamas, con un realismo perturbador. Algunas incluso mostraban detalles precisos, como un vestido azul con flores que realmente posee.
Según define en un reportaje del New York Times, "esos pequeños detalles hacen que se sienta más real y, de algún modo, sea un tipo de violación diferente. Esto puede convertir la fantasía en algo más que fantasía".
La IA trae mucho bueno, pero también potencia malo. La tecnología generativa permite imitar voces, crear deepfakes sin consentimiento y producir contenido violento que puede parecer dirigido específicamente a la víctima.
Las amenazas digitales han existido desde siempre, pero ahora son más fáciles de producir y más persuasivas. En 2023, un juez en Florida recibió un video, probablemente generado con una herramienta de personalización de personajes de Grand Theft Auto 5, en el que un avatar que se parecía a él era hackeado y asesinado. Más recientemente, se identificaron canales de YouTube con decenas de videos hiperrealistas de mujeres siendo atacadas, muchos de ellos aparentemente generados por IA. Esos canales solo se cerraron cuando el NYT les contactó preguntando por los vídeos.
Una cuestión trivial. Hasta hace poco, la clonación digital de personas requería muchas imágenes públicas, y gracias a ello se consiguieron hacer los deepfakes sexuales de famosas. Hoy, basta con una sola foto. Lo mismo ocurre con las voces: lo que antes requería horas de muestras, ahora puede lograrse con menos de un minuto de grabación.
Preocupación con Sora. Según la investigación, la app de OpenAI ya ha sido utilizada para crear instrucciones detalladas de crímenes. OpenAI asegura que implementa “guardrails” y sistemas de moderación automática. Sin embargo como Alice Marwick, directora de investigación en Data & Society, no lo ven igual: consideran que estas medidas se pueden eludir fácilmente.
Roper, la activista, relaciona parte de los ataques recibidos con su campaña contra videojuegos que normalizan la violencia sexual. Algunas imágenes fueron retiradas de X, pero la plataforma permitió que otras permanecieran e incluso llegó a sugerirle seguir cuentas de sus acosadores. Las mejoras de su nueva y potentísima versión tampoco tranquilizan.
Swatting. La IA también ha sido utilizada en ataques de llamadas falsas a emergencias para provocar una respuesta policial masiva en la casa de una persona inocente. Gracias a la tecnología, estos ataques son ahora más precisos, convincentes y anónimos, lo que dificulta la labor de las autoridades.
Brian Asmus, experto en seguridad escolar, apunta a lo siguiente: "¿Cómo responde la policía a algo que no es real? Todavía no hemos encontrado la manera de adelantarnos a esto". Sí, 'Minority Report' aún no está aquí. Sin duda, todo esto plantea nuevas necesidad seguridad en Internet y fuera, aunque ya sabemos qué ideas aparecen cuando se relaciona la tecnología con problemas que existirían de cualquier forma.
Imagen | MeSSrro en Unsplash