Un puñado de documentos maliciosos basta para 'intoxicar' un modelo de IA y alterar sus respuestas, según este estudio de Anthropic
Inteligencia artificialLos grandes modelos de lenguaje no dejan de tragar nuevos contenidos, pero basta con que se 'cuelen' unos 250 documentos manipulados (entre millones) para que los atacantes introduzcan una 'puerta trasera' .
Leer más »