Usan sin permiso chats reales para entrenar un chatbot y tienen que retirarlo por mensajes de odio y filtrar datos personales
ActualidadNo es un caso equivalente al del bot Tay de Microsoft: aquí los usuarios no estaban intentando boicotear la formación del bot, sino hablando con sus propias parejas.
Leer más »