China tiene un plan para evitar que los chatbots de IA manipulen emociones. Incluso proponen derivar la conversación a humanos

China acaba de presentar un plan para regular los chatbots de IA y que no manipulen las emociones. Un planteamiento curioso es que si se habla de suicidio, la IA no sirve, hay que contactar con humanos. 

Bárbara Bécares

Editor

China planea restringir que los chatbots con inteligencia artificial influyan en las emociones humanas de maneras que puedan llevar al suicidio o la autolesión o incluso a apostar en juegos de azar, según un borrador de las normas que se han hecho públicas esta semana. 

Las regulaciones propuestas por la Administración del Ciberespacio para los denominados "servicios interactivos de IA con características humanas", según una traducción de CNBC del documento en chino, pretende desarrollar medidas para aplicarlas en el futuro a los productos o servicios de IA ofrecidos al público. Por ahora es un borrador y se espera lanzar la normativa más adelante. Ahora se reciben comentarios públicos hasta el 25 de enero.

Hace unos días veíamos cómo un apagón en San Francisco demostró que cuando hay problemas, los coches autónomos necesitan de la intervención humana para salir del caos; también hemos recogido historias de gente que se gana la vida arreglando problemas causados por la IA... y ahora tenemos que en China, si una persona tiene un tema delicado que tratar, el plan será exigir que una persona tome las riendas de la conversación. 

Un vistazo a…
CHAT GPT-4 en 4 MINUTOS

Regular la IA que parece humana pero no lo es

Los chatbots, al estilo de ChatGPT tan usado en Europa o del reconocido DeepSeek de China, que simulan la personalidad humana e involucran emocionalmente a los usuarios a través de texto, imágenes, audio o video... pueden tener muchas consecuencias negativas. 

Al fin y al cabo no son personas expertas en la psicología humana, sino máquinas entrenadas con millones de datos varios. Ya hay casos de suicidios de adolescentes incitados por una IA e incluso han demandado a OpenAI por este motivo. 

Las normas planificadas por Pekín marcarían el primer intento mundial de regular la IA con características humanas o antropomórficas, tal y como ha explicado Winston Ma, profesor adjunto de la Facultad de Derecho de la Universidad de Nueva York. El oaís tiene una regulación para la IA generativa del año 2023,pero según el experto esta versión "marca un salto de la seguridad del contenido a la seguridad emocional". 

Las normas, publicadas el sábado para consulta pública por la Administración del Ciberespacio de China (CAC), exigirían a los proveedores notificar claramente a los usuarios que están interactuando con una IA, no con un humano. 

Claves del borrador

Como recoge CNBC, el borrador de las normas propone que: 

Dejar la IA y pasar a humanos. Los chatbots de IA no pueden generar contenido que incite al suicidio o la autolesión, ni incurrir en violencia verbal o manipulación emocional que dañe la salud mental de los usuarios. Según el borrador, si un usuario propone específicamente el suicidio, los proveedores de tecnología deben hacer que una persona tome las riendas de la conversación y contactar inmediatamente con el tutor del usuario o con una persona designada.

Fuera los juegos de azar. Los chatbots de IA no deben generar contenido relacionado con juegos de azar, ni tampoco contenidos de caracter obsceno o violento. 

Un control a los menores de edad, sin excluirlos. Los menores deben contar con el consentimiento de padres, madres o tutores para usar la IA con fines de acompañamiento emocional y tiene que haber límites de tiempo de uso, pero no los excluyen del uso de la IA. Otro planteamiento es que las plataformas tendrán que tener métodos para poder determinar si un usuario es menor de edad incluso si no revela su edad. 

Un recordatorio del tiempo. Otra propuesta es que los proveedores de tecnología tendrán que enviar un recordatorio a los usuarios tras dos horas de interacción continua con IA. 

Fomentar el uso de la IA para la difusión cultural y acompañamiento a mayores. El documento también fomentaba el uso de IA de tipo humano en la "difusión cultural y el acompañamiento a personas mayores". 

Imagen | Foto de Mohamed Nohassi en Unsplash

En Genbeta | "Eres una plaga, una mancha. Por favor, muere": al chatbot de Google se le cruzan los cables con un usuario. Y nadie se lo explica


Ver todos los comentarios en https://www.genbeta.com

VER Comentarios