Microsoft y otros han despedido a su equipo de ética al lanzar su inteligencia artificial. En EE.UU ya les han lanzado un dardo

Markus Winkler Tgbxihcpkrm Unsplash
2 comentarios Facebook Twitter Flipboard E-mail

La FTC de Estados Unidos, o Comisión Federal del Comercio (agencia de protección al consumidor) ya ha hablado muchas veces de su preocupación por los posibles engaños relacionados con la IA como en el uso de la inteligencia artificial generativa para fraudes.

Hace unas semanas ya dijo la agencia que los productos creados con IA generativa deberían estar etiquetados. Ahora advierte que va a esforzarse en perseguir malas prácticas. "El diseño o el uso de un producto también puede infringir la Ley de la FTC si es desleal", como usar herramientas de IA para crear resultados sesgados o discriminatorios.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Advertencia sobre despedir equipos de ética

Dadas estas numerosas preocupaciones sobre el uso de las nuevas herramientas de IA "quizá no sea el mejor momento para que las empresas que las usan o las desplieguen, destituyan o despidan al personal dedicado a la ética y la responsabilidad", es lo que ha advertido la FTC.

Suena como un dardo para gigantes tech que han despedido a persona de estos departamentos. Microsoft ha lanzado recientemente su IA, integrando ChatGPT a su buscador y a su navegador, mientras ha despedido a todo su equipo de ética para la inteligencia artificial.

También Twitter ha despedido a todo el equipos de derechos humanos y la ética del aprendizaje automático, así como algunos equipos de productos e ingeniería.

Preocupación de FTC por malos usos de la IA

Dice el comunicado del organismo regulador que el personal de la FTC está centrándose intensamente en cómo las empresas pueden optar por utilizar la tecnología de IA, incluyendo las nuevas herramientas de IA generativa, de manera que puedan tener un impacto real y sustancial en los consumidores.

Se pide a las empresas analizar muy bien lo que van a presentar. "Entre otras cosas, la evaluación de riesgos y las medidas de mitigación deben tener en cuenta los usos posteriores previsibles y la necesidad de formar al personal y a los contratistas, así como supervisar y abordar el uso real y el impacto de cualquier las herramientas que se utilicen".

Según la Ley FTC, una práctica es desleal si causa más daño que perjuicio que beneficio. Para ser más específicos, es desleal si causa o puede causar un perjuicio sustancial a los consumidores que no sea razonablemente evitable por los consumidores y no compensado por otros beneficios que pueda haber.

En Europa tenemos que fue Italia la pionera en prohibir ChatGPT, aludiendo al reglamento europeo de protección de datos pero tuvo que permitir que luego volviera, con ciertas medidas.

En Genbeta| Ya puedes usar ChatGPT hasta en Windows 98, XP…: así se instala la app que lo hace posible

Imagen | Markus Winkler en Unsplash

Comentarios cerrados
Inicio