Meta quita su equipo de ética en inteligencia artificial, aunque avanza en el desarrollo de la IA. Otras tech han hecho lo mismo

  • Las autoridades de Estados Unidos han advertido a las empresas del peligro de cerrar sus equipos de ética mientras desarrollan la Inteligencia Artificial

  • Meta ya está haciendo frente a una gran demanda por saber que sus redes sociales causan daños psicológicos en menores y mentir

Glen Carrie Ra4vjwxnvao Unsplash
1 comentario Facebook Twitter Flipboard E-mail

Hay empresas tech que mientras van desarrollando grandes productos y herramientas de inteligencia artificial, se deshacen de sus equipos relacionados con la regulación y la ética. Primero fue Microsoft, que en marzo despidió a todo su equipo de ética para la inteligencia  artificial, mientras avanzaba en coliderar su desarrollo.

Ahora ha sido Meta la que ha disuelto su división de IA Responsable, el equipo dedicado a regular la seguridad de sus proyectos de inteligencia artificial a medida que se desarrollan y despliegan, según un portavoz de Meta.

Las personas que trabajaban en este departamento no han sido despedidas, según la información disponible, sino que han sido reasignados a la división de productos de IA generativa de la compañía, mientras que algunos otros ahora trabajarán en el equipo de Infraestructura de IA.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Los grandes inventos de Meta en IA

Meta tiene su propia ChatGPT: LlaMa que ya tiene su segunda versión lanzada en verano. Se trata de un LLM que todo el mundo puede descargar y  utilizarlo para todo tipo de proyectos, para investigación, fines  comerciales, entornos profesionales, o simplemente para tontear un poco  con él. En Genbeta la hemos probado.

También tiene es Meta AI, un nuevo sistema de inteligencia artificial presentado  el 27 de septiembre, y con la que busca convertirse en una gran competidora de ChatGPT, Bing Chat o Bard. Se trata de un chatbox que busca tener cualidades para diferenciarse de la competencia.

La empresa se enfrenta en estos momentos a una megademanda en Estados Unidos por saber que sus redes sociales causan daños psicológicos en niños, niñas y adolescentes y mentir al respecto.

Las autoridades de EE.UU han advertido sobre esto

Cabe recordar que en Estados Unidos, su organismo regulador FTC, ya ha hablado de que hay muchos temas que la IA debe regular y con esto, "quizá no sea el mejor momento para que las empresas que las usan o las desplieguen, destituyan o despidan al personal dedicado a la ética y la responsabilidad", es lo que ha advertido la FTC.

Incluso el presidente de Microsoft, este verano, se unió al club de los grandes líderes que desarrollan herramientas de inteligencia artificial y las lanzan al mercado sin ninguna regulación para luego hacer alertas alarmantes. El presidente y vicepresidente de Microsoft, Brad Smith, en una entrevista a CNBC afirmaba que: la inteligencia artificial puede convertirse en un arma y los humanos deben controlarla.

A todo esto, hoy mismo, Microsoft ha anunciado que Sam Altman, que hace unos días fue despedido de OpenAI, acaba de ser fichado para liderar un equipo de investigación de IA dentro de Redmond. Altman es otro de esos hombres que repite advertencias alarmantes sobre la IA.

Qué hacía el equipo disuelto de Microsoft

La noticia fue reportada por primera vez por The Information. El equipo de IA generativa, nacido en febrero, se centra en desarrollar productos que generen lenguaje e imágenes para imitar la versión equivalente creada por humanos.

La reestructuración de IA responsable se produce cuando la matriz de Facebook se acerca al final de su “año de eficiencia”, como lo llamó el director ejecutivo Mark Zuckerberg.

Concretamente, en febrero, durante una  conferencia sobre resultados, Zuckerberg dijo que quería que este fuera  el "año de la eficiencia", aunque la empresa siguiera gastando miles de millones en construir su visión del metaverso. Con eso, dijo, la firma planeaba "aplanar" la "estructura" de la empresa y  eliminar algunas capas de mandos intermedios para tomar decisiones más rápidamente. Hasta ahora, eso se ha traducido en una oleada de despidos, fusiones de equipos y redistribuciones.

En Genbeta | "Pausad los experimentos gigantes de IA". Elon Musk pide una  moratoria de seis meses junto a otros pesos pesados de la industria

Imagen | Foto de Glen Carrie en Unsplash

Inicio