Los creadores de ChatGPT se unen a Microsoft y Google para regular el desarrollo de la inteligencia artificial

Clo22 Humanbuiltabstracts 017 2048x1366 1 1536x1025
1 comentario Facebook Twitter Flipboard E-mail

Cuatro de los principales actores de la IA han anunciado que se unen para formar un nuevo organismo de la industria diseñado para garantizar el "desarrollo seguro y responsable" de la inteligencia artificial.

Así, el desarrollador de ChatGPT OpenAI, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que se basa en la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y puntos de referencia, y promover mejores prácticas y estándares.

Líderes de empresas como Google u OpenAI han hablado en diversas ocasiones de la necesidad de que los gobiernos del mundo regulen las inteligencias artificiales.

La Unión Europea también ha hablado de esto desde hace años, pero aún no ha llegado a una regulación clara. Cabe decir que mientras Google y OpenAI hablan de la necesidad de regular, cuando llega alguna regulación como la propuesta en Europa, se muestran contrarios e incluso amenazan con irse de aquí.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Regular las IA fronterizas

Como ha publicado Microsoft, estas empresas mencionadas lanzan el Foro Frontier Model, un organismo de la industria  centrado en garantizar el desarrollo seguro y responsable de modelos de IA fronterizos.

Cuando hablan de IA fronteriza se refieren a los “modelos grandes de aprendizaje automático que superan las capacidades presentes en la actualidad en los modelos existentes más avanzados y pueden  realizar una amplia variedad de tareas”.

Es decir, inteligencias artificiales que se consideran lo suficientemente peligrosas como para plantear "graves riesgos para la seguridad pública". Argumentan que tales modelos plantean un desafío regulatorio único, ya que "las capacidades peligrosas pueden surgir inesperadamente", lo que dificulta evitar la apropiación indebida de los modelos.

Objetivos de esta alianza

Los objetivos declarados para este foro incluyen 4 puntos. Por un lado, avanzar en la investigación de la seguridad de la IA para promover el desarrollo responsable de modelos fronterizos, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad.

En segundo lugar, identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos de frontera, ayudando al público a comprender la naturaleza, capacidades, limitaciones y el impacto de la tecnología.  El tercer punto será colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos.

Finalmente, quieren apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.

El Frontier Model Forum cuenta con solo cuatro organizaciones en la actualidad pero dice que está abierto a nuevos miembros.

Imagen | Microsoft

En Genbeta |

Comentarios cerrados
Inicio