OpenAI quiere evaluar los "riesgos catastróficos" de la IA como una amenaza nuclear y pide tu colaboración

OpenAI se prepara para los peligros de ChatGPT y otras IA en un futuro

La inteligencia artificial es realmente útil para el día a día de cualquiera de nosotros. Estamos en un punto donde las IA pueden generar imágenes de la nada, reconocer elementos dentro de ellas y también tener en un clic la respuesta a una pregunta compleja. Pero, por otra parte, los máximos responsables de esta tecnología temen que se pueda salir de control en un abrir y cerrar de ojos.

OpenAI, responsables de ChatGPT, están ya pensando en ese futuro. Es por ello que han creado un equipo de trabajo para evaluar y sondear los modelos de IA para protegernos contra los "riesgos catastróficos". Un equipo que ha sido bautizado como 'Preparedness' y dirigido por el director del Centro de Aprendizaje Automático Desplegable del MIT.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

OpenAI se prepara para los peligros de las futuras IA

Y es que con el paso del tiempo estamos viendo como la IA está ganando una gran inteligencia, sobre todo ahora con la llegada de GPT-4. Y es que ya hemos visto que con el prompt adecuado (y sin restricciones) se puede generar un correo de phishing muy real para poder engañar a un humano, o que genere código malicioso en pocos clics.

Pero OpenAI va más allá, y es que según la entrada en su blog el grupo de trabajo va a analizar las amenazas "químicas, biológicas, radiológicas y nucleares". Sam Altman, el CEO de OpenAI ha mostrado en numerosas ocasiones su preocupación con la IA, afirmando que puede suponer la extinción humana. Y es que con las fuentes suficientes, la IA puede ser capaz incluso de dar instrucciones de como crear una bomba.

Pero el comité de trabajo no se queda únicamente en las personas que lo componen. OpenAI quiere la participación de las mentes de su comunidad, y para ello han abierto un concurso para que los usuarios piensen el uso que le pueden dar a la IA de manera mal intencionada. Todo esto con el acceso a los modelos de GPT-4 o DALL-E 3 abiertos sin restricción reza en su web.

Esto hace que desde la empresa de inteligencia artificial quieran tener las herramientas de monitoreo y las acciones de mitigación de estos riesgos para evitar un gran problema en un futuro. Y es que aunque manifiestan que las novedades en el campo de la IA son realmente positivas, no podemos olvidar que también plantea "riesgos cada vez más graves".

En Genbeta | La amenaza de la inteligencia artificial es real: estos son los 20 empleos con más riesgo de ser sustituidos por una IA

Ver todos los comentarios en https://www.genbeta.com

VER 1 Comentario

Portada de Genbeta