Al creador de ChatGPT no le gusta el nombre de su chatbot, y apuesta por instaurar un "secreto de confesión" para la IA en el futuro

Una sesión de preguntas y respuestas en Reddit con Sam Altman ha arrojado algunos datos interesantes

Robota
2 comentarios Facebook Twitter Flipboard E-mail

El popular portal Reddit lleva a cabo regularmente una actividad denominada 'AMA', que significa "Ask Me Anything" (Pregunta lo que sea), una sesión interactiva en la que una persona con conocimientos o notoriedad en algún campo, se ofrece a responder preguntas del resto de usuarios.

Pues bien, uno de los últimos AMA estuvo protagonizado por Sam Altman, CEO de OpenAI, en los días previos a su último anuncio de novedades en torno a ChatGPT... y nos dejó varios datos y reflexiones interesantes.

Un vistazo a…
CHAT GPT-4 en 4 MINUTOS

Su mejor marca... ¿no es buena marca?

"El nombre "ChatGPT" es terrible", afirmaba un usuario, para a continuación preguntar si OpenAI cambiará el nombre de su chatbot en un futuro próximo. La respuesta de Sam Altman no fue precisamente la de salir en defensa de su marca más conocida:

"Jajaja, sí, no es un gran nombre, pero creo que nos quedamos atrapados con él. Parece que mucha gente simplemente lo llama 'Chat'".

Predicciones sobre el futuro del trabajo

Uno de los usuarios recordó una predicción que Altman hizo en Twitter en 2021:

"La IA hará que el precio del trabajo que se puede realizar frente a un PC disminuya mucho más rápido que el precio del trabajo que ocurre en el mundo físico. Esto es lo contrario de lo que la mayoría de la gente (incluyéndome a mí) esperaba y tendrá efectos extraños".

Altman confirmó que sigue creyendo en esta predicción, por lo que apuesta por una transformación significativa en el mercado laboral en los próximos años.

¿Le corresponde a la IA denunciar a sus usuarios?

Sobre la posibilidad de que modelos como ChatGPT puedan tener un "deber ético" de notificar actividades delictivas por parte del usuario, Altman realizó una afirmación que abre un debate interesante sobre los límites éticos y legales de las IA, implementar legalmente una especie de 'secreto de confesión' para inteligencias artificiales:

"En el futuro, espero que pueda haber algo como un concepto de 'privilegio de IA', similar a cuando hablas con un doctor o un abogado. Creo que pronto será un debate importante para la sociedad".

Contenidos no aptos para todos los públicos sí, pero con límite

Altman también se pronunció sobre otra polémica reciente, la de habilitar la generación de contenidos NSFW (no aptod para todos los públicos) en ChaGPT/DALL-E 3:

"Realmente queremos permitir contenido NSFW (textos eróticos, gore...) para uso personal en la mayoría de los casos, pero no hacer cosas como deepfakes".

Además, cuando se le pregunta si hay sobre la mesa "algún plan para permitir que ChatGPT hable sobre temas más delicados" de los que es capaz de abordar por ahora, reconoce que éste "puede ser demasiado cauteloso a veces".

¿Las IA debe dedicarse a cambiar las opiniones de la gente?

¿Le corresponde a las IAs (es decir, a las empresas que las desarrollan) cambiar la cosmovisión de la gente por una 'correcta'? Esta también fue una duda que un usuario le planteó a Altman:

"Entiendo el espíritu detrás de "No intentes cambiar la opinión de nadie", [pero] si un creacionista insistiera en que el mundo tiene 6000 años según un modelo, ¿no cree que OpenAI tiene el imperativo ético de informar amablemente a los usuarios por qué este no es el caso? [...] de lo contrario, esencialmente se está creando un cámara de eco".

Y esta fue su respuesta:

"No estamos seguros de dónde trazar la línea. El ejemplo de la tierra plana es claramente un poco tonto, pero piensa en las vacunas contra el Covid o algo así. Las cámaras de eco son malas, pero también debemos tener mucho cuidado con los modelos que podrían ser capaces de una persuasión sobrehumana".

Imagen | Marcos Merino mediante IA

En Genbeta | El cofundador Ilya Sutskever deja OpenAI. El mundo se sigue preguntado qué vio antes de la guerra civil de OpenAI

Inicio