"Estamos un poco asustados" con la inteligencia artificial: el creador de ChatGPT teme sus usos delictivos

OpenAI
6 comentarios Facebook Twitter Flipboard E-mail

Estos años van a pasar a la historia por los avances que están experimentando las inteligencias artificiales como GPT-4, y sobre todo el acercamiento a los usuarios más básicos con muchas utilidades como generar mensajes para Tinder o crear trabajos siendo la semana anterior clave para ello. Y aunque parece que todo es bonito alrededor de la IA, el propio CEO de OpenAI (compañía desarrolladora de ChatGPT) está mostrando su preocupación por los riesgos de esta tecnología tan avanzada.

Sam Altman, CEO de OpenAI, ha manifestado que la humanidad debe estar preparada por los las consecuencias negativas que puede acarrear la inteligencia artificial, haciendo también referencia a los reguladores. Y esto es algo realmente llamativo que lo diga esta personalidad dentro de la IA que está ganando mucho dinero con ella y que no le interesa que se le coja miedo, aunque parece que su ética va por delante.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

La preocupación de Sam Altman con el futuro de la IA 

A día de hoy todos usamos estas IA para que nos hagan problemas matemáticos difíciles, nos generen textos e incluso nos hagan presentaciones con PowerPoint gracias a Copilot en Microsoft 365. Pero con el paso del tiempo se puede utilizar con fines ilícitos, como ya hemos visto a la hora de crear correos electrónicos de phishing para tratar de sonsacar contraseñas con su lenguaje tan natural. Y esto precisamente es lo que llega a afirmar el CEO de OpenAI con el siguiente mensaje:

Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, [ellos] podrían usarse para ataques cibernéticos ofensivos. Creo que la gente debería estar feliz de que estemos un poco asustados por esto.
Robot G4417b6e03 1280

Estas declaraciones las realiza tras el lanzamiento de GPT-4 que ha supuesto un gran avance en lo que se refiere a comprensión de las entradas y también las respuestas que genera. Si se observa un texto que se ha generado con este modelo de IA, se puede llegar a pensar que ha sido generado por un ser humano de verdad e incluso suplantando a alguna gran compañía. Pero creemos que la frase “creo que la gente deberá estar feliz de que estemos unos pocos asustados” hace ver que de verdad quieren buscar una regulación para evitar grandes problemas que ya tienen en mente.

Ante esto se ha reafirmado en que todo va a depender de los humanos que haya detrás de esta IA, y que no todas las empresas van a poder límites como si lo hace ChatGPT a esta generación de texto. Y es que son muchas las empresas que están optando por ir con libertad, como Microsoft que ha optado por eliminar su departamento de ética relacionado con la IA, siendo una muy mala noticia para esta regulación.

Además, también hace un llamamiento sobre el problemas de la alucinaciones de la IA. Este efecto es realmente interesante, ya que puede provocar que la IA afirme algunos hechos que son totalmente falsos dando lugar a respuestas extrañas. En concreto lo explica de la siguiente manera:

Lo que más trato de advertir a la gente es lo que llamamos el 'problema de las alucinaciones[...] El modelo afirmará las cosas con confianza como si fueran hechos completamente inventados. La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos.

Fotos |  TechCrunch (Flickr) 1, 0fjd125gk87

Vía | The Guardian

En Genbeta | Haz tu vida más fácil con estas 11 formas de usar ChatGPT en el día a día

Comentarios cerrados
Inicio