Poner a escribir noticias a ChatGPT y a Bard puede acabar como el teléfono estropeado: los peligros de usar inteligencia artificial para “informar”

Captura De Pantalla 2023 03 23 A Las 12 25 48
6 comentarios Facebook Twitter Flipboard E-mail

¿Que no te has enterado de la última polémica del Barça y el caso Negreira? Una preguntita rápida a Bing y en un par de segundos te resuelve el tema futbolístico de la semana. Lo mismo podrás preguntarle a Google Bard cuando esté disponible (por el momento en lista de espera y solo en dos países). Lo que antaño hacíamos tirando de Google y un par de clicks en tus medios de confianza, los que aparecían arriba del todo del buscador o en ambos casos y su posterior lectura, ahora puede hacerse mucho más rápido gracias a los modelos de chat conversacionales con inteligencia artificial, que entienden, contextualizan, tiran de fuentes y sintetizan por ti. ¿El problema? Que no son perfectos: la IA tiene sesgos, limitaciones y que como nos pasa a los humanos, a veces tomamos como referencia información que es falsa.

De hecho cuando estos chatbots dejen de ser la novedad para pasar a ser una herramienta habitual en nuestro día a día(o en algunos casos, directamente hagan nuestros trabajos) se puede dar una paradoja que recuerda al juego infantil teléfono estropeado: que alguien use un modelo de lenguaje por inteligencia artificial que redacte noticias como emisor, tirar de otro modelo de IA para que nos lo resuma como receptores y que en el medio tenga lugar la degradación de la información. Y para muestra, lo que ha sucedido esta semana.

Cuando las bromas y rumores se usan como referencia

Hace un par de días un usuario preguntaba a Bard cuándo Google cerraría su chatbot con IA "inevitablemente", en un claro guiño a cómo los de Mountain View han cerrado servicios a lo largo de su historia como por ejemplo Stadia, Google+ o Google Street View. Sorprendentemente, Google Bard responde que el servicio ya está cerrado por falta de adopción de esta herramienta.

Esta broma y su respectiva respuesta es recogida por algunos medios como en este artículo de Windows Central o en este hilo de Hacker News donde alguien hasta usa ChatGPT para generar una noticia cubriendo el suceso, ganando así repercusión en internet. En ese momento el editor de The Verge James Vincent pregunta a Microsoft Bing si Google Bard está cerrado y este le responde que sí, usando precisamente algunas de estas fuentes para refutarlo.

Pregunta del editor de The Verge sobre el estado de Google Bard y respuesta. Fuente | The Verge

Aunque poco después se desdice y vuelve a indicar la respuesta correcta, durante un lapso de tiempo quien se valiera de Bing para preguntar por Google Bard, iba a estar desinformado.  Ya sabemos que las IAs tienen sesgos, pero es que engañarlos resulta infinitamente (en cuanto a que hay mil formas y agujeros para hacerlo) fácil, lo que se traduce en que esa desinformación siempre va a ir por delante frente al proceso de reportar el problema y corregirlo. Y a veces ni siquiera tienes que engañarlos: ellos mismos replican sus errores.

Lo que acabamos de presenciar es el primer temblor del terremoto que se nos viene encima: los chatbots no son capaces de evaluar fuentes confiables, malinterpretan historias y como consecuencia, informan mal. Y en este caso todo comenzó como una broma. Imagina lo que podría hacerse si lo que desearas es desestabilizar estos sistemas y sus consecuencias conforme vaya normalizándose su uso.

La clave está en la dificultad de estos modelos de lenguaje de separar lo que es realidad de la ficción aderezado con que en mayor o menor medida ya están disponibles y al alcance de cualquiera, amenazando así la confianza en la fiabilidad de la información que encontramos en internet. Puede que OpenAI, Microsoft y Google tuvieran prisa por entrar al barro en esta batalla por ganar cuota de mercado en sus chatbots con inteligencia artificial, primando el llegar cuanto antes a hacerlo de forma segura.

Es cierto que todas estas compañías cuentan con disclaimers en sus chatbots haciendo referencia a su carácter experimental, en fase de pruebas y susceptible de cometer errores, pero teniendo en cuenta su potencial y su rápida expansión, suena a excusa débil ante lo que se nos viene encima.

Portada | Antonio Vallejo para Genbeta

En Genbeta | ChatGPT, guía a fondo: qué es, cómo usarlo y lo mejor que puedes hacer con este chat conversacional de IA

Comentarios cerrados
Inicio