Creadores de ChatGPT confirman que hay problemas con la forma en la que Rusia y China utiliza sus herramientas

Se crean imágenes o textos que puedan distorsionar la realidad de hechos como la guerra en Gaza

Arthur Wang 6hhyo W0d1c Unsplash
Sin comentarios Facebook Twitter Flipboard E-mail

OpenAI ahora mismo nos está sorprendiendo gratamente con el anuncio reciente de GPT-4o que hemos visto que puede funcionar realmente bien con por ejemplo los exámenes de matemáticas de selectividad. Pero aunque a priori solo le podemos ver aspectos positivos, la realidad es que algunas potencias mundiales están haciendo uso de esta tecnología para fines que no son precisamente positivos para la sociedad.

Ars Technica en una reciente publicación ha informado que son varios los países que están realizando acciones de desinformación con ChatGPT. Habla concretamente de Rusia, China, Irán o Israel que a través de esta IA está creando textos e imágenes completamente falsas para poder distorsionar la realidad de todos los ciudadanos.

Un vistazo a…
CHAT GPT-4 en 4 MINUTOS

ChatGPT se usa como una gran herramienta de desinformación

Precisamente la opinión de la gente puede cambiar fácilmente, y esto hace que muchos servicios gubernamentales se estén aprovechando de las facilidades de crear textos o imágenes que no sean reales para poder filtrarlas en redes sociales. Esto es algo realmente importante teniendo en cuenta que en este 2024 se registran una gran cantidad de elecciones en todo el planeta.

Solen Feyissa Xth7bbrpta Unsplash

Esto es algo que ha confirmado la propia OpenAI, que a través de un informe reconoce que algunos países están realizando estas acciones, aunque en sus políticas se prohíbe engañar a otros usuarios. El contenido generado se centraba en "la invasión de Ucrania por parte de Rusia, el conflicto en Gaza, las elecciones indias, la política en Europa y los Estados Unidos, y las críticas al gobierno chino por parte de disidentes chinos y gobiernos extranjeros".

Obviamente sobre todas las empresas está aumentando la presión para que impidan de alguna manera esta generación de contenidos. Google y Meta ya tuvieron que tomar medidas muy duras ante las campañas de desinformación durante la campaña en las elecciones presidenciales de EEUU en 2026. Ahora es el turno de OpenAI que cada vez hacen más fácil y preciso crear este tipo de textos o imágenes.

Ante esto la compañía ha informado que están comprometidos con descubrir todas estas campañas de desinformación, haciendo alusión a los sistemas de seguridad que bloquean diferentes peticiones de información. Lo que está claro es que el hecho de que 2.000 millones de personas estén llamadas a las urnas para este 2024 hace que todas las medidas que se tomen no sean suficientes para protegernos.

Imágenes | Solen Feyissa Arthur Wang

En Genbeta | No me había dado cuenta, pero el nuevo ChatGPT gratis ya es el mejor profesor de inglés que tengo para sacarme el C1

Inicio