Ni siquiera Google se fía de su IA (ni de otras): la información interna debe quedar fuera de cualquier chatbot, incluso de Bard

Bot2
Sin comentarios Facebook Twitter Flipboard E-mail

Alphabet, la empresa propietaria de Google, ha empezado a dar instrucciones a sus empleados regulando el uso de chatbots que, según cuatro fuentes "familiarizadas con tema" citadas por Reuters, incluyen la prohibición de introducir información confidencial en cualquier chatbot de inteligencia artificial.

En realidad, eso no tiene nada de especial, sólo aplica a un nuevo escenario las políticas que Alphabet mantiene vigentes desde hace tiempo para proteger la información interna sensible…

…lo chocante es que dicha prohibición no se aplica únicamente a los chatbots de la competencia, como ChatGPT o Bing Chat, sino que incluyen también a su propio Google Bard, que ya está disponible para el público a nivel internacional.

Una actualización realizada el 1 de junio en la política de privacidad interna de Google establece lo siguiente: "No incluyas información confidencial o delicada en tus conversaciones con Bard"

Según un estudio de Fishbowl, de 12.000 profesionales encuestados en los EE.UU., ya el pasado mes de febrero un 43% de ellos usaba ChatGPT en su día a día… a menudo sin informar de ello a sus superiores.

El problema de los chatbots, en lo que respecta a la privacidad de la información, es que sus interacciones con los usuarios son revisados de manera aleatoria por revisores humanos, que tienen así acceso a dicha información introducida por los usuarios… lo cual es un problema porque no siempre son empleados de la propia compañía que desarrolla el chatbot.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Problemas de copyright

Pero, además, varias investigaciones (aquí un ejemplo) han descubierto que esta clase de IAs pueden llegar a reproducir de forma exacta fragmentos más o menos amplios de los datos con los que fue entrenado, lo que plantea un riesgo de filtración… y de 'contaminación' de contenidos afectados por copyright ajeno.

Imagina usar ChatGPT para escribir tus propios libros (ya hay una pequeña industria creada en torno a ello) y que los 'autores' de dichos libros se encuentren con demandas porque varios párrafos de uno de sus libros están 'plagiados' casi literalmente de otro libro. Pues imagina ahora que, en lugar de hablar de autores casi anónimos, hablamos de publicaciones de grandes compañías.

Relacionado con esto, Alphabet también ha advertido a sus ingenieros que eviten el uso 'directo' del código de programación generado por chatbots. La compañía ha declarado que Bard puede ofrecer 'sugerencias de código no deseadas', pero que aun así resulte de ayuda a los programadores.

Alphabet no es la única compañía que tiene vigentes esta clase de medidas de precaución en el uso de chatbots: también las aplican, que se sepa, Samsung, Amazon, Deutsche Bank o Apple… pero, claro, ellos no tienen en el mercado su propio chatbot, al contrario que Alphabet.

Vía | Reuters

Imagen | Generada mediante IA

En Genbeta | ChatGPT y GPT-4 cometen muchos errores. OpenAI ha lanzado una guía con estrategias que mejorarán mucho los resultados

Comentarios cerrados
Inicio