Ponerle barreras a la IA es necesario para proteger nuestra privacidad. Y Google quiere modelos que "desaprendan"

Google
1 comentario Facebook Twitter Flipboard E-mail

En la era de la inteligencia artificial y el machine learning, disponemos de multitud de herramientas para automatizar todo tipo de procesos por medio de IAs generativas. Sin embargo, no fue hasta con la llegada de ChatGPT cuando la conversación tomó un tono más serio, sobre todo al ver que dicha herramienta podría ser capaz de hacer grandes cosas si el usuario sabía aprovechar todas sus capacidades. Y claro, si bien nos puede dar muchísimos beneficios, no son precísamente pocas las personas que muestran preocupación sobre los usos posibles de la IA.

Una de las grandes ventajas del machine learning es precísamente la memorización de toda la información que le ofrezcamos a partir de un dataset. Sin embargo, este tipo de técnicas también podrían tender a memorizar información eliminada de la base de datos utilizada para su entrenamiento, algo que podría vulnerar la privacidad de los usuarios. Desde Google ya iniciaron un plan para abordar los peligros de la IA, y en una de sus primeras paradas buscan mejorar el "desaprendizaje automático". 

Modelos que "desaprenden" para mejorar nuestra privacidad

Por esta razón, Google quiere organizar un reto de "desaprendizaje automático", en el que los investigadores que participen tendrán que hacer que sus sistemas de inteligencia artificial olviden permanentemente una serie de datos de la información utilizada para su entrenamiento. El reto tendría por objetivo proteger la privacidad y derechos de los usuarios, y através de una entrada en el blog oficial de Google han explicado cómo van a hacerlo.

google Imagen: Google

El desafío se llevará a cabo a través de Kaggle, una empresa subsidiaria de Google formada por una gran comunidad de científicos de datos y especializada en el aprendizaje automático. El reto consistirá en crear un predictor de edad que muestre sus resultados al comprobar la imagen de un rostro. Para ello deberán de entrenar al modelo y también desarrollar algoritmos que eliminen de forma efectiva un conjunto específico de imágenes de entrenamiento sin comprometer la utilidad del modelo.

Durante el procedimiento se utilizarán herramientas basadas en ataques de inferencia como técnica de extracción de datos y pruebas estadísticas para evaluar el olvido y la diferencia entre los modelos desaprendidos y los modelos reentrenados desde cero.

Los modelos que presente la comunidad serán puntuados en términos de la calidad del olvido y la utilidad del propio modelo. Desde Google esperan que esta competición suponga una evolución en el campo del "desaprendizaje automático".

Tal y como afirma Google, además de suponer un gran avance en cuanto a la protección de la privacidad del usuario, el desaprendizaje automático también puede ser muy útil para eliminar información imprecisa o desactualizada en modelos de entrenamiento, así como poder eliminar además datos dañinos o manipulados.

Se espera que este desafío impulse la investigación y el desarrollo de algoritmos de desaprendizaje más eficientes, efectivos y éticos. Además, también podría llegar a abordar algunas de las preocupaciones que muchos tienen acerca del uso de la inteligencia artificial, presentando modelos más seguros para el usuario.

En Genbeta | No, Google no va a eliminar tus archivos de Fotos, pero mejor tener una copia: cómo exportar y descargar todos tus vídeos y fotos

Comentarios cerrados
Inicio