La IA de Google etiqueta de pedófilo a un padre tras tomar fotos… destinadas al pediatra: cuando ignoras la privacidad y sale mal

La IA de Google etiqueta de pedófilo a un padre tras tomar fotos… destinadas al pediatra: cuando ignoras la privacidad y sale mal
4 comentarios Facebook Twitter Flipboard E-mail

La inteligencia artificial se aplica cada vez más a herramientas que usamos a diario en nuestros dispositivos móviles, y aunque pueda ser tremendamente efectiva para algunas tareas, no es perfecta. Y prueba de ello es el caso de un padre que, tras tomar unas fotografías de la ingle de su hijo pequeño para que los doctores pudieran identificar de forma más fácil la infección que le había aparecido en la zona, Google marcó las imágenes como material de abuso sexual infantil.

Este suceso hizo que la compañía cerrará las cuentas del padre e informó al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en Estados Unidos, seguido de una investigación policial, según pudo informar The New York Times. El tema volvió a abrir un debate sobre la privacidad del usuario, y los errores que pueden surgir en las técnicas de detección de abuso infantil.

A ojos de Google, Mark es un criminal

Según el medio, este suceso tuvo lugar en febrero 2021, cuando debido a la situación pandémica de la COVID, una enfermera le recomendó a Mark, el padre del niño, echarle una foto a la zona afectada y enviárselas al doctor para antes de una consulta por videollamada. La infección acabó siendo curada por medio de antibióticos, pero lo que no se esperó Mark fue la sorpresa que le había preparado Google.

La compañía tardó un par de días en tomar cartas en el asunto cuando sus herramientas de detección por IA dieron con las fotos. Las cuentas del padre quedaron bloqueadas debido a 'contenido dañino', siendo según Google, 'una violación severa de las políticas de la compañía y que podía ser ilegal'.

En la mayoría de casos, las herramientas de detección de abuso infantil suelen ser muy útiles. Compañías tales como Facebook, Twitter, Instagram, y muchas otras, hacen uso de la inteligencia artificial para escanear las fotografías y conocer si existen coincidencias con fotos en las que sí se incluye abuso sexual infantil. Google cuenta desde 2018 con su propia herramienta de detección que puede identificar de manera 'proactiva' contenido de abuso sexual. Tras ello, el sistema avisa de manera inmediata a las autoridades pertinentes.

Un portavoz de Google contaba al Times que las fotos de la biblioteca solamente son escaneadas por Google cuando hay 'acción afirmativa' por parte del usuario, como por ejemplo, crear una copia de seguridad en Google Fotos. En 2021, Google informó sobre 621.583 casos al sistema de reporte del NCMEC, mientras que la organización alertó a las autoridades sobre 4.260 víctimas de abuso sexual, una lista en la que el New York Times asegura que se encuentra el caso de Mark.

Mark finalmente acabó perdiendo acceso a su correo electrónico, contactos, fotos, e incluso su número de teléfono. Intentó apelar la decisión, pero Google rechazó la petición. La policía de San Francisco realizó una investigación en diciembre de 2021, concluyendo que no se cometió ningún crimen.

La delgada línea de la privacidad

El tema reabrió el debate sobre la privacidad del usuario al utilizar este tipo de servicios y plataformas. Mientras que todo el mundo coincide en que proteger a los más pequeños es vital, para muchos, escanear la galería de un usuario, sea por la razón que sea, es una violación de la privacidad.

Apple ya tuvo también su ración de polémica tras mostrar las medidas de su plan de seguridad infantil, donde se incluía escanear la biblioteca de fotos locales del usuario antes de ser subidas a iCloud. Si bien la compañía puso en espera dicha función, sí incluyó una característica opcional para las cuentas de menores donde la app de mensajes pudiera analizar las imágenes adjuntas y determinar si existe contenido sexual explícito.

Comentarios cerrados
Inicio