Sundar Pichai, CEO de Google, pide regular la inteligencia artificial ante "sus potenciales consecuencias negativas"

Sundar Pichai, CEO de Google, pide regular la inteligencia artificial ante "sus potenciales consecuencias negativas"
3 comentarios Facebook Twitter Flipboard E-mail

La década que acabamos de empezar, o que empezará el siguiente, va a ser clave en lo que respecta a la regulación de la privacidad en Internet y a la inteligencia artificial. Si Mark Zuckerberg ya pidió regulación para Facebook en cuanto al manejo de datos de usuarios, Sundar Pichai, recientemente nombrado CEO de Alphabet, ha publicado un artículo en The Financial Times en este sentido. El titular que ha dejado es "no tengo dudas de que la inteligencia artificial necesite ser regulada. Es demasiado importante como para no".

Siempre resulta chocante ver a un CEO de una gran empresa como Google pedir regulación, particularmente cuando el modelo de negocio presente o futuro puede verse perjudicado si las autoridades legislan de forma muy estricta. Sin embargo, cuando hablamos de temas tan complejos y con tanta potencial repercusión social, tiene sentido que se haga, y el debate público están en ese punto en que hay consenso en pedir más control a las tecnológicas. Que lo pidan, sin duda, también puede obedecer al mensaje que quieren transmitir, que parezca una obra de comunicación y de responsabilidad social.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

"La única cuestión es cómo hacerlo"

Ia
La incidencia en el día a día de la inteligencia artificial está cerca o ya presente, no hace falta pensar en robots.

Después de hacer un repaso a lo que Google está consiguiendo en el campo de la inteligencia artificial, que no es poco por lo mostrado en las últimas semanas, con detección de cáncer y predicciones metereológicas muy precisas, Pichai explica que históricamente hay muchos ejemplos de cómo las virtudes de la tecnología no están garantizadas.

"Estas lecciones nos enseñan que debemos tener los ojos claros sobre lo que podría salir mal. Hay preocupaciones reales sobre las posibles consecuencias negativas de la inteligencia artificial, desde falsificaciones profundas hasta usos nefastos del reconocimiento facial. Aunque ya se está trabajando para abordar estas preocupaciones, inevitablemente habrá más desafíos en el futuro que ninguna empresa o industria puede resolver por sí sola".

Pichai señala que tanto la Unión Europea y Estados Unidos ya están trabajando en propuestas regulatorias, y afirma que la alineación internacional entre países será crítica para que los estándares globales funcionen. A nivel de privacidad, por ejemplo, la GDPR no ha conseguido eso, pues aunque afecta a empresas de fuera de Europa, la regulación es solamente europea, y aún no tienen homólogo externo. Otra frase clave es "compañías como la nuestra no pueden solamente desarrollar una tecnología prometedora y dejar que las fuerzas del mercado decidan cómo se utilizará".

Y ahí entra la regulación. "No tengo dudas de que la inteligencia artificial necesite ser regulada. Es demasiado importante como para no hacerlo. La única cuestión es cómo hacerlo". Google tiene unos principios de inteligencia artificial desde hace unos dos años, pero Pichai afirma que los "principios que se quedan sobre el papel no tienen sentido". ¿Qué han hecho por su parte, en Google? Según Pichai, han liberado el código de herramientas que utilizan internamente para comprobar aspectos como la equidad de la inteligencia artificial que aplican en sus productos. Junto a estos análisis, menciona que también realizan evaluaciones de derechos humanos sobre nuevos productos.

En el plano regulatorio, el CEO afirma que Google quiere colaborar con los reguladores, y que la la GDPR es una fuerte pilar sobre el que comenzar a edificar el edificio. Según él, una buena regulación debe "considerar seguridad, explicicabilidad, equidad y responsabilidad para asegurar que desarrollamos las herramientas correctas de formas correctas". "Ya ha habido trabajo en este sentido para atacar estas preocupaciones, pero habrá inevitablemente más retos que ninguna compañía o industria puede resolver por sí misma".

La regulación de la inteligencia artificial no es algo que deba pensar que se plantea para un escenario de dentro de 100 años, en un mundo de robots. En los próximos años va a afectar a industrias como la automovilística, donde tendrá que tomar decisiones en un coche sobre qué hacer respecto a un peatón, así como a la industria del equipamiento médico y otras. Todo lo que salga de ahí de ahora en adelante puede ser mucho más relevante socialmente de lo que ya hemos visto en la década pasada en tecnología, que no es poco, como la incidencia de Facebook en elecciones y en el cruento conflicto en Myanmar. Si se legisla, y las empresas cumplen, la rendición de cuentas puede cambiar de manos e ir a la política.

Comentarios cerrados
Inicio