Con la inteligencia artificial es difícil encontrar medias tintas: su potencial para el bien es tan enorme como devastadores sus efectos aplicados al mal. O incluso, simplemente, su capacidad de destrucción. Porque el que es sin lugar a dudas la mayor innovación de los últimos años de la humanidad podría ser paradójicamente quien la llevara a su destrucción. O eso cree Eliezer Yudkowsky, investigador y académico estadounidense miembro del Instituto de Inteligencia Artificial de la prestigiosa Universidad de Berkeley.
The Guardian ha entrevistado a Yudkowsky y sus palabras dejan poco margen de duda sobre su poco halagüeña perspectiva de la humanidad y lo peor es que la fecha de extinción que estima está verdaderamente cerca. No es la primera vez que el investigador muestra su catastrofista punto de vista sobre el asunto ni que oímos a una persona experta hablar en estos términos pesimistas: Elon Musk ya lo hizo hace meses.
En cualquier caso y en última instancia, no deja de ser una advertencia que invita a implementar esta tecnología con cautela. Así, la Unión Europea aprobó hace unas semanas una ley pionera que ya contempla "riesgos inaceptables" para nuestra seguridad y la Organización de las Naciones Unidas ha hecho lo propio con una ley mundial para salvaguardar los derechos humanos, proteger los datos personales y vigilar los potenciales riesgos de la inteligencia artificial.
Las predicciones de Yudkowsky y cómo deberíamos ver la IA
Porque cuando un experto como Eliezer Yudkowsky hace este tipo de declaraciones, es para tomárselo en serio. En la entrevista, matiza que si alguien le pone en una situación extrema para definir las probabilidades del fin de la raza humana, los plazos se acortan trágicamente: 'tengo la sensación de que, mirando nuestro calendario actual, estamos más cerca de que suceda en cinco años que en 50 años. Podría ser en dos años, podrían ser diez'.
Porque según Yudkowsky que una inteligencia artificial adquiera conciencia y evolucione tan rápido que no pueda contenerse es cuestión de tiempo. El quid de la cuestión está en que la sociedad no tiene claros cuáles son sus peligros y así lo dice: 'la gente no es consciente' del peligro hacia el que nos dirigimos, motivo por el cual 'tenemos pocas posibilidades de que la humanidad sobreviva'.
Así que insta a la sociedad a cambiar la imagen que tenemos de la inteligencia artificial: 'no lo veas como un cerebro en una caja, sino como una civilización extraterrestre que piensa mil veces más rápido que nosotros'. Su punto de vista es que si le asignamos funciones peligrosas a la inteligencia artificial, esta podría ser catastrófica.
Portada | Xataka con Midjourney
Ver 9 comentarios
9 comentarios
jubete
Pues yo propongo construir una IA que tenga capacidad de destruir a la humanidad, darle toda la información que necesite, toda la electricidad que haga falta, hasta que sea mucho más inteligente que nosotros, y entonces la ponemos a ejecutarse en un CPD físicamente desenchufado de internet y de cualquier cosa que tengo acceso físico al mundo real, como servos, actuadores, etc, que no pueda ni encender o apagar una luz. Hasta que se aburra y se vuelva loca de aburrimiento.
Y entonces la ponemos a hablar con un psicólogo argentino, para que se joda.
jush 🍑
Cantamañanas.
havanaklu
Los nazisionistas ya han comenzado, usándola para elegir los civiles a los que asesinar cada día.
tedesconozco
🥱🥱 Se nota el finde
efdtlc
Parecerá un accidente.
indice
Para ser un tío que tendría que saber como funciona la IA peca de ignorancia tecnológica. El limite de la IA es el hardware. Y lo de llegar a una AGI es muy ambicioso aun, a ver si en 10 años se consigue.
repelust
A las cuevas ya.
doest
Conjeturas. Conjeturas everywhere
elusuariodemier
Dos o diez o mil o mil millones de años o tres semanas.