Meta considera que "solo dos reactores nucleares para cubrirlo" son la solución al enorme gasto de energía que supone usar la IA

En un momento clave del planeta, con el cambio climático que tenemos encima, el entrenamiento y uso de las IA supone un gran consumo energético cada día

Nicolas Hippert C82jaeqkfe0 Unsplash
3 comentarios Facebook Twitter Flipboard E-mail

Todos sabemos que cualquier mensaje que enviamos a través de una aplicación de mensajería está generando un alto impacto en el medio ambiente porque la nube donde guardan toda nuestra información consume muchísima energía.

Desde la llegada de la inteligencia artificial generativa a manos de todo el mundo y en masa (ChatGPT fue la pionera y la han seguido la de varias empresas), aun las empresas tienen más datos que almacenar porque usamos masivamente estas tecnologías.

El ingeniero jefe de inteligencia artificial generativa de Meta, Sergey Edunov, ha sido preguntado a este respecto y su respuesta ha sorprendido. Su respuesta: "solo hacen falta dos reactores nucleares" para cubrir la demanda. No es la primera vez que alguien de su sector habla de la creación de una central nuclear para hacer frente a toda esta carga energética de la inteligencia artificial.

Durante una sesión en el Foro de Trabajadores Digitales que se celebró en Silicon Valley, dijo que dos plantas eléctricas parecerían ser suficientes para alimentar las necesidades de la humanidad por un año, y que esto parecía ser aceptable. Según él, las preocupaciones que existen para hacer frente a toda la energía que consume el uso masivo de herramientas IA él afirmó que "definitivamente podemos resolver este problema".

Un vistazo a…
MEGA GUÍA MEJORA la SEGURIDAD y PRIVACIDAD de FACEBOOK

La preocupación de la IA supercontaminante

El asunto de cuánto contamina la inteligencia artificial es objeto de estudio y de preocupación desde que ChatGPT irrumpiera en el mundo hace un año con su revolución.

Como publicaba calcalistech hace unos meses "esta nueva carrera tecnológica tiene un alto precio oculto, que puede perjudicar los intentos internacionales de frenar la crisis climática, en esta coyuntura tan crítica".

Al igual que la preocupación que había con las criptomonedas y su minado, el uso de la IA "requiere una enorme potencia computacional, que va acompañada de un daño ambiental extraordinario". Según el informe de PitchBook, para 2025, el 3,2% de todas las emisiones de carbono del mundo provendrán de granjas de servidores de IA y añadía que "su costo ambiental no hace más que crecer a medida que la industria crece de una manera que prioriza la expansión en lugar de la eficiencia".

Como recuerda Xataka, Meta no es la primera empresa que vincula energía nuclear con inteligencia artificial. Microsoft desveló en septiembre sus planes de desarrollar reactores de fisión nuclear para "para alimentar los centros de datos en los que residen Microsoft Cloud y su IA".

La firma de Redmond también ha invertido en el sector comprando energía de fusión a Helion Energy, startup liderada por Sam Altman. Este hombre, no nos olvidemos, es el líder de OpenAI, la empresa que tiene en su poder grandes herramientas de inteligencia artificial.

Aclaraciones de Edunov

Cabe decir que después de la sesión y estas declaraciones públicas, Edunov aclaró a VentureBeat que sus observaciones se refería a la potencia necesaria para la computación de IA adicional de la nueva afluencia de Nvidias H100, que están diseñados especialmente para manejar aplicaciones de IA y son por lo tanto los más notables.

Recuerda este medio que además de los H100, hay modelos más antiguos de GPU de Nvidia, así como CPUs AMD e Intel, así como aceleradores de IA de uso especial que hacen inferencia para IA.)

Edunov dijo de todos modos que hay dos aspectos a tener en cuenta cuando hablamos de uso de energía: se necesita para abordar la inferencia y para el entrenamiento. Su primera respuesta abordó la inferencia, donde la mayoría de los procesos se producirán a medida que las organizaciones desplieguen aplicaciones de IA.

Explicó cómo hizo su cálculo simple para el lado de la inferencia: dijo que Nvidia, el proveedor dominante de procesadores para IA, parece estar listo para liberar entre un millón y dos millones de sus GPUs H100 el próximo año. Si todos esos GPUS se utilizaron para generar "tokens", dijo que suma alrededor de 100.000 tokens por persona en el planeta por día.

Entrenar LLMs (grandes modelos de lenguaje) es un reto diferente, dijo Edunov. La principal limitación es obtener datos suficientes para entrenarlos. Dijo que se especuló ampliamente que GPT4 fue entrenado en todo internet. Aquí hizo algunas suposiciones más simples. Todo internet está disponible públicamente y afirma que toda esa información, se puede limpiar y desduplicar para que sean menos a la hora de darles uso.

También dice que la energía no es tanta como parece a primera vista porque "si te centras en la información de calidad, la cantidad será aún menor. La cantidad de conocimiento que la humanidad creó a lo largo de los siglos no es tan grande".

Imagen | Foto de Nicolas HIPPERT en Unsplash

Vía | Xataka y Venture Beat

En Genbeta| Cuidado con dónde compras la etiqueta medioambiental de tu coche: la DGT sólo recomienda éstas

Inicio