Tras frenar la revolución interna de OpenAI y recuperar su papel de CEO, Sam Altman se ha reunido con los líderes del mundo en Davos para hablar de revoluciones más importantes.
En un evento de Bloomberg al margen del Foro Económico Mundial, Altman dijo a los presentes que haría falta un “avance rompedor” en el sector de la energía para alimentar la futura inteligencia artificial.
La IA del futuro consumirá mucha más electricidad de lo que la gente se esperaba, y “no hay manera de llegar hasta ella sin un gran avance energético”, dijo Altman.
La lectura optimista del empresario es que la IA nos empujará a desarrollar fuentes de energía más respetuosas con el medio ambiente, como la fusión nuclear y la energía solar, así como un almacenamiento de energía más barato.
“Esto nos motiva a invertir más en fusión”, puntualizó Altman, que además de dirigir OpenAI es inversor y presidente de Helion Energy, una startup dedicada al desarrollo de tecnología de fusión nuclear.
Fundada en 2013, Helion ha diseñado un reactor de fusión a base de deuterio y helio-3 que mezcla los conceptos de confinamiento magnético y confinamiento inercial. La empresa completar y producir electricidad con su prototipo Polaris (el séptimo hasta ahora) a lo largo de 2024.
Altman entró en la empresa hace tres años con 375 millones de dólares de su bolsillo. El año pasado, Helion cerró un acuerdo con Microsoft para proporcionar energía a sus centros de datos a partir de 2028.
No solo fusión, Altman pide también más fisión nuclear
En Davos, Altman expresó su deseo de que el mundo abrace asimismo la fisión nuclear como fuente de energía. El empresario ha invertido también en tecnología de microrreactores de fisión nuclear a través de la startup Oklo, que espera salir a bolsa en breve con una valoración de 850 millones de dólares.
Otra figura destacada que defiende la fisión nuclear para alimentar el desarrollo de la inteligencia artificial es el ingeniero jefe de IA generativa de Meta, Sergey Edunov, quien lidera el modelo de lenguaje Llama 2.
“Solo hacen falta dos reactores nucleares para cubrir la demanda de 2024″, dijo hace unos meses en una presentación. Se refería al gasto energético de todas las tarjetas gráficas que Nvidia vende en un año para una inferencia de 100.000 tokens por persona. La inferencia es el proceso mediante el cual un modelo de iA ya entrenado responde a nuestras peticiones.
Hace falta una capacidad de cómputo aún mayor, y por lo tanto un consumo energético más elevado, para entrenar un gran modelo de IA. Y el problema no tiene visos de mejora con los sistemas multimodales cada vez más grandes que están desarrollando las tecnológicas para competir entre ellas.