La inteligencia artificial amenaza la red eléctrica mundial, pero un hallazgo chino podría cambiarlo todo

Y si el futuro de la IA no dependiera de su potencia bruta, sino de un ingenio ingenieril? Mientras que los modelos más avanzados consumen cada vez más energía, un equipo chino afirma haber encontrado un método radical para hacerlos mucho más eficientes.

Por qué los modelos de IA actuales se convierten en una amenaza para las redes eléctricas mundiales

Comenzamos a verlo claramente: la energía se está convirtiendo en el eje central para la IA. Entrenar un gran modelo de lenguaje es como hacer funcionar cientos de hogares durante meses. Y cuando consideramos que esta tendencia va a explotar con el auge del uso de la IA, especialmente la generativa, entendemos mejor por qué algunos expertos estadounidenses hablan de un «apagón digital inminente».

En Estados Unidos, algunas regiones, como la costa este, ya están planificando cortes rotativos para los centros de datos, según el Wall Street Journal. ¿El núcleo del problema? Los superordenadores y tarjetas gráficas (GPU), que consumen una cantidad desmesurada de electricidad para desplegar su potencia. En resumen: más inteligencia artificial significa más CO2, más centrales eléctricas y más tensión en las redes.

Cómo los memristores podrían reemplazar las GPU con un enfoque radicalmente diferente

¿Y si cambiamos el campo de batalla? Exactamente eso propone una tecnología que ha estado en la sombra por mucho tiempo: los memristores. Estos componentes están a medio camino entre la memoria y el procesador. ¿Su particularidad? Retienen su resistencia eléctrica, lo que les permite realizar cálculos directamente en la memoria, sin tener que transferir datos continuamente como lo hace una arquitectura clásica.

Es como combinar el cerebro y la memoria RAM en un solo componente. En teoría, esto es una revolución. Sin embargo, en la práctica, estos memristores son inestables, ruidosos y, por lo tanto, considerados imprecisos. Hasta ahora, se les ha juzgado como inadecuados para entrenar IA poderosas.

Una estrategia de entrenamiento inédita para aprovechar los errores de los memristores mientras reduce el consumo

Es aquí donde entra la genialidad de un equipo del laboratorio de Zhejiang en China. En lugar de intentar corregir los errores de los memristores, decidieron convivir con ellos. Su enfoque se llama EaPU, que significa error-aware probabilistic update.

La idea es simple y brillante: en lugar de buscar la perfección en cada iteración, la red acepta pequeños errores, siempre que se mantengan por debajo de un cierto umbral. Luego elige actualizar solo una parte ínfima de los parámetros, a veces menos del 0,1 %.

¿El resultado? Menos escrituras sobre los memristores (es decir, menos desgaste), hasta 50 veces menos energía consumida y una duración de vida prolongada por 1,000 veces. Y, sobre todo, la precisión está garantizada: un 60 % más que los métodos anteriores con memristores, llegando a competir con superordenadores clásicos. Esto ya no es un experimento de laboratorio, es un cambio de paradigma.

Una innovación aplicable a los LLM, así como a otras tecnologías como la MRAM y los transistores ferroeléctricos

Por ahora, esta técnica ha sido probada en tareas modestas: reducción de ruido en imágenes, superresolución, en matrices de memristores de 180 nm. Pero los investigadores ven más allá. Estiman que el método EaPU podría adaptarse a grandes modelos de lenguaje (LLM). E incluso más: otras tecnologías como la MRAM o los transistores ferroeléctricos también podrían beneficiarse de ello.

Imagina un ChatGPT funcionando con material 100 veces más eficiente y 1,000 veces más duradero. Esto cambiaría las reglas del juego para empresas, gobiernos y quizás para el planeta entero. No será inmediato, pero el concepto está ahí, sólido, publicado en Nature Communications, y se esperan pruebas a gran escala.

Scroll to Top