El chip de Cambridge que podría bajar 70% el costo energético de la IA: lo que cambia para los data centers en México
Investigadores de Cambridge crearon un memristor de óxido de hafnio que imita las neuronas y reduce hasta 70% el consumo de energía de la IA. Y para México, que tiene 279 MW de capacidad instalada y apunta a 1,500 MW en 2030, esto cambia toda la ecuación.
Si pensabas que el problema de energía en los data centers mexicanos iba a resolverse con paneles solares y buenas intenciones, hay algo más interesante en el horizonte. El 22 de abril de 2026, investigadores de la Universidad de Cambridge publicaron en ScienceDaily un avance que lleva semanas circulando entre ingenieros de hardware: un memristor de óxido de hafnio modificado que imita las conexiones neuronales del cerebro humano y podría reducir el consumo energético de la IA hasta en un 70%.
No es hype de startup. Es ciencia revisada por pares, publicada en Science Advances con DOI y todo. Y el timing es brutal, porque México justo ahora está en el momento más crítico de su expansión de infraestructura de IA.
Qué rayos es un memristor y por qué importa
Un memristor es básicamente un componente electrónico que recuerda cuánta corriente pasó por él, similar a como una neurona fortalece o debilita sus conexiones según el uso. El problema con los memristores tradicionales es que son caprichosos: dependen de filamentos conductores que se forman y rompen de manera impredecible, como intentar escribir con un plumón que a veces funciona y a veces no.
El equipo del Dr. Babak Bakhit, del Departamento de Ciencia de Materiales y Metalurgia de Cambridge, resolvió eso de forma elegante. En vez de filamentos, crearon uniones p-n (pequeñas compuertas electrónicas) en las interfaces entre capas del material. El resultado: el dispositivo cambia su resistencia ajustando una barrera de energía, de forma suave y predecible, ciclo tras ciclo.
Los números concretos que reportaron:
- Corrientes de switching un millón de veces menores que los memristores convencionales de óxido
- Cientos de niveles de conductancia estables (clave para computación analógica “en memoria”)
- Decenas de miles de ciclos de switching sin degradación significativa
- Demuestra spike-timing dependent plasticity, el mecanismo real que usan las neuronas para aprender
En pocas palabras: hardware que puede aprender y adaptarse, no solo almacenar bits. Como explicó Bakhit: “Los dispositivos filamentarios sufren de comportamiento aleatorio. Pero como los nuestros hacen switching en la interfaz, muestran uniformidad excepcional ciclo tras ciclo.”
La promesa del 70% y el elefante en el cuarto
Cambridge reportó en Science Advances que la computación neuromórfica basada en estos dispositivos podría reducir el consumo energético de la IA en hasta 70%. Esa cifra no viene de un benchmark en condiciones ideales de laboratorio, sino de comparar arquitecturas de cómputo.
Ahora el elefante: el proceso de fabricación requiere temperaturas de alrededor de 700°C. Los estándares actuales de manufactura de semiconductores no toleran eso bien, porque dañaría otros componentes ya integrados en el chip. El propio Bakhit reconoció que ese es “el principal desafío” a resolver antes de que esto llegue a producción industrial.
¿Cuánto falta? Difícil saberlo. Podría ser cinco años, podría ser diez. Pero la dirección ya está marcada.
No están solos: Loihi 3 y NorthPole ya llegaron
Mientras Cambridge trabaja en el nivel de materiales, Intel e IBM ya tienen chips neuromórficos en el mercado para 2026 que apuntan en la misma dirección.
Intel Loihi 3 (lanzado en enero de 2026, proceso de 4nm) es una chimba en términos de eficiencia: 8 millones de neuronas y 64 mil millones de sinapsis por chip, ocho veces más que su predecesor Loihi 2. Opera a apenas 1.2 Watts en carga pico, haciendo tareas que en un módulo edge con GPU convencional requerirían cientos de watts. El robot cuadrúpedo ANYmal D Neuro, usando Loihi 3, logró 72 horas de operación continua con una sola carga, una mejora 9 veces superior (800%) sobre modelos anteriores con GPU.
IBM NorthPole se está moviendo a producción en 2026 con una arquitectura radicalmente diferente: co-localiza memoria y cómputo en 256 cores, eliminando el “cuello de botella de von Neumann” que hace que los chips modernos pasen más tiempo moviendo datos que procesándolos. Los resultados: 5 veces la eficiencia energética de una H100 (para reconocimiento de imagen), o 72.7 veces para inferencia de LLMs para tareas de reconocimiento de imagen, y 72.7 veces mayor eficiencia para inferencia de LLMs.
Estos no son prototipos. Son chips que ya existen. El avance de Cambridge potencialmente agrega otra capa de eficiencia encima de estas arquitecturas cuando madure como material.
Por qué esto le importa a México más que a casi cualquier otro país
Hay un contexto que no aparece en los papers de Cambridge pero que aquí en México se siente muy concreto: la energía es el cuello de botella principal de toda la expansión de IA empresarial en el país.
México tiene actualmente 279 MW de capacidad instalada en data centers (subió de 115 MW en 2024 a 235 MW en 2025 y llegó a 279 MW en 2026). La meta privada es alcanzar 1,500 MW para 2030. Ahí está el problema: la Asociación Mexicana de Data Centers (MEXDC) ya identificó que la infraestructura eléctrica es el obstáculo número uno, con múltiples instalaciones “en espera de energización”.
Como explicamos en nuestro análisis de Nvidia Vera Rubin ya está en producción, el problema no es solo conseguir hardware de IA de última generación: es tener la infraestructura para correrlo sin que la factura de CFE te reviente el negocio.
Los data centers de IA son brutales en consumo. Una instalación seria puede superar los 100 MW, y entre 35% y 45% de eso se va solo en sistemas de enfriamiento. Las empresas que ya operan en Querétaro, Estado de México y CDMX están implementando PPAs (contratos de energía renovable), sistemas de baterías y esquemas de autoconsumo para lograr ahorros de hasta 30% en su gasto anual de electricidad. No porque sean verdes por convicción, sino porque no les queda de otra.
CloudHQ ya metió una inversión de 4,800 millones de dólares para construir seis data centers en Querétaro con su propia subestación privada de 900 MW, lo que dice bastante de hasta dónde ha llegado el problema de depender de la red pública.
En ese contexto, un chip que consuma 70% menos energía no es solo una mejora técnica. Es la diferencia entre poder escalar operaciones de IA empresarial en México o quedarse con infraestructura subdimensionada esperando que CFE expanda su red.
¿Y tú como empresa en México qué haces mientras tanto?
La respuesta honesta es: no esperes a que llegue el chip de Cambridge. Ese es un horizonte de mediano a largo plazo. Lo que sí puedes hacer hoy:
-
Evaluar chips neuromórficos disponibles para workloads específicos. Intel Loihi 3 ya existe y su programa de investigación está abierto para empresas y universidades. No es consumer hardware, pero tampoco está cerrado.
-
Considerar arquitecturas de inferencia en el edge en vez de mandarlo todo a cloud. Reduce latencia Y consumo energético de tus operaciones de IA.
-
Negociar contratos de energía antes de expandir infraestructura. La tarifa GDMTH de CFE para gran demanda puede variar significativamente según cómo estructures tu consumo.
Como señalamos en nuestro artículo sobre el mayor salto de IA que llega en 2026, las empresas que están construyendo su infraestructura de IA hoy están poniendo los cimientos de los próximos cinco años. Construir sobre bases que van a ser 70% más baratas de operar en el futuro es una decisión de arquitectura, no de presupuesto.
El fondo del asunto
El trabajo de Cambridge, publicado en Science Advances no va a cambiar los data centers mañana. Pero junto con Loihi 3 de Intel y NorthPole de IBM, dibuja una trayectoria muy clara: la IA de los próximos años va a consumir radicalmente menos energía por operación. No porque los modelos se vuelvan más tontos, sino porque el hardware va a aprender a ser tan eficiente como el cerebro humano, que procesa información compleja con apenas 20 watts.
Para México, un país que está intentando ser el hub de datos de América Latina pero que todavía está batallando con la capacidad eléctrica, ese futuro no llega suficientemente rápido. Pero al menos ya sabe hacia dónde va.
¿Tú o tu empresa ya están sintiendo el impacto del consumo energético en proyectos de IA? Cuéntanos en los comentarios.
Fuentes
- University of Cambridge: New computer chip material inspired by the human brain could slash AI energy use
- ScienceDaily: This new brain-like chip could slash AI energy use by 70%
- Tom’s Hardware: New Cambridge human brain-inspired chip could slash AI energy use
- FinancialContent: Intel’s Loihi 3 and the Dawn of Real-Time Neuromorphic Edge AI
- Expansión: Data centers en México van en crecimiento, pero enfrentan problema para meta 2030
- Mexico Industry: IA y data centers, el reto energético que redefine la competitividad en México
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
Maine intentó frenar los data centers de IA... y la gobernadora les dijo que no por 550 millones de dólares
Maine aprobó el primer moratorio estatal de data centers de IA en EE.UU. y su gobernadora lo vetó días después. Lo que esto significa para el resto del mundo y por qué México debería estar tomando nota ahora.
El chip de IA que China construyó para no necesitar a NVIDIA: Huawei Ascend 950PR ya tiene pedidos de ByteDance y Alibaba
ByteDance y Alibaba van por 750,000 unidades del Huawei Ascend 950PR en 2026. A $6,900 dólares por tarjeta y con soporte para migrar código CUDA, China acaba de cambiar las reglas del cómputo de IA.
Contrabando masivo de chips Nvidia a China: 6 acusados, $2.5 mil millones en GPUs y por qué le importa a México
El DOJ presentó cargos contra 6 personas en dos semanas por desviar chips de IA de Nvidia hacia China usando rutas fantasma por Asia. El impacto directo: México ya tiene cuota de importación limitada y las cosas se van a poner más estrictas.