ia

AWS ya genera $15 mil millones solo en IA y Amazon va a gastar $200 mil millones más: lo que significa para México

ia · 7 min de lectura (actualizado)

AWS ya genera $15 mil millones solo en IA y Amazon va a gastar $200 mil millones más: lo que significa para México

Andy Jassy reveló en su carta anual que la IA en AWS ya corre a un ritmo de $15B al año, sus chips propios valen $20B más, y la inversión de $200B en 2026 va a cambiar los precios del cloud para siempre.

AWS ya genera $15 mil millones solo en IA y Amazon va a gastar $200 mil millones más: lo que significa para México

El 9 de abril Andy Jassy les mandó una carta a los accionistas de Amazon y metió bomba tras bomba. La IA en AWS ya genera más de $15 mil millones al año. Sus chips propios valen más de $20 mil millones. Y van a gastar $200 mil millones en infraestructura solo en 2026. No es hype: son los números más grandes que cualquier empresa tecnológica ha comprometido en la historia del cloud, y tienen implicaciones directas para cualquier negocio o desarrollador en México que use AWS.

Aquí va el desglose sin rodeos.

Los $15 mil millones de AWS en IA: contexto real

Según la carta anual de Andy Jassy a accionistas, el run-rate de ingresos por IA en AWS superó los $15 mil millones en el Q1 de 2026. Para que te dé una idea de qué tan brutal es ese número: AWS tardó tres años completos en generar $58 millones después de su lanzamiento comercial. La IA llegó a $15B a un ritmo 260 veces más rápido.

Ese $15B ya representa alrededor del 10% de todo AWS, que en Q4 de 2025 generó $35.6 mil millones solo en ese trimestre, creciendo 24% año contra año, su ritmo más rápido en 13 trimestres. La demanda de capacidad de IA sigue superando lo que pueden construir.

Y lo más interesante para el bolsillo de todos: Jassy dejó claro que la mayor parte de ese capex de 2026 se va a monetizar hasta 2027 y 2028, no ahorita. O sea, están invirtiendo en futuro, no solo en lo que ya venden.

Los chips propios: el arma secreta de Amazon contra Nvidia

Aquí está la parte que más me llama la atención y que muchos medios no cubren bien. Amazon lleva años construyendo su propio silicon y ya es un negocio gigante por sí solo.

El portafolio incluye tres chips principales: Graviton (procesadores para carga general), Trainium (aceleradores para entrenar y correr modelos de IA) y Nitro (networking e infraestructura). Juntos generan un run-rate de más de $20 mil millones al año, creciendo a triple dígito porcentual año contra año.

Si fuera una empresa separada, ese negocio de chips valdría alrededor de $50 mil millones, según estimaciones del mercado. Eso es más que el valor de muchas empresas de semiconductores que cotizan en bolsa.

Los números de Trainium son una chimba para cualquiera que esté pagando facturas de Nvidia en AWS:

  • Trainium2: 30-40% mejor precio-rendimiento que GPUs comparables. Casi agotado.
  • Trainium3: empezó a enviarse a principios de 2026, 30-40% más eficiente que Trainium2. Casi completamente reservado.
  • Trainium4: todavía a unos 18 meses de disponibilidad amplia, pero con capacidad ya reservada.

Amazon Bedrock, su plataforma de modelos fundacionales, ya corre la mayor parte de la inferencia en Trainium. Y Graviton ya lo usan el 98% de los mil clientes más grandes de EC2.

La apuesta es directa: según TechCrunch, Jassy prácticamente le declaró la guerra a Nvidia en la carta, reconociendo que “virtualmente toda la IA hasta ahora se ha hecho en chips de Nvidia” pero apostando a que sus chips propios van a cambiar esa ecuación.

$200 mil millones: la apuesta más grande en la historia del cloud

Amazon planea gastar aproximadamente $200 mil millones en capex durante 2026, casi todo para AWS. Para poner esto en perspectiva: Google tiene proyectado gastar unos $180 mil millones, y Microsoft lleva sus propios problemas de capacidad de energía.

Jassy lo dijo sin rollos: “No estamos invirtiendo aproximadamente $200 mil millones en capex en 2026 por un presentimiento.”

Detrás de esa frase hay $244 mil millones en compromisos de clientes en backlog, incluyendo una asociación con OpenAI que supera los $100 mil millones. En 2025, AWS ya agregó 3.9 gigawatts de nueva capacidad eléctrica y espera duplicar su capacidad total de energía para finales de 2027. Eso no es speculación: son contratos firmados y construcción en curso.

Si te preguntas si la demanda soporta eso, el crecimiento de 24% año contra año en Q4 2025 responde la pregunta. La IA generativa industrial se paga, y se paga caro en cloud, que es justo de lo que hablamos en ramaggedon: la ia se está comiendo toda la ram del mundo y tú vas a pagar la cuenta.

¿Qué significa esto para México?

El 14 de enero de 2025 AWS inauguró la región México Central (mx-central) con tres zonas de disponibilidad. Y según datos de Milenio, AWS reportó que 2 millones de empresas en México ya usan IA, el 38% de todos los negocios del país, con casi medio millón adoptándola solo el último año.

Amazon también comprometió $5 mil millones de inversión en su región mexicana. BBVA, BanCoppel, Aeromexico y Grupo Ángeles (que redujo el análisis de imágenes médicas de 3 días a 30 minutos) ya son casos de uso reales con Bedrock y SageMaker en México.

La pregunta del millón para los que ya usan AWS: ¿Trainium va a bajar mis costos?

La respuesta corta: potencialmente sí, pero no de inmediato. Las instancias EC2 con Trainium2 ya ofrecen hasta 50% menos costo de entrenamiento vs instancias GPU comparables cuando están disponibles. El problema es que Trainium3 ya está casi agotado y Trainium4 llega hasta 2027-2028. El beneficio real en precios para usuarios de México llega cuando hay capacidad suficiente, que según los timelines de Jassy es justamente para ese período.

Si ahorita necesitas hacer inferencia con modelos fundacionales en AWS, la neta es que Bedrock ya corre en Trainium internamente y eso se traduce en mejores costos por token. Pero si quieres las instancias raw de Trainium, hay lista de espera.

Amazon vs Google vs Microsoft: quién va ganando en cloud IA

Los números son claros pero matizados. AWS mantiene la mayor cuota de mercado en cloud a pesar de que Google Cloud creció 48% y Azure 39% sobre una base más pequeña. La diferencia de Amazon es que combina hardware propio, acceso a modelos de terceros vía Bedrock, y una base instalada de clientes empresariales gigante.

Google y Microsoft tienen ventajas propias, especialmente en integración con sus ecosistemas. Si ya tienes Microsoft 365 o Google Workspace, sus soluciones de IA tienen rutas de adopción más claras. Si estás en AWS de todas formas, los chips propios de Amazon empiezan a hacer la diferencia en precio por token a escala.

Para un developer o startup en México que está eligiendo plataforma, la comparativa que necesitas está en chatgpt vs claude vs gemini vs grok vs deepseek a nivel de modelos, pero a nivel infraestructura la respuesta depende de qué tan metido estás en el ecosistema de cada nube.

Y si el costo del cloud sigue siendo un bloqueador, todavía tiene sentido revisar cómo correr tu propia ia local en 2026 con Ollama y LM Studio. No para todo sirve, pero para inferencia de modelos medianos en desarrollo te ahorras una cantidad seria de lana mensual.

El veredicto

Amazon está jugando largo. Los $200 mil millones de capex en 2026 no se recuperan este año, se recuperan en 2027 y 2028 cuando la capacidad construida hoy empiece a monetizarse. Los chips de Trainium son reales y están ganando adopción con clientes como Anthropic, OpenAI y hasta Apple.

Para México, la región mx-central ya existe, los clientes enterprise ya están, y los costos de Trainium empezarán a filtrarse hacia abajo cuando haya más capacidad. El timeline honesto es 12-24 meses para ver beneficios reales en precios.

La pregunta que Jassy no responde: ¿cuánto de ese beneficio de eficiencia le va a llegar al usuario final vs quedarse en los márgenes de Amazon? Eso se verá en los precios de 2027. Por lo pronto, la infraestructura se está construyendo y México está en el mapa.

¿Ya estás usando AWS para IA en tu empresa o proyecto? Cuéntanos cómo te ha ido con los costos en los comentarios.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar