97 millones de instalaciones después, MCP ya es el HTTP de los agentes de IA: lo que todo dev en México necesita saber hoy
El Model Context Protocol pasó de experimento interno de Anthropic a estándar de la industria en 16 meses. Qué es, cómo funciona y por qué ya está apareciendo en entrevistas de trabajo.
97 millones de descargas mensuales. Eso es lo que tiene el SDK del Model Context Protocol en marzo de 2026, y lo más loco es que hace apenas 16 meses no existía. Anthropic lo lanzó en noviembre de 2024, tenía como 2 millones de descargas al mes cuando arrancó, y ahorita ya es el estándar que usan ChatGPT, Cursor, Gemini, Microsoft Copilot y VS Code. Un crecimiento de 4,750% en poco más de un año.
Si eres dev en México y todavía no sabes qué es MCP, este es el momento. Porque esto ya está llegando a entrevistas de trabajo.
Qué es MCP, en cristiano
La explicación oficial lo compara con USB-C: un conector universal que funciona para todo. Antes de MCP, si querías que tu agente de IA se conectara a tu base de datos, a GitHub, a Slack y a Notion al mismo tiempo, tenías que escribir una integración custom para cada cosa. Y si cambiabas de modelo de IA, volvías a empezar.
MCP resuelve eso con un protocolo estándar basado en JSON-RPC 2.0. La idea es simple: construyes el servidor una sola vez, y funciona en cualquier cliente compatible. Según la documentación oficial de modelcontextprotocol.io, la arquitectura tiene tres piezas:
- MCP Host: la app que usa el modelo de IA (por ejemplo, Claude Desktop, VS Code con Copilot, Cursor)
- MCP Client: vive dentro del host y traduce las peticiones del LLM al protocolo
- MCP Server: el servicio que expone tus herramientas, datos o workflows al modelo
Piénsalo así: antes cada IA hablaba su propio idioma con cada herramienta. MCP es como decir “todos hablan el mismo lenguaje y ya”. Por eso lo llaman el HTTP de los agentes de IA: igual que HTTP estandarizó cómo se transfieren datos en la web, MCP estandariza cómo los modelos acceden a herramientas y contexto externo.
El camino de experimento interno a estándar global
Cuando Anthropic publicó MCP en noviembre de 2024, muchos weyes lo vieron y dijeron “ah, qué chido, otro protocolo propietario de Anthropic”. Nadie esperaba que se convirtiera en lo que es hoy.
OpenAI adoptó oficialmente MCP en marzo de 2025 (Q1, no Q2), específicamente el 26 de marzo según TechCrunch. En ese momento ya quedó claro que esto no era un proyecto de una sola empresa. Microsoft anunció GA de MCP en Copilot Studio en mayo 2025 (Q2, no Q3), luego Google DeepMind y AWS en Q4. Para finales de 2025, todos los jugadores grandes del ecosistema ya tenían soporte MCP.
El golpe de gracia fue cuando Anthropic donó el protocolo a la Agentic AI Foundation (AAIF), un fondo dirigido bajo la Linux Foundation, cofundado por Anthropic, Block y OpenAI, con soporte de Google, Microsoft, AWS, Cloudflare y Bloomberg. Básicamente la misma movida que Linux, que PostgreSQL, que Kubernetes: la industria junta controla el estándar para que ninguna empresa lo secuestre.
Hoy el ecosistema tiene más de 10,000 servidores MCP públicos activos. Developer tools, CRMs, bases de datos, herramientas de búsqueda, automatización. Si usas una herramienta de trabajo, probablemente ya existe un servidor MCP para ella.
Por qué le importa a los devs en México
La neta, esto no es solo trivia tecnológica. Ya lo estamos viendo en el mercado laboral.
Las posiciones que mencionan “MCP” o “Model Context Protocol” crecieron un 340% entre septiembre de 2025 y marzo de 2026. No es que ahorita sea requisito en todas las entrevistas, pero en 6-12 meses va a ser como saber usar Git o entender REST APIs: básico esperado. Las empresas que ya están construyendo con agentes de IA están pidiendo esto.
Las organizaciones que implementaron MCP reportan entre 40-60% menos tiempo para desplegar agentes. Eso tiene sentido: ya no tienes que escribir integraciones custom para cada combinación de modelo y herramienta. Escribes el servidor una vez y lo conectas a donde sea.
Esto conecta directo con el mundo que ya exploramos en nuestra guía de Claude Code vs Cursor vs Copilot vs Windsurf: todas esas herramientas ya soportan MCP. Si aprendes a construir servidores MCP, tus integraciones funcionan en todas ellas.
Cómo funciona en la práctica
Un ejemplo concreto: imagina que quieres que tu agente de IA pueda consultar tu base de datos de PostgreSQL. Con MCP construyes un servidor que expone herramientas como query_database o get_schema. Una vez que el servidor está corriendo, cualquier cliente MCP compatible, Claude, ChatGPT, Copilot, puede usar esas herramientas sin que cambies nada del servidor.
El SDK está disponible en Python y TypeScript, que son los dos lenguajes más populares para trabajo con IA de todos modos. Para arrancar necesitas Python 3.10+ o Node.js 18+. El quickstart oficial está en modelcontextprotocol.io/introduction y es bastante directo: en menos de una hora puedes tener un servidor corriendo localmente y conectado a Claude Desktop o a Cursor.
Si ya tienes experiencia con correr tu propia IA local con Ollama o LM Studio, agregar MCP a ese setup es el siguiente paso natural: conectas tus herramientas locales al modelo que ya tienes corriendo.
Los números que importan
| Métrica | Noviembre 2024 | Marzo 2026 |
|---|---|---|
| Descargas mensuales SDK | ~2 millones | 97 millones |
| Servidores MCP públicos | Decenas | 10,000+ |
| Grandes proveedores con soporte | 1 (Anthropic) | 6+ |
| Crecimiento en vacantes laborales | - | +340% |
Esos números son, como dirían los argentinos, una locura total. Ningún protocolo de infraestructura ha crecido tan rápido desde los días de npm.
Por dónde empezar hoy
Si quieres meterte sin pensarla mucho, esto es lo que haría:
1. Lee la documentación oficial. modelcontextprotocol.io tiene guías para construir tanto servidores como clientes. Están en inglés pero son claras. Empieza con “Build servers”.
2. Instala el Inspector de MCP. Es una herramienta de debug que te deja probar tus servidores visualmente. Muy útil cuando estás aprendiendo.
3. Clona un servidor existente y modifícalo. En el registro oficial de MCP hay cientos de servidores open source. Tomar uno de GitHub, leerlo y hacerle cambios es la forma más rápida de entender la arquitectura.
4. Conéctalo a Cursor o Claude Desktop. Ver cómo tu IA local usa las herramientas que tú construiste es el momento “a huevo, ya entendí” que necesitas.
El SDK de Python es más fácil de entender si eres nuevo. Si ya sabes TypeScript, el SDK de TS tiene más ejemplos avanzados en la comunidad.
La pregunta del millón
¿Va a seguir siendo el estándar o van a aparecer competidores? Honestamente, cuando tienes a Anthropic, OpenAI, Google, Microsoft y AWS todos empujando el mismo protocolo bajo la Linux Foundation, la pelea ya se acabó. Así es exactamente como se estandarizó REST, cómo se estandarizó Docker, cómo se estandarizó Kubernetes. La industria llega a un punto donde mantener estándares fragmentados cuesta más que ceder y usar el mismo.
MCP ya pasó ese punto. El tren salió.
¿Tú ya tienes algún proyecto en mente donde lo usarías? Comenta abajo o cuéntame en las redes. Estamos armando una guía más técnica de construcción de servidores MCP para el mercado mexicano, así que si hay temas específicos que quieras que cubramos, avísenme.
Fuentes
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
Google Search Live ya está en México: apunta la cámara y platica con Gemini sobre lo que ves, en tiempo real
Desde el 26 de marzo, Google Search Live llega a más de 200 países, incluyendo México. Así funciona la búsqueda visual conversacional con Gemini 3.1 Flash Live y para qué sirve en tu día a día.
Meta Ray-Ban Scriber y Blazer: los nuevos lentes de IA para quienes usan prescripción (y México tiene que esperar)
Meta registró ante la FCC dos nuevos modelos Ray-Ban AI: Scriber y Blazer. Diseño ejecutivo, perfil deportivo, Wi-Fi 6 y por fin pensados para quienes usan graduación. Lo que sabemos y cuándo podrían llegar a México.
ChatGPT Business ya cuesta $20 por asiento y Codex se cobra por uso: la calculadora que tu empresa en México necesita hacer ahorita
OpenAI redujo el precio de ChatGPT Business a $20/seat anual y lanzó asientos Codex solo pay-as-you-go. Si tienes un equipo de devs en México, aquí están los números reales.