MCP: el nuevo protocolo de integración para los agentes de IA

La revolución de la inteligencia artificial no solo se mide en parámetros por segundo ni en el tamaño de un modelo de lenguaje. Se mide también en cómo se conectan esos modelos con el mundo real, con nuestros sistemas, APIs, flujos de negocio y bases de datos.
Aquí es donde entra en escena el Model Context Protocol (MCP), un estándar emergente que propone una capa de integración estructurada, auditable y segura entre modelos de IA y herramientas externas.
Este artículo desglosa el protocolo en profundidad técnica, analiza sus ventajas frente a modelos anteriores de integración (como los plugins, REST, SDKs o function-calling), muestra casos de uso aplicados —especialmente en el mundo financiero y de pagos— y finalmente compara su impacto con hitos como la apificación y el open banking.
Orígenes y evolución del Model Context Protocol (MCP)
La aparición del Model Context Protocol (MCP) responde a una necesidad crítica surgida en 2023 y 2024: coordinar de forma estructurada cómo los modelos de lenguaje —cada vez más sofisticados y autónomos— interactúan con sistemas reales, herramientas externas y entornos de ejecución complejos.
Durante la expansión masiva de los agentes de IA autónomos y los LLMs conectados (como los asistentes corporativos, copilotos, workflows dirigidos por IA, etc.), surgió un patrón común: la integración se realizaba mediante adaptadores propietarios, APIs rígidas, o mecanismos específicos como los function-calling de OpenAI, los plugins en ChatGPT, o los connectors en herramientas como LangChain.
Esto generaba un problema de fondo: cada integración era distinta, lo que implicaba alta fricción, falta de portabilidad entre proveedores y dificultad para auditar el comportamiento de un agente IA en producción.
La génesis del estándar
Ante ese contexto, en noviembre de 2024 se presenta públicamente el borrador inicial de MCP como protocolo abierto y neutral, impulsado por un consorcio informal de empresas tecnológicas preocupadas por la interoperabilidad de agentes IA. En esa versión fundacional participaron:
- Anthropic, como promotor inicial del modelo Claude y defensor de estándares abiertos para control contextual.
- OpenAI, que venía de lanzar su propio sistema de herramientas en GPTs personalizados.
- Google DeepMind, con Gemini en camino y una fuerte apuesta por entornos controlados.
- Meta AI, interesado en dotar de contexto a sus modelos de código abierto (LLaMA).
- Cohere, LangChain, LlamaIndex, y empresas de tooling, orquestación o integración conversacional.
Desde el principio, el objetivo de MCP fue claro:
“Proveer un estándar abierto para que los modelos de lenguaje puedan descubrir, describir y utilizar herramientas de forma estructurada, segura y auditable, sin depender de implementaciones propietarias.”
Fechas clave
- Noviembre 2024: publicación del borrador inicial de MCP v0.1 en GitHub como protocolo JSON-RPC.
- Diciembre 2024: OpenAI anuncia compatibilidad inicial con MCP en sus GPTs personalizados.
- Enero 2025: LangChain y LlamaIndex incorporan servidores MCP como método estándar de ejecución de herramientas.
- Febrero 2025: Google Gemini y Meta LLaMA comienzan a probar integración MCP en entornos controlados.
- Primavera 2025: Nace una comunidad abierta de servidores MCP, documentación, SDKs y pruebas de certificación.
Expansión progresiva del protocolo
Desde su aparición, MCP ha ido ganando tracción como la forma estandarizada y portable de conectar modelos con el mundo exterior. Su crecimiento se ha cimentado en cinco pilares:
- Neutralidad técnica: al estar basado en JSON-RPC y no en APIs web propietarias, puede ser implementado por cualquier sistema.
- Compatibilidad multiservidor: el mismo modelo puede conectarse a múltiples MCP tool servers sin reentrenamiento ni adaptación.
- Capacidad de validación y control: permite definir esquemas, reglas, límites de uso, descripciones y políticas de autorización.
- Facilidad de integración: se están desarrollando SDKs para Node.js, Python, Go, Java, facilitando su adopción en entornos empresariales.
- Adopción creciente en agentes corporativos: bancos, aseguradoras y PSPs están comenzando a exponer sus funciones como servidores MCP para facilitar la integración con modelos.
La existencia de un protocolo universal, agnóstico al proveedor y centrado en la trazabilidad, lo convierte en una pieza estructural clave para el desarrollo de agentes IA auditables, escalables y confiables. En ese sentido, puede compararse con lo que representó en su día HTTP para la web, o REST para la revolución API.
¿Qué es un Agente de IA?
Un agente de inteligencia artificial es un modelo capaz de interactuar de forma autónoma con entornos, personas o sistemas para lograr objetivos definidos. A diferencia de los modelos tradicionales que solo generan texto, los agentes IA pueden observar un estado, razonar sobre él, tomar decisiones y ejecutar acciones.
En la práctica, esto significa que un agente puede actuar como un asistente digital que no solo responde, sino que decide cuándo consultar una base de datos, elige qué herramienta usar, detecta anomalías o errores y propone o lanza soluciones. Y todo ello con capacidad para interactuar con APIs, funciones empresariales o plataformas técnicas.
¿Qué es MCP? Definición técnica y filosofía
MCP es un protocolo de integración cliente-servidor basado en JSON-RPC 2.0 diseñado para permitir que modelos de lenguaje natural o agentes IA puedan:
- Descubrir herramientas (funciones, APIs, recursos).
- Solicitar acciones mediante llamadas estructuradas.
- Recibir resultados estructurados, interpretables de forma determinista.
Su objetivo es normalizar la interacción entre un modelo y su entorno operativo, separando explícitamente:
- La inteligencia conversacional del modelo.
- La lógica empresarial expuesta como herramientas externas.
Esto significa que el modelo no contiene lógica de negocio ni manipula datos directamente, sino que actúa como un «director de orquesta» que decide qué herramienta usar, cómo y cuándo.
Componentes técnicos de MCP
MCP Client (Modelo o Agente)
El cliente es el modelo de IA. No ejecuta funciones, sino que:
- Solicita
mcp.describe()
para obtener el catálogo de herramientas. - Invoca funciones con
mcp.call()
. - Puede preguntar por el estado con
mcp.status()
.
MCP Tool Server
Es el servidor que expone funciones de negocio. Define:
- Un manifiesto JSON con metainformación.
- Funciones con nombre, descripción, parámetros esperados (esquemas JSON), y tipo de respuesta.
- Políticas de autorización, límites, errores esperados.
Canal de Comunicación
- Estándar: JSON-RPC 2.0 sobre HTTPS.
- Autenticación recomendada: OAuth 2.0, JWT o claves API.
- Opcional: firmas criptográficas, headers de contexto, logs firmados.
Ejemplos Técnicos Reales
Ejemplo 1: Agente IA que revisa transacciones de adquirencia (Medios de Pago)
{
"jsonrpc": "2.0",
"method": "mcp.call",
"params": {
"function": "getTransactionsByMID",
"arguments": {
"merchantId": "87100239",
"from": "2025-06-01",
"to": "2025-06-08"
}
},
"id": 1
}
Respuesta esperada:
{
"jsonrpc": "2.0",
"result": {
"transactions": [
{ "amount": 92.1, "currency": "EUR", "timestamp": "2025-06-04T11:30:00Z" },
{ "amount": 12.4, "currency": "EUR", "timestamp": "2025-06-04T12:01:00Z" }
]
},
"id": 1
}
Ejemplo 2: Revisión antifraude por contexto de operación
{
"card": "XXXX-XXXX-XXXX-9810",
"location": "Madrid",
"amount": 920.3,
"channel": "TPV",
"merchant": "supermercado_x"
}
Respuesta:
{ "score": 0.91, "flagged": true }
Ejemplo 3: Notificación automática al equipo de soporte
{
"function": "notifySupportTeam",
"arguments": {
"ticketType": "rechazo transacción",
"merchant": "MID-00523",
"description": "El terminal ha devuelto error 91 para tarjeta 5413****."
}
}
Aplicaciones en Medios de Pago
- Automatización de conciliaciones mediante agentes que cruzan MCPs contables con operaciones reales.
- Gestión proactiva de incidencias: un agente que detecta errores en datáfonos y abre incidencias vía herramienta MCP.
- IA que configura reglas antifraude en tiempo real según eventos y patrones sospechosos.
- Asistentes que ayudan a comercios a entender flujos de pagos, rechazos, y cómo mejorar ratios de aprobación.
No es una moda, es un camino…
MCP no es una moda. Es el intento más serio hasta la fecha de dar una respuesta técnica a una pregunta urgente: ¿cómo hacemos que los agentes IA colaboren con nuestras herramientas sin comprometer seguridad, contexto y control?
En un futuro no muy lejano, cada herramienta SaaS, cada PSP, cada plataforma de pago o CRM, expondrá su lógica de negocio no solo como API REST, sino como tool server compatible con MCP.
Y los modelos no solo responderán preguntas: ejecutarán tareas. Bajo supervisión, con contexto, y en colaboración con nosotros.
You cannot copy content of this page