Una guía completa de los límites de tasa de la API de Intercom

Stevia Putri

Amogh Sarda
Last edited 24 octubre 2025
Expert Verified

Pongámonos en situación. Estás desarrollando una integración personalizada impecable para tu equipo de soporte en Intercom. Las cosas por fin empiezan a funcionar. Tu automatización va sobre ruedas, los tickets se actualizan y te sientes bastante orgulloso de ti mismo. Entonces, de la nada, todo se detiene. Te sumerges en los registros y ahí está: el temido error "429 Too Many Requests".
Si esto te suena demasiado familiar, no estás solo. Los límites de la API son una realidad ineludible para cualquiera que intente crear y escalar sus herramientas en plataformas como Intercom. Existen para mantener la plataforma estable para todos, pero pueden parecer un gran obstáculo cuando solo intentas crear mejores flujos de trabajo para tu equipo.
Esta guía te explicará todo lo que necesitas saber sobre los límites de la API de Intercom. Cubriremos por qué son importantes para tu negocio y te mostraremos cómo trabajar con ellos, ya sea que estés programando desde cero o buscando una solución más inteligente y preconstruida.
¿Cuáles son los límites de la API de Intercom?
En esencia, la limitación de la API es simplemente un tope en la cantidad de solicitudes que tu aplicación puede enviar a un servidor en un período de tiempo determinado. Es una forma que tienen las plataformas de asegurarse de que ninguna aplicación acapare todos los recursos y ralentice el sistema para los demás. Intercom utiliza la limitación de velocidad para mantener su servicio rápido y fiable.
Según la documentación oficial de Intercom, los límites predeterminados de su API REST cambian según el tipo de aplicación que estés utilizando.
-
Aplicaciones Privadas: Tienen un límite de 10,000 llamadas a la API por minuto para cada aplicación, con un límite total de 25,000 llamadas a la API por minuto para todo el espacio de trabajo. Por lo tanto, si tienes varias aplicaciones privadas en funcionamiento, todas deben compartir ese fondo común de 25,000 llamadas del espacio de trabajo.
-
Aplicaciones Públicas: Estas también tienen un límite de 10,000 llamadas a la API por minuto por aplicación. La diferencia clave es que cada aplicación pública obtiene su propia cuota separada, por lo que no tienen que compartirla entre sí.
Pero aquí está el detalle que a menudo confunde a la gente: Intercom no solo cuenta las solicitudes en un período de 60 segundos. Para detener ráfagas repentinas de tráfico, en realidad distribuye el límite en ventanas de 10 segundos. Esto significa que un límite de 10,000 llamadas por minuto en realidad equivale a unas 1,666 llamadas cada 10 segundos. Si intentas lanzar las 10,000 solicitudes en los primeros cinco segundos de un minuto, te limitarán mucho antes de que termine ese minuto.
Aquí tienes un resumen rápido:
| Tipo de App | Límite por App (por minuto) | Límite por Espacio de Trabajo (por minuto) | Límite Distribuido (por 10 segundos) |
|---|---|---|---|
| App Privada | 10,000 | 25,000 (compartido) | ~1,666 |
| App Pública | 10,000 | 25,000 (separado) | ~1,666 |
Para ayudarte a mantenerte dentro de estos límites, Intercom incluye algunas cabeceras HTTP útiles en sus respuestas de la API. Estas permiten a tus desarrolladores vigilar el uso a medida que ocurre:
-
"X-RateLimit-Limit": El número total de solicitudes permitidas.
-
"X-RateLimit-Remaining": Cuántas solicitudes te quedan en la ventana actual.
-
"X-RateLimit-Reset": Una marca de tiempo que te indica cuándo se restablecerá tu contador de solicitudes al límite.
Por qué los límites de la API de Intercom son importantes para tus operaciones de soporte
Superar tu límite de velocidad es más que un simple problema técnico para tus desarrolladores. Tiene un impacto real en tu equipo de soporte y, lo que es más importante, en tus clientes. Cuando tus automatizaciones fallan, los efectos se pueden sentir en todo tu sistema de soporte.
Aquí te mostramos cómo alcanzar esos límites puede causar problemas para tu negocio.
Tus clientes se quedan esperando
Supongamos que tu bot de IA personalizado está diseñado para dar respuestas instantáneas a preguntas comunes. Si alcanza un límite de velocidad, no puede crear ni actualizar tickets en Intercom. De repente, esa respuesta "instantánea" es cualquier cosa menos eso, y los clientes se quedan esperando. Esto puede perjudicar tus puntuaciones de satisfacción del cliente y afectar las métricas de tiempo de respuesta de tu equipo.
Tus automatizaciones y sincronizaciones de datos se rompen
Muchos equipos utilizan la API para trabajos importantes entre bastidores, como actualizar perfiles de usuario en masa o sincronizar datos de conversaciones con un CRM. Si estos trabajos fallan a mitad de camino debido a la limitación de velocidad, terminas con datos desordenados e incompletos y una tarea de limpieza manual que nadie quiere hacer.
Tus desarrolladores se ven obligados a apagar fuegos
En lugar de crear nuevas y geniales funciones para tu producto, tu equipo de ingeniería está atascado solucionando errores de la API. Tienen que dedicar su tiempo a crear y probar soluciones alternativas como la lógica de reintentos y los sistemas de retroceso (backoff), lo que desvía su atención de proyectos más valiosos.
Tus informes se vuelven poco fiables
Si tus herramientas de informes extraen datos directamente de la API de Intercom, alcanzar los límites de velocidad significa que no estás obteniendo la imagen completa. Los datos incompletos pueden distorsionar tus métricas en todo, desde la productividad de los agentes hasta las tendencias de los tickets, lo que lleva a malas decisiones comerciales basadas en información errónea.
Lo que comienza como un simple error "429 Too Many Requests" puede convertirse fácilmente en un problema mayor que involucra a clientes frustrados, datos poco fiables y un equipo de ingeniería distraído.
Cómo manejar los límites de la API de Intercom: El enfoque manual
Entonces, ¿qué haces cuando empiezas a alcanzar estos límites? Si tu equipo está construyendo sus propias integraciones personalizadas, los desarrolladores suelen tener algunos ases bajo la manga. Estos métodos funcionan, pero todos requieren una buena cantidad de programación y mantenimiento continuo.
Aquí están las tres formas principales de manejar los límites de velocidad manualmente:
-
Verificar primero las cabeceras: Esta es la forma más directa de prevenir errores. Antes de realizar una nueva llamada a la API, tu código puede verificar la cabecera "X-RateLimit-Remaining". Si el número es bajo, el script puede simplemente pausar y esperar a que pase la marca de tiempo de reinicio en "X-RateLimit-Reset". Es una táctica simple de "detenerse y esperar" que puede funcionar, pero no es muy elegante.
-
Usar una estrategia de retroceso (backoff): Esta es una forma más inteligente de manejar las cosas cuando recibes un error 429. En lugar de volver a intentarlo de inmediato, el código espera un breve período de tiempo aleatorio. Si ese segundo intento también falla, espera un período más largo, y así sucesivamente. Esto a menudo se llama "retroceso exponencial", y evita que tu sistema sature la API y empeore el problema.
-
Apoyarse en librerías: Para ahorrar tiempo, los desarrolladores a menudo utilizan librerías preconstruidas que tienen toda esta lógica incorporada. Un desarrollador de Node.js podría usar un paquete como "retry", mientras que alguien que trabaje en Ruby podría usar la gema "retries". Estas herramientas pueden simplificar el código, pero también añaden otra dependencia a tu proyecto que necesita ser gestionada y actualizada.
Construir este tipo de manejo de errores desde cero no es una tarea fácil. Implica mucha planificación, pruebas y asegurarse de no perder ningún dato si una solicitud falla después de varios reintentos. Para la mayoría de los equipos de soporte, esta es una tarea pesada que no es práctica sin recursos de ingeniería dedicados.
Precios de Intercom y límites de la API de Intercom
Los precios de Intercom se dividen en niveles. Si bien generalmente puedes acceder a la API en la mayoría de los planes, algunas de las funciones más avanzadas y límites potencialmente más altos podrían estar vinculados a los paquetes más caros. Vale la pena averiguar qué ofrece cada plan antes de registrarse, especialmente si planeas depender en gran medida de las automatizaciones.
Aquí tienes un vistazo rápido a sus planes actuales:
| Plan | Precio | Características Clave |
|---|---|---|
| Starter | Desde $74/mes | Chat en vivo, bandeja de entrada compartida, centro de ayuda básico, chatbot de IA (Fin), informes básicos. Bueno para pequeñas empresas que están empezando. |
| Pro | Precio personalizado | Todo lo de Starter, más enrutamiento de tickets, reglas de automatización avanzadas, múltiples bandejas de entrada de equipo e integraciones con herramientas como Slack y Salesforce. |
| Premium | Precio personalizado | Todo lo de Pro, más funciones avanzadas como roles personalizados, gestión de la carga de trabajo y paneles de informes personalizables. |
Para los planes Pro y Premium, tienes que ponerte en contacto con su equipo de ventas para obtener un presupuesto. Esto puede dificultar la comparación de opciones y la elaboración de presupuestos sin tener que participar en una llamada de ventas.
Una forma más inteligente de automatizar Intercom sin alcanzar los límites de la API
En lugar de pasar semanas construyendo y manteniendo una integración compleja solo para lidiar con los límites de velocidad, ¿qué pasaría si pudieras usar una plataforma que fue creada para manejarlo todo por ti?
Aquí es donde una herramienta como eesel AI puede ser de gran ayuda. eesel es una plataforma de IA que se conecta a Intercom con una simple integración de un clic, gestionando todos los aspectos complicados de la API para que no tengas que hacerlo. Está diseñada para ser completamente autogestionable, por lo que puedes empezar sin escribir una línea de código ni pasar por una demostración de ventas obligatoria.
Así es como eesel te ayuda a evitar el dolor de cabeza de los límites de la API de Intercom:
-
Configuración en minutos, no en meses: Con eesel, puedes olvidarte de construir lógica de reintentos o monitorear las cabeceras de la API. La plataforma ya está optimizada para trabajar con la API de Intercom, obteniendo datos y realizando acciones de una manera que respeta automáticamente los límites. Esto libera innumerables horas para que tu equipo se concentre en diseñar excelentes flujos de trabajo de soporte en lugar de preocuparse por las cuotas.
-
Prueba tus automatizaciones con confianza: Una de las partes más complicadas de construir integraciones de API es probarlas a escala sin interferir con tus datos de producción en vivo. eesel tiene una solución inteligente para esto con su modo de simulación. Puedes probar las respuestas de tu agente de IA en miles de tus tickets reales e históricos de Intercom sin hacer una sola llamada a la API en vivo. Esto te permite ver exactamente cómo se desempeñará antes de que hable con un cliente.
El modo de simulación de eesel AI permite probar automatizaciones con datos históricos para evitar alcanzar los límites de la API de Intercom en tiempo real.
- Unifica todo tu conocimiento, al instante: eesel puede entrenar a tu agente de IA con tus conversaciones pasadas de Intercom, macros y artículos del centro de ayuda. Este es un proceso con una gran cantidad de datos que normalmente implicaría toneladas de llamadas a la API, pero eesel se encarga de todo en segundo plano. Tu equipo no tendrá que construir y ejecutar scripts de sincronización de datos que podrían hacer que alcances el límite de velocidad.
Usar una plataforma especializada como eesel AI le da a tu equipo el poder de una integración personalizada sin la sobrecarga de ingeniería. Puedes concentrarte en crear excelentes experiencias para el cliente, no en gestionar las cuotas de la API.
Reflexiones finales sobre los límites de la API de Intercom
Los límites de la API de Intercom son algo en lo que todo equipo debe pensar si quiere automatizar y escalar su soporte. Están ahí por una buena razón, pero definitivamente pueden ser un fastidio si no estás preparado para ellos.
Realmente tienes dos caminos a seguir. Puedes tomar la ruta del "hazlo tú mismo", lo que significa que tu equipo de ingeniería construye y mantiene toda la lógica de limitación de velocidad por su cuenta. Esto te da un control total, pero cuesta mucho en términos de tiempo y personal.
O puedes usar una plataforma que ya ha resuelto este problema. Para los equipos que quieren implementar una potente IA y automatización sin los dolores de cabeza técnicos, una herramienta como eesel AI es el camino más directo. Te ofrece todas las ventajas de una integración profunda con Intercom sin ninguna de la complejidad.
¿Listo para automatizar tu soporte de Intercom sin preocuparte por los límites de la API? Inicia tu prueba gratuita de eesel AI y descubre lo fácil que puede ser.
Preguntas frecuentes
Los límites predeterminados de la API de Intercom son 10,000 llamadas por minuto por aplicación. Las aplicaciones privadas comparten un límite de espacio de trabajo de 25,000 llamadas por minuto, mientras que las aplicaciones públicas reciben su propia cuota separada, con límites distribuidos en ventanas de 10 segundos.
Exceder los límites de la API de Intercom puede llevar a respuestas tardías a los clientes, automatizaciones rotas, sincronizaciones de datos poco fiables e informes inexactos. Esto a menudo resulta en una menor satisfacción del cliente y en que los ingenieros desvíen tiempo del desarrollo de productos para solucionar problemas.
Cuando has excedido los límites de la API de Intercom, normalmente recibirás un código de estado HTTP "429 Too Many Requests". Este error señala explícitamente que tu aplicación ha enviado demasiadas solicitudes dentro del plazo permitido.
Sí, Intercom proporciona cabeceras HTTP específicas en sus respuestas de la API para ayudarte a monitorear los límites de la API. Puedes verificar "X-RateLimit-Limit", "X-RateLimit-Remaining" y "X-RateLimit-Reset" para rastrear tu uso y los tiempos de reinicio.
Los desarrolladores suelen emplear estrategias como verificar las cabeceras de la API antes de hacer llamadas, implementar un retroceso exponencial (exponential backoff) para los reintentos después de recibir un error 429 y aprovechar librerías de cliente dedicadas. Estos métodos tienen como objetivo prevenir el exceso de solicitudes o recuperarse de manera elegante.
Si bien el acceso general a la API está disponible en la mayoría de los planes, ciertas funciones avanzadas o límites de la API de Intercom potencialmente más altos podrían estar asociados con sus niveles Pro o Premium. Es mejor consultar al equipo de ventas de Intercom o la documentación oficial para obtener detalles específicos del plan.
Sí, plataformas como eesel AI están diseñadas específicamente para gestionar automatizaciones de Intercom sin requerir que manejes directamente los límites de la API. Optimizan el uso de la API automáticamente y ofrecen funciones como el modo de simulación para probar a escala sin consumir los límites en tiempo real.






