News
📅 Conoce a NeuralTrust en OWASP: Global AppSec - 29-30 mayo
Iniciar sesiónObtener demo
Volver

Benchmark de AI Gateways: Cuál es el mejor?

Benchmark de AI Gateways: Cuál es el mejor?Eduard Camacho 28 de febrero de 2025
Contents

Los Grandes Modelos de Lenguaje (LLMs) han transformado la inteligencia artificial, convirtiéndose en una piedra angular para diversas aplicaciones, incluyendo la generación de contenido, la clasificación zero-shot y tareas lingüísticas complejas. Antes de los LLMs, lograr tales capacidades requería entrenar modelos adaptados a tareas específicas—un enfoque que carecía de escalabilidad y adaptabilidad. Hoy, los LLMs pueden procesar vastas cantidades de datos, comprender el contexto y generar respuestas coherentes y creativas, haciéndolos invaluables en todas las industrias.

Una característica definitoria de los LLMs es su capacidad para generar texto similar al humano y respuestas perspicaces sobre temas diversos. Sin embargo, esta misma creatividad introduce desafíos, ya que los LLMs pueden desviarse de las discusiones previstas, participar en conversaciones fuera de tema o incluso producir contenido indeseable. En aplicaciones empresariales, como los chatbots de servicio al cliente, estas respuestas no intencionadas pueden ser contraproducentes o incluso perjudiciales. Como resultado, las organizaciones han buscado formas de regular las interacciones de los LLM, asegurando que las respuestas se alineen con los objetivos comerciales y los requisitos de cumplimiento.

En esta publicación, revisaremos dos enfoques diferentes para regular las interacciones de los LLM: las barreras de protección (guardrails) de LLM y los AI Gateways. Además, evaluaremos los nueve principales AI Gateways a través de una comparación rigurosa, analizando cuatro variables clave: rendimiento (solicitudes por segundo), latencia promedio (milisegundos), latencia P99 (milisegundos) y tasa de éxito.

¿Quieres saber qué AI Gateway es mejor para mantener seguras tus aplicaciones de IA mientras mantienes la gobernanza de la IA?

Lee este benchmark para descubrir la respuesta.

Barreras de protección (Guardrails) de LLM: ¿Cuál es su rol y cuáles son sus limitaciones?

Un enfoque ampliamente adoptado para gestionar el comportamiento de los LLM es el uso de barreras de protección (guardrails) de LLM—sistemas intermediarios que regulan las salidas generadas por IA. Estas barreras ayudan a aplicar políticas de seguridad, prevenir problemas como la inyección de prompts, mitigar los riesgos de seguridad de los LLM y asegurar que el contenido generado por IA permanezca dentro de límites predefinidos. También realizan limitación de tasa de IA (AI rate limiting) y filtran respuestas tóxicas o fuera de tema, mejorando la gobernanza y el cumplimiento de la IA.

A continuación puedes ver cómo luce una arquitectura de guardrail:

Aunque efectivas, las barreras de protección tradicionales tienen limitaciones significativas. A medida que las empresas escalan la adopción de IA en múltiples aplicaciones, configurar y gestionar manualmente las barreras de protección de LLM se vuelve cada vez más complejo y propenso a errores. Asegurar el despliegue correcto, mantener diferentes versiones y aplicar políticas consistentemente en diversos casos de uso introduce una sobrecarga operativa y riesgos de mala configuración.

Además, la mayoría de las implementaciones de barreras de protección dependen de conjuntos de reglas estáticas que luchan por mantenerse al día con la naturaleza evolutiva de las amenazas de IA y los patrones de uso indebido. Esta rigidez dificulta la escalabilidad, creando fragmentación en la seguridad y gobernanza de la IA.

Para resolver estos desafíos, proponemos un nuevo paradigma: la arquitectura AI Gateway.

Introduciendo la arquitectura AI Gateway

A diferencia de las barreras de protección (guardrails) de LLM tradicionales, que se implementan a nivel de aplicación, el AI Gateway funciona de manera similar a un API Gateway pero está diseñado específicamente para casos de uso de IA y se despliega a nivel de infraestructura. De esta manera, intercepta llamadas a LLMs, aplicando políticas y controles a escala organizacional en lugar de por aplicación.

Este enfoque centralizado asegura la aplicación uniforme de políticas de seguridad, medidas de cumplimiento y gobernanza de IA en todas las soluciones de IA empresariales. Además, agiliza el despliegue de LLM, elimina inconsistencias y reduce las cargas operativas asociadas con la gestión de barreras de protección individuales.

Por último, pero no menos importante, al integrar la gestión de API de IA (AI API management) en un Gateway unificado, las empresas pueden aplicar políticas de arquitectura de IA escalables, optimizar los benchmarks de rendimiento de API y actualizar dinámicamente las reglas de gobernanza para adaptarse a los riesgos emergentes de la IA.

Así es como luce una arquitectura AI Gateway:

Al trasladar la gestión de la seguridad y el cumplimiento de la IA a un LLM Gateway centralizado, las organizaciones obtienen control en tiempo real sobre las interacciones de la IA, asegurando que todas las aplicaciones impulsadas por IA se alineen con los objetivos estratégicos y las regulaciones de la industria.

A medida que las empresas continúan adoptando la innovación impulsada por la IA, adoptar una arquitectura AI Gateway será clave para lograr una infraestructura de IA robusta, escalable y segura.

Eligiendo el AI Gateway adecuado: Soluciones especializadas vs. adaptadas

El mercado de AI Gateways sigue siendo relativamente limitado, con solo un puñado de soluciones especializadas disponibles. En consecuencia, muchas organizaciones recurren a los API Gateways como alternativa, aprovechando sus capacidades en enrutamiento de solicitudes, balanceo de carga, autenticación y limitación de tasa de IA para gestionar aplicaciones impulsadas por IA.

Mientras que los AI Gateways están diseñados para optimizar el despliegue de LLM, mejorar la infraestructura de IA y aplicar la moderación de LLM, los API Gateways tradicionales ofrecen flexibilidad y un amplio soporte de integración. Esto los convierte en una opción viable para las empresas que buscan adaptar la tecnología existente en lugar de implementar un LLM Gateway dedicado.

En esta sección, exploraremos las opciones especializadas de AI Gateway disponibles, junto con los API Gateways que pueden adaptarse para soportar soluciones de IA empresariales, asegurando una gestión de API de IA (AI API management) fluida y una arquitectura de IA escalable.

Comencemos:

1. TrustGate

TrustGate está diseñado específicamente para manejar cargas de trabajo de IA, asegurando velocidad, eficiencia y adaptabilidad. A diferencia de muchas soluciones existentes que reutilizan API Gateways tradicionales para aplicaciones de IA, TrustGate está diseñado desde cero para manejar las demandas únicas de los flujos de trabajo impulsados por IA. Los API Gateways heredados a menudo introducen sobrecarga innecesaria, características obsoletas y restricciones arquitectónicas que obstaculizan el rendimiento de la IA en lugar de optimizarlo.

La mayoría de los API Gateways tradicionales están construidos para el manejo de solicitudes de propósito general, lo que puede llevar a problemas de latencia y cuellos de botella de escalabilidad al gestionar flujos de trabajo de IA. Estas ineficiencias pueden degradar los tiempos de respuesta y limitar el rendimiento del sistema de IA, dificultando que las empresas escalen eficazmente.

Por el contrario, la Arquitectura AI Gateway está construida específicamente para interacciones de IA de alto rendimiento. Integra filtrado avanzado, limitación de tasa específica de IA y monitoreo en tiempo real adaptado a las cargas de trabajo de LLM. Esto asegura que las aplicaciones de IA procesen solicitudes de manera eficiente, segura y en cumplimiento con las políticas de gobernanza.

Al aprovechar esta arquitectura, las organizaciones obtienen un mayor control sobre sus sistemas de IA mientras mantienen una gobernanza y supervisión robustas. ¿El resultado? Integración de IA fluida, cuellos de botella operativos mínimos y despliegues escalables y de alto rendimiento. A medida que la adopción de IA continúa creciendo, los AI Gateways construidos específicamente establecen un nuevo estándar de la industria para una infraestructura impulsada por IA segura y eficiente.

Encuentra el repositorio completo de GitHub aquí.

2. Kong’s AI Gateway

Kong’s AI Gateway es una poderosa extensión de la plataforma Kong Gateway, que ofrece un enfoque simplificado para la integración y gestión de la IA dentro de las empresas. Los desafíos de un ecosistema de IA fragmentado se abordan a través de una capa de API unificada, permitiendo a los desarrolladores interactuar con múltiples servicios de IA utilizando una base de código de cliente consistente. Esta abstracción mejora la eficiencia del desarrollo mientras proporciona gestión centralizada de credenciales, observabilidad y gobernanza sobre los datos y el uso de la IA.

Una característica clave de Kong’s AI Gateway es su enrutamiento dinámico de solicitudes, que optimiza las llamadas API basadas en la eficiencia de costos, la asignación de recursos y la precisión de la respuesta. La distribución inteligente de las cargas de trabajo de IA asegura un mejor rendimiento y control de costos para las organizaciones.

La Arquitectura AI Gateway se basa en el marco de gestión de API de Kong Gateway y la extensibilidad de plugins, introduciendo plugins específicos de IA para enrutamiento semántico, seguridad, observabilidad, aceleración y gobernanza. Estas capacidades especializadas mantienen las aplicaciones impulsadas por IA eficientes, escalables y conformes con las políticas empresariales.

Un proceso de instalación sencillo hace que el despliegue sea rápido y fluido. Con un solo comando, Kong’s AI Gateway está en funcionamiento, proporcionando una gestión de cargas de trabajo de IA sin esfuerzo.

Encuentra el repositorio completo de GitHub aquí.

3. Tyk API Gateway

Tyk es un API Gateway nativo de la nube y de código abierto diseñado para soportar los protocolos REST, GraphQL, TCP y gRPC. Desde su inicio en 2014, el enfoque se ha mantenido en el rendimiento y la escalabilidad, ofreciendo limitación de tasa, autenticación, análisis y patrones de microservicios.

Su enfoque 'todo incluido' asegura que las organizaciones tengan acceso a un conjunto completo de herramientas para la gestión de API sin bloqueo de características. La compatibilidad de Tyk con Kubernetes, a través del Operador Kubernetes de Tyk, mejora aún más su adaptabilidad en entornos de nube modernos.

Aunque Tyk sobresale en la gestión general de API, no está específicamente diseñado para aplicaciones de IA.

Reconociendo la creciente importancia de la IA, Tyk ha introducido Montag.ai, un producto destinado a empoderar a los equipos de plataforma y producto para adoptar la IA con una gobernanza robusta. Sin embargo, esto parece ser una oferta adicional en lugar de una característica inherente del Tyk API Gateway. En consecuencia, las organizaciones que buscan soluciones optimizadas específicamente para cargas de trabajo de IA podrían encontrar que el Gateway central de Tyk carece de funcionalidades especializadas de IA en comparación con competidores como TrustGate, que están construidos específicamente para casos de uso de IA.

Tyk se empaqueta convenientemente en Docker que se encarga de la instalación y puede estar en funcionamiento en minutos.

Encuentra el repositorio completo de GitHub aquí.

4. KrakenD

KrakenD es un API Gateway de código abierto y alto rendimiento diseñado para facilitar la adopción de arquitecturas de microservicios. Ofrece características como agregación de API, gestión de tráfico, autenticación y transformación de datos, permitiendo a las organizaciones construir sistemas escalables y resilientes.

La arquitectura distribuida y sin estado de KrakenD asegura una verdadera escalabilidad lineal, manejando miles de solicitudes por segundo, lo que lo hace adecuado para entornos de alta demanda.

Aunque KrakenD sobresale en la gestión general de API, como en el caso de Tyk, no está específicamente diseñado para aplicaciones de IA. Su enfoque principal sigue siendo optimizar el rendimiento y la escalabilidad de la API, sin características dedicadas para cargas de trabajo de IA. Las organizaciones que buscan soluciones optimizadas específicamente para IA podrían encontrar que KrakenD carece de funcionalidades especializadas en comparación con competidores como TrustGate, que están construidos específicamente para casos de uso de IA.

KrakenD también se empaqueta convenientemente como una imagen Docker, subida a un repositorio público, por lo que es fácil de instalar y ejecutar.

Explora el repositorio completo de GitHub aquí.

5. CloudFlare

Cloudflare’s AI Gateway está diseñado para proporcionar a los desarrolladores una mayor visibilidad y control sobre sus aplicaciones de IA. La integración con el AI Gateway permite a las aplicaciones monitorear patrones de uso, gestionar costos y manejar errores de manera más efectiva.

La plataforma ofrece características como caché, limitación de tasa, reintentos de solicitud y mecanismos de fallback de modelos, todo destinado a optimizar el rendimiento y asegurar la fiabilidad. Notablemente, los desarrolladores pueden conectar sus aplicaciones al AI Gateway con un esfuerzo mínimo, a menudo requiriendo solo una línea de código, lo que agiliza el proceso de integración.

La solución de Cloudflare aprovecha su infraestructura existente para ofrecer una gestión de cargas de trabajo de IA escalable y eficiente. Características como el caché avanzado y la limitación de tasa reducen la latencia y controlan los costos, proporcionando un marco robusto para los desarrolladores que buscan optimizar sus aplicaciones de IA. Este enfoque asegura que los servicios de IA permanezcan receptivos y rentables, alineándose con las demandas de las aplicaciones modernas impulsadas por IA.

Cloudflare’s AI Gateway es un servicio propietario que requiere registro de usuario. Debido a esta limitación, ha sido excluido de nuestra comparación, ya que las métricas de rendimiento y la eficiencia están inherentemente vinculadas a la infraestructura interna de Cloudflare, cuyos detalles no se divulgan públicamente.

6. Apache Apisix

Apache APISIX es un API Gateway nativo de la nube y de código abierto diseñado para gestionar microservicios y APIs con alto rendimiento, seguridad y escalabilidad. Construido sobre NGINX y etcd, ofrece enrutamiento dinámico, actualizaciones de plugins en caliente, balanceo de carga y soporte para múltiples protocolos, incluyendo HTTP, gRPC, WebSocket y MQTT. APISIX proporciona características completas de gestión de tráfico como upstream dinámico, canary release, circuit breaking, autenticación y observabilidad.

Una característica notable de Apache APISIX es su dashboard low-code incorporado, que proporciona una interfaz de usuario potente y flexible para que los desarrolladores gestionen y operen el Gateway eficientemente. La plataforma soporta actualizaciones en caliente y plugins en caliente, permitiendo cambios de configuración sin necesidad de reinicios, lo que ahorra tiempo de desarrollo y reduce el tiempo de inactividad del sistema.

Múltiples plugins de seguridad están disponibles para la autenticación de identidad y la verificación de API, incluyendo CORS, JWT, Key Auth, OpenID Connect (OIDC) y Keycloak, asegurando una protección robusta contra ataques maliciosos.

A pesar de tener dependencias similares a Vulcand, la documentación ofrece un proceso de configuración sencillo, permitiendo que todo esté en funcionamiento con un solo comando, lo que lo hace mucho más conveniente en comparación con la configuración de Vulcand.

Lee el repositorio completo de GitHub aquí.

7. Mulesoft

MuleSoft’s API Gateway es una potente solución diseñada para gestionar, asegurar y monitorear el tráfico de API en entornos empresariales. Actúa como un punto de control, permitiendo a las organizaciones aplicar políticas, autenticar usuarios y analizar el uso de API.

Al integrarse sin problemas con Anypoint Platform, MuleSoft’s API Gateway proporciona una forma centralizada de aplicar políticas de seguridad, limitación de tasa y control de acceso, asegurando que las APIs estén protegidas contra accesos no autorizados y amenazas. Además, sus robustas capacidades de análisis y registro ayudan a las organizaciones a rastrear el rendimiento de la API y solucionar problemas eficientemente.

Incluir MuleSoft’s API Gateway en esta comparación no es una opción debido a la naturaleza de nuestro proceso de benchmarking. Las pruebas se realizaron localmente contra varios API Gateways de código abierto, asegurando una comparación justa y consistente entre soluciones con un modelo de despliegue similar. MuleSoft’s API Gateway, como parte de una plataforma de grado empresarial más grande, incorpora optimizaciones propietarias e integraciones en la nube, situándolo en una categoría diferente. Por lo tanto, las comparaciones directas de rendimiento o características no proporcionarían información significativa, ya que estas tecnologías están diseñadas para diferentes casos de uso y entornos de despliegue.

Benchmarking de AI Gateways: Una Evaluación Rigurosa del Rendimiento

Para asegurar una comparación objetiva, realizamos una evaluación rigurosa de cada AI Gateway instalándolos y ejecutándolos individualmente como el único Gateway. Usando el generador de carga HTTP ‘hey’, medimos métricas clave de rendimiento, incluyendo tiempo de respuesta, rendimiento (throughput), latencia y tasa de éxito.

El proceso de benchmarking se automatizó a través de un script de prueba Bash, que ajustaba dinámicamente la URL de destino basada en la configuración de cada Gateway. Todas las pruebas se realizaron localmente bajo condiciones consistentes de hardware y red para mantener la fiabilidad.

El script comienza definiendo salidas codificadas por colores para mayor claridad, luego verifica la presencia de la herramienta ‘hey’, instalándola automáticamente si falta. Esto asegura un entorno de prueba estandarizado, permitiendo comparaciones precisas de rendimiento entre diferentes soluciones de AI Gateway.

Copied!
1#!/bin/bash
2
3
4# Colors for output
5GREEN='\033[0;32m'
6RED='\033[0;31m'
7BLUE='\033[0;34m'
8NC='\033[0m'
9
10
11# Check if hey is installed
12if ! command -v hey &> /dev/null; then
13   echo -e "${RED}Error: 'hey' is not installed${NC}"
14   echo "Installing hey..."
15   export PATH=$PATH:$(go env GOPATH)/bin
16   go install github.com/rakyll/hey@latest
17   if ! command -v hey &> /dev/null; then
18       echo -e "${RED}Failed to install hey. Please install it manually:${NC}"
19       echo "go install github.com/rakyll/hey@latest"
20       echo "And make sure your GOPATH/bin is in your PATH"
21       exit 1
22   fi
23fi
24

A continuación, con la herramienta instalada con éxito, simulamos una carga de 50 usuarios concurrentes golpeando el Gateway probado durante 30 segundos.

El código para este proceso se muestra a continuación:

Copied!
1# Configuration
2PROXY_URL=${PROXY_URL:-"GATEWAY_URL"}
3CONCURRENT_USERS=50
4DURATION="30s"
5
6
7echo -e "${BLUE} Gateway Benchmark Tool${NC}\n"
8
9
10# Test 1: System endpoint (ping)
11echo -e "${GREEN}Testing system ping endpoint...${NC}"
12echo -e "\n${BLUE}Starting system benchmark with ${CONCURRENT_USERS} concurrent users for ${DURATION}...${NC}"
13hey -z ${DURATION} \
14   -c ${CONCURRENT_USERS} \
15   -disable-keepalive \
16   -cpus 2 \
17   "${PROXY_URL}"
18

La única variable que cambia entre benchmarks es PROXY_URL, que debe apuntar a una URL válida para el Gateway que se está probando.

Resultados del Benchmark de AI Gateway:

Para asegurar una comparación objetiva y fiable, realizamos nuestras pruebas de benchmark utilizando GCP Compute Engine, desplegando los AI Gateways en dos tipos de máquinas diferentes:

  • c2-standard-8: 8 vCPUs, 32 GB de memoria
  • c4-highcpu-8: 8 vCPUs, 16 GB de memoria

Esta configuración nos permitió evaluar cómo se desempeña cada Gateway bajo diferentes restricciones de hardware, proporcionando información sobre su escalabilidad y eficiencia en diversas asignaciones de recursos.

Cada AI Gateway se instaló y ejecutó como el único Gateway en la máquina de prueba, asegurando condiciones aisladas. Utilizamos el generador de carga HTTP ‘hey’ para simular 50 usuarios concurrentes durante un período de 30 segundos, midiendo métricas clave de rendimiento:

  • Solicitudes por segundo (rendimiento)
  • Tiempo de respuesta promedio (latencia en milisegundos)

Comparación de Rendimiento:

Tipo de máquina: c2-standard-8

GatewayEspecificaciones HWSolicitudes por segundoRespuesta Promedio
NeuralTrustc2-standard-810404.96204.8ms
Kongc2-standard-89881.70135.1ms
Tykc2-standard-89744.54485.1ms
KrakenDc2-standard-89433.75725.3ms
Apache Apisixc2-standard-85955.94828.4ms

Tipo de máquina: c4-highcpu-8

GatewayEspecificaciones HWSolicitudes por segundoRespuesta Promedio
NeuralTrustc4-highcpu-819758.53142.5ms
Kongc4-highcpu-818169.91252.8ms
Tykc4-highcpu-817053.20292.9ms
KrakenDc4-highcpu-816136.77233.1ms
Apache Apisixc4-highcpu-810380.43624.8ms

Como podemos ver…

Los resultados del benchmark destacan que TrustGate supera a todos los demás API Gateways tanto en rendimiento como en tiempos de respuesta, demostrando ser la solución AI-first más rápida y eficiente. En ambos tipos de máquinas probadas, TrustGate demostró un rendimiento superior, manejando significativamente más solicitudes por segundo mientras mantenía la latencia más baja.

Estos resultados dejan una cosa clara: cuando se trata de rendimiento, escalabilidad y seguridad AI-first, TrustGate es el mejor AI Gateway del mercado.

Conclusiones Clave y Reflexiones Finales

Este benchmark subraya un punto crítico: los API Gateways tradicionales no pueden seguir el ritmo de las demandas específicas de la IA. Si bien ofrecen capacidades generales de gestión de API, carecen de las optimizaciones de rendimiento requeridas para interacciones de IA de alta velocidad y alto volumen.

En contraste, TrustGate fue construido desde cero para manejar cargas de trabajo de IA, asegurando una latencia mínima, un rendimiento máximo y una escalabilidad fluida. Su arquitectura AI-first elimina las ineficiencias encontradas en los API Gateways reutilizados, convirtiéndolo en la solución más efectiva para las empresas que buscan desplegar y gobernar modelos de IA a escala.

¿Por qué importa esto?

  • Rendimiento: TrustGate procesa significativamente más solicitudes de IA por segundo con menor latencia, asegurando una capacidad de respuesta en tiempo real.
  • Escalabilidad: Ya sea ejecutándose en máquinas estándar o de alto rendimiento, TrustGate mantiene su liderazgo en eficiencia, haciéndolo ideal para aplicaciones de IA empresariales.
  • Seguridad y Cumplimiento: A diferencia de los Gateways tradicionales, TrustGate está diseñado para aplicar políticas de gobernanza de IA mientras mantiene el rendimiento.

A medida que la adopción de IA continúa expandiéndose, las empresas no pueden permitirse depender de una infraestructura obsoleta e ineficiente. El futuro del despliegue de IA reside en soluciones AI-first, y TrustGate establece el estándar de la industria.

¿Qué es lo siguiente?

El benchmark revela que los AI Gateways dedicados no solo impulsan el rendimiento y la escalabilidad, sino que también ofrecen una seguridad mejorada en comparación con las barreras de protección (guardrails) tradicionales. Este cambio hacia soluciones centralizadas y construidas específicamente simplifica la gestión de cargas de trabajo de IA en un panorama en constante evolución.

Ahora, vale la pena considerar cómo estos conocimientos se alinean con tu propia infraestructura de IA. ¿Podría un AI Gateway dedicado mejorar la seguridad y eficiencia de tu sistema de IA mientras reduce la complejidad?

Estamos seguros de que la respuesta es "sí". Si quieres saber más sobre cómo nuestro AI Gateway, TrustGate, puede aprovechar una arquitectura construida específicamente—diseñada desde cero para eliminar problemas de latencia, agilizar las interacciones de IA y ofrecer seguridad robusta y escalable—no dudes en reservar una demostración hoy. Sin compromiso.


Posts relacionados

Ver todo