ALCARED, Centro Autorizado de Servicios de FLUKE Networks en Perú

Mensajería y streaming en la era de la IA: ¿amenaza u oportunidad?

18 de marzo de 2025

La Inteligencia Artificial (IA) está revolucionando la forma en que se transfieren los datos en las empresas modernas. Las tecnologías de mensajería y streaming, consideradas durante mucho tiempo la columna vertebral de las arquitecturas basadas en eventos, se enfrentan ahora a un punto de inflexión: ¿Corren el riesgo de quedar obsoletas o están a punto de abrir oportunidades sin precedentes?

El cambio impulsado por la IA en el procesamiento de datos

Las plataformas tradicionales de mensajería y streaming, como RabbitMQ, Apache Kafka y Pulsar, han sido fundamentales para el intercambio de datos en tiempo real. Sin embargo, la rápida adopción de la IA ha transformado la forma en que las organizaciones consumen, analizan y procesan los datos. Los intermediarios modernos de mensajes o streaming han facilitado esta evolución al garantizar que la infraestructura subyacente esté desacoplada y sea lo suficientemente flexible como para no sobrecargar los sistemas existentes. Las cargas de trabajo impulsadas por IA exigen muchas cosas, pero quizás las más obvias sean la baja latencia y la alta escalabilidad. La primera se basa en la necesidad de disponer de los datos más actualizados, especialmente si se espera obtener información en tiempo real, así como una inferencia rápida. Esta necesidad también conlleva la presión de la escalabilidad y la necesidad de que cualquier bus de mensajes priorice y clasifique los datos dinámicamente.

La oportunidad: mensajería y transmisión mejoradas con IA

En lugar de reemplazar la mensajería tradicional, la IA la está potenciando . El uso de LLM para priorizar y enrutar mensajes ha sido objeto de numerosos debates. Este enfoque implica publicar mensajes en una cola o flujo de entrada, procesarlos antes de priorizarlos y enrutarlos al destino calculado. Sin embargo, esto crea la posibilidad de un antipatrón clásico de la mensajería: la cola única y grande de mensajes entrantes. Esto es inaceptable en los sistemas de mensajería modernos, ya que es fácil que las cosas salgan mal y que los mensajes se pierdan. Al fin y al cabo, un intermediario de mensajes no es una base de datos, a pesar de lo que algunos puedan pensar. Sin embargo, esto se puede mitigar con el uso correcto de un balanceador de carga inteligente. Como con cualquier sistema potenciado por IA, el uso del enrutamiento controlado por IA mejora la precisión y la eficiencia de la entrega de mensajes, así como el rendimiento general del sistema.

Los LLM son muy eficaces para filtrar mensajes entrantes no deseados, lo que puede aliviar significativamente la carga de las aplicaciones de consumo existentes y evitar la sobrecarga de las colas de mensajes. Sin embargo, el uso de flujos de datos ofrece una solución mucho más sencilla para este problema. Publicar grandes cantidades de datos sin filtrar ni procesar en un flujo de datos permite gestionar mejor el filtrado y la priorización basados ​​en IA. Si bien el procesamiento de flujos de datos no es nada nuevo, el procesamiento de flujos de datos basado en IA es la progresión lógica. No obstante, las diferencias de implementación entre los flujos de datos y las colas de mensajes convencionales son significativas.

Existen muchos otros casos para la integración de la IA en una arquitectura tradicional de mensajería. La mejora del uso de recursos, la reducción de la latencia y la prevención de cuellos de botella en el sistema se pueden lograr mediante el balanceo de carga dinámico impulsado por IA. Los componentes de IA pueden predecir patrones de tráfico y equilibrar la carga entre diferentes colas de mensajes, clústeres o incluso zonas de disponibilidad (AZ) en función de la demanda actual o las tendencias históricas. Esto es especialmente útil en aplicaciones de IoT con picos de demanda, donde las tareas repetitivas ocurren en momentos específicos del día. Por ejemplo, cuando miles de dispositivos portátiles de una empresa de mensajería se actualizan cada mañana con las recogidas o entregas del día.

La detección de anomalías en los intermediarios de mensajes es una nueva área que puede guiar a los equipos operativos ante cambios en los patrones normales de flujo de mensajes. Mediante la monitorización minuciosa de métricas clave, un sistema puede detectar automáticamente picos repentinos de datos, corrupción de datos o posible actividad maliciosa con mayor rapidez que cualquier persona. La detección temprana de problemas reduce el tiempo de inactividad y proporciona una resolución de problemas más eficaz.

Para los intermediarios de mensajes en sistemas con interacción humana (p. ej., sistemas de atención al cliente), la integración de componentes de IA permite analizar el sentimiento, el contexto o la intención en las cargas útiles de los mensajes. Esto puede ayudar a priorizar los mensajes o a activar flujos de trabajo específicos según la urgencia o el tono del mensaje. De igual forma, la IA puede implementarse para supervisar el estado de los componentes del intermediario de mensajes y predecir fallos o la disminución de recursos según las métricas y tendencias de rendimiento. Esto ofrece la evidente ventaja, mediante el mantenimiento proactivo del sistema, de prevenir las interrupciones del sistema y mejorar su fiabilidad general.

El uso de LLM para calcular las etiquetas de los mensajes también puede contribuir a la optimización del sistema. Pueden proporcionar información adicional basada en la carga útil del mensaje y, potencialmente, inyectar datos contextuales antes de reenviarlos a los sistemas posteriores. Esto ayuda a los sistemas posteriores a tomar decisiones más informadas y automatizar procesos basados ​​en datos enriquecidos. Para muchos usuarios, la idea de que otro sistema modifique los metadatos, o incluso el cuerpo del mensaje, supone un desafío importante. La mayoría planifica que esto sea correcto en origen.

Al integrar la IA en los intermediarios de mensajes convencionales, es posible aumentar el nivel de automatización, inteligencia y eficiencia del enrutamiento, procesamiento y monitoreo de sistemas de mensajes. Esto puede mejorar el rendimiento, la confiabilidad y la seguridad, a la vez que optimiza el uso de recursos y las capacidades de escalado sin necesidad de rediseñar por completo la infraestructura de mensajería.

La amenaza: ¿Están en riesgo los sistemas de mensajería tradicionales?

Si bien la IA ofrece numerosas oportunidades para mejorar los intermediarios de mensajes, también presenta ciertos riesgos que deben gestionarse con cuidado. Uno de los mayores es la sobrecarga de eventos en la infraestructura de mensajería, debido a la enorme cantidad de datos que los sistemas de IA/ML pueden consumir, y de hecho necesitan consumir para ser realmente útiles para una empresa. Intentar simplemente integrar un LLM con un alto consumo de datos en una topología de mensajería que no está diseñada para soportar picos de carga es un paso significativo hacia el colapso de la aplicación. Las colas de mensajes funcionan mejor cuando están vacías o casi vacías. Esto significa que la relación entre publicación y consumo está bien equilibrada. Los sistemas de IA tienen el potencial de romper este equilibrio muy rápidamente.

Añadir enrutamiento, balanceo de carga o escalado basados ​​en IA podría generar imprevisibilidad en el comportamiento de los sistemas, dificultando el rastreo de errores o la comprensión de la causa de las fallas. Esto dificulta la depuración, el mantenimiento y la auditoría del sistema, especialmente si las decisiones del modelo de IA son opacas o difíciles de interpretar. Un LLM mal entrenado también podría causar problemas en el enrutamiento de mensajes al consumidor equivocado. Los modelos que se basan en datos históricos para la predicción o clasificación podrían generar errores en conjuntos de datos obsoletos o incompletos. Esto podría provocar un enrutamiento, una priorización o una detección de anomalías incorrectos, lo que en última instancia provocaría una degradación del rendimiento o fallos del sistema.

Los componentes de IA deben estar debidamente protegidos; podrían ser vulnerables a ataques adversarios en los que actores maliciosos introducen datos engañosos en el sistema para manipular el enrutamiento de mensajes o causar interrupciones. Como ocurre con cualquier componente de infraestructura, el riesgo de una mayor exposición a brechas de seguridad, accesos no autorizados o ataques de denegación de servicio puede comprometer la integridad o la confidencialidad de los mensajes.

Los agentes de mensajes basados ​​en IA pueden introducir latencia debido al tiempo necesario para la inferencia de IA en tiempo real o la toma de decisiones sobre modelos, lo que podría ser especialmente problemático en sistemas de baja latencia o alto rendimiento. En cualquier agente de mensajes de alto rendimiento, los retrasos en la entrega y los posibles cuellos de botella son inaceptables, especialmente al gestionar grandes volúmenes de mensajes o cálculos complejos de IA.

Aunque mejoran con cada generación, los sistemas basados ​​en IA suelen requerir recursos computacionales significativos (especialmente para el procesamiento de datos en tiempo real, el entrenamiento de modelos o la inferencia). Estas demandas computacionales adicionales podrían sobrecargar la infraestructura subyacente y afectar negativamente el rendimiento de los intermediarios de mensajes. De hecho, es mejor mantenerlos separados, desde el punto de vista de los recursos. Esto puede afectar los costos operativos y la latencia, y podría comprometer el rendimiento del sistema, especialmente en entornos de alto rendimiento.

Con la IA, existe la tentación de automatizar excesivamente los procesos, lo que podría resultar en la toma de decisiones críticas (como la priorización de mensajes o la gestión de fallos) sin suficiente supervisión o intervención humana, especialmente en escenarios complejos o extremos. Esto anula el beneficio inicial de la IA y reduce la flexibilidad del sistema para adaptarse a situaciones inesperadas. Esto, a su vez, podría provocar fallos en la gestión de eventos poco frecuentes pero críticos, o en casos donde se requiere juicio humano. Muchos modelos de IA, especialmente los complejos como el aprendizaje profundo, suelen considerarse «cajas negras», lo que dificulta comprender cómo se toman las decisiones. Esta falta de transparencia podría dificultar la resolución de problemas y la confianza en el sistema.

Al igual que con la sobreautomatización, en algunos casos existe el deseo de usar IA para escalar automáticamente un sistema de mensajería según la carga prevista. Si bien es técnicamente posible agregar automáticamente nuevas colas de mensajes, aumentar la cantidad de nodos en un clúster o incluso crear uno nuevo, esto debe supervisarse con mucho cuidado. Si bien a algunos proveedores de nube les encantaría que los usuarios pudieran escalar verticalmente hasta el infinito según las predicciones de un modelo de IA, existe un problema fundamental: ¿cómo se reduce la escala? ¿Se desactivan estas nuevas colas de mensajes? ¿Cómo se sabe si las aplicaciones están publicando o consumiendo datos desde ellas? Al igual que en el proceso de escalado vertical, se deberían establecer límites inferiores y superiores para garantizar que la infraestructura de mensajería no desaparezca ante los ojos cada vez que haya calma.

Los modelos de IA podrían aprender sesgos involuntariamente a partir de datos históricos o de la forma en que se gestionaron algunos mensajes anteriormente. Esto podría generar sesgos en el enrutamiento o la priorización, lo que afectaría el equilibrio o la equidad del sistema e incluso podría afectar el cumplimiento normativo.

El futuro: la IA y la mensajería deben evolucionar juntas

La intersección de la IA y la mensajería presenta un cambio de paradigma, más que una competencia. Las organizaciones que adopten la mensajería aumentada con IA sin duda lograrán flujos de trabajo más inteligentes con decisiones basadas en IA en tiempo real. Sus arquitecturas se volverán más resilientes gracias a la autooptimización, en respuesta a la información de la IA con niveles de detalle que actualmente no son posibles solo con la visión humana.

VMware Tanzu RabbitMQ no es la excepción y, con más de 17 años de experiencia, evoluciona y mejora constantemente. La última versión, Tanzu RabbitMQ 4.0,   es un buen ejemplo de ello, con un nuevo almacén de metadatos más flexible y compatibilidad con nuevos protocolos nativos. Estas (y otras) características permiten a los usuarios trabajar con algunas de las filosofías aquí descritas.

Conclusión

La IA no representa una amenaza para las tecnologías de mensajería y streaming; es un catalizador para su evolución . A medida que la IA se integra en las empresas modernas, los sistemas de mensajería deben adaptarse, aprovechándola para el enrutamiento inteligente de mensajes, la detección de anomalías y la toma de decisiones en tiempo real. El futuro reside en el procesamiento de eventos impulsado por IA, donde la inteligencia en tiempo real impulsa las aplicaciones de última generación. Sin embargo, cualquier tecnología nueva y emergente debe implementarse con cuidado y comprensión en los lugares adecuados.

¿Su arquitectura de mensajería y transmisión evolucionará con la IA o corre el riesgo de quedarse atrás?

Fuente:

https://www.vmware.com/