Una plataforma de IA conversacional desarrollada para una gran cadena minorista para abordar las necesidades de servicio al cliente y acceso interno al conocimiento. El call center manejaba más de 180.000 consultas mensuales; el tiempo de espera promedio superaba los 8 minutos y la resolución en primer contacto era solo del 52%.
Nuestro sistema, construido sobre arquitectura RAG (Generación Aumentada por Recuperación), vectoriza todas las fuentes de conocimiento de la empresa y las indexa en una base de datos Qdrant. Cuando llega una consulta, los fragmentos relevantes se recuperan mediante búsqueda semántica y se proporcionan como contexto al LLM. Las referencias de fuentes se agregan automáticamente. El sistema opera en canales de clientes y con integración interna de Slack.