Une plateforme d'IA conversationnelle développée pour une grande chaîne de distribution afin de répondre aux besoins de service client et d'accès interne aux connaissances. Le centre d'appels gérait plus de 180 000 demandes mensuelles ; le temps d'attente moyen dépassait 8 minutes et le taux de résolution au premier contact n'était que de 52%.
Notre système, construit sur l'architecture RAG (Génération Augmentée par Récupération), vectorise toutes les sources de connaissances de l'entreprise et les indexe dans une base Qdrant. À la réception d'une requête, les fragments pertinents sont récupérés par recherche sémantique et fournis comme contexte au LLM. Les références sources sont automatiquement ajoutées. Le système fonctionne sur les canaux clients et avec une intégration Slack interne.