TalkWise AI

Assistant d'Accès aux Connaissances et Support d'Entreprise

LLMRAGQdrantConversational AIPython

Une plateforme d'IA conversationnelle développée pour une grande chaîne de distribution afin de répondre aux besoins de service client et d'accès interne aux connaissances. Le centre d'appels gérait plus de 180 000 demandes mensuelles ; le temps d'attente moyen dépassait 8 minutes et le taux de résolution au premier contact n'était que de 52%.

Notre système, construit sur l'architecture RAG (Génération Augmentée par Récupération), vectorise toutes les sources de connaissances de l'entreprise et les indexe dans une base Qdrant. À la réception d'une requête, les fragments pertinents sont récupérés par recherche sémantique et fournis comme contexte au LLM. Les références sources sont automatiquement ajoutées. Le système fonctionne sur les canaux clients et avec une intégration Slack interne.

Architecture du Système

InterfaceUnderstandingDialogKnowledgeWebSocketMessageIntentActionQueryRetrieveContextStreamLogChat WidgetWebSocket APINLU EngineIntent RouterDialog ManagerRAG PipelineResponse GenKnowledge BaseChat History

Points forts

  • Architecture RAG : BD vectorielle Qdrant + recherche sémantique
  • Récupération automatisée de connaissances de 12 000+ documents
  • Génération de réponses avec références sources (contrôle d'hallucination)
  • Support multicanal (widget web, SDK mobile, Slack)
  • Création automatique de tickets de support (intégration Zendesk)

Résultats

Résolution au premier contact améliorée de 52% à 78%
Volume du centre d'appels réduit de 41% via le libre-service
Temps de réponse moyen de 2,3 secondes
Temps d'accès aux connaissances internes réduit de 68%