Buyuk bir perakende zincirinin musteri hizmetleri ve dahili bilgi erisim ihtiyaclari icin gelistirilen konusma tabanli yapay zeka platformu. Firmanin cagri merkezi aylik 180.000+ musteri talebini yonetiyordu; ortalama bekleme suresi 8 dakikanin ustundeydi ve ilk temasta cozum orani %52'de kaliyordu. Dahili ekipler ise 4 farkli bilgi tabaninda dagilan 12.000+ dokumana erisimde zorluk yasiyordu.
RAG (Retrieval Augmented Generation) mimarisi uzerine kurdugumuz sistem, firmanin tum bilgi kaynaklarini (urun kataloglari, iade politikalari, teknik dokumanlar, SSS) vektorize ederek Qdrant veritabaninda indeksliyor. Kullanici sorgusu geldiginde, ilgili dokuman parcalari semantik arama ile bulunuyor ve LLM'e baglam olarak veriliyor. Cevap uretimi sirasinda kaynak referanslari otomatik ekleniyor. Sistem hem musteri kanallarinda (web, mobil) hem de dahili Slack entegrasyonuyla calisiyor.