
Meta Llama 4 Nedir? Scout ve Maverick ile Açık Kaynak AI'ın Yeni Çağı
Meta, Nisan 2025'te Llama 4 model ailesinin ilk iki modelini duyurdu: Scout ve Maverick. Her iki model de Mixture of Experts (MoE) mimarisini kullanıyor ve Llama 3.1'den devasa bir sıçrama temsil ediyor. En çarpıcı özellik: Scout modeli 10 milyon tokene kadar bağlam penceresi sunuyor—bu, tüm bir kod tabanını, yüzlerce dokümanı veya saatlerce videoyu tek seferde işleyebilmek demek.
Llama 4 Model Ailesi
| Özellik | Llama 4 Scout | Llama 4 Maverick | Llama 4 Behemoth (gelecek) |
|---|---|---|---|
| Toplam parametre | 109B | 400B | 2T+ |
| Aktif parametre | 17B | 17B | ~288B |
| Expert sayısı | 16 (1 aktif) | 128 (aktif: değişken) | - |
| Bağlam penceresi | 10M token | 1M token | - |
| Multimodal | Metin + görüntü | Metin + görüntü | - |
| Lisans | Llama 4 Community | Llama 4 Community | - |
MoE Mimarisi: Az Parametre, Çok Bilgi
Llama 4'ün MoE yaklaşımı, DeepSeek R1'den ilham alıyor: Toplam model çok büyük (Scout: 109B, Maverick: 400B) ama her token için sadece 17B parametre aktif. Bu, çok daha az hesaplama gücüyle büyük modelin bilgi kapasitesini sunmayı mümkün kılıyor.
1MoE Çalışma Prensibi (Scout):
2
3Gelen token → Router (hangi expert'i seçecek?)
4 ├── Expert 1 (inaktif)
5 ├── Expert 2 (AKTİF) → 17B parametre işle
6 ├── Expert 3 (inaktif)
7 ├── ...
8 └── Expert 16 (inaktif)
9
10Sonuç: 109B toplam bilgiden yalnızca 17B aktif
11 = Küçük model hızı, büyük model bilgisiScout: 10 Milyon Token Bağlam Devrimi
Scout'un 10 milyon token bağlam penceresi, mevcut tüm modellerin çok ötesinde:
| Model | Bağlam Penceresi | Eşdeğer |
|---|---|---|
| GPT-4o | 128K | ~90 sayfa |
| Claude 3.7 | 200K | ~150 sayfa |
| Gemini 2.5 | 1M | ~1.500 sayfa |
| Llama 4 Scout | 10M | ~15.000 sayfa |
10 milyon token ile yapılabilecekler:
- Büyük bir monorepo'nun tüm kodunu tek seferde analiz etme
- Bir şirketin tüm doküman arşivini sorgulama
- Saatlerce video ve ses kaydını işleme
- Yüzlerce PDF'yi aynı anda karşılaştırma
Scout'un 10M bağlamı nasıl çalıştığı konusunda Meta sınırlı teknik detay paylaştı. Muhtemelen iRoPE (interleaved Rotary Position Embedding) veya benzeri bir pozisyonel kodlama yeniliği kullanılıyor.
Maverick: Çok Dilli ve Çok Yetenekli
Maverick, Scout'tan çok daha büyük (400B toplam) ve daha çeşitli yeteneklere sahip:
Benchmark Sonuçları
| Benchmark | Llama 4 Maverick | GPT-4o | Gemini 2.0 Flash |
|---|---|---|---|
| MMLU | 85.5% | 88.7% | 85.9% |
| HumanEval | 84.6% | 90.2% | 89.6% |
| MATH-500 | 80.2% | 74.6% | 83.9% |
| Multilingual MGSM | 92.1% | 90.5% | 85.7% |
| LMSys Arena (ELO) | 1380+ | 1358 | 1345 |
Maverick'in çok dilli performansı öne çıkıyor: Türkçe dahil 12+ dilde güçlü doğal dil anlama ve üretme yeteneği.
Multimodal Yetenekler
Llama 4 ailesi, Llama serisinde ilk kez native multimodal desteğe sahip:
- Görüntü anlama ve analiz etme
- Grafik ve diyagram yorumlama
- OCR ve doküman parse etme
- Tablo verilerini yapılandırılmış formata dönüştürme
Yerel Kullanım ve Donanım Gereksinimleri
MoE mimarisi sayesinde Llama 4 modelleri düşünüldüğünden daha erişilebilir:
| Model | FP16 RAM | 4-bit Quantized | Minimum Donanım |
|---|---|---|---|
| Scout (109B) | ~220GB | ~60GB | 2x A100 80GB veya 4x RTX 4090 |
| Maverick (400B) | ~800GB | ~200GB | 8x A100 80GB |
1# Ollama ile Scout modeli
2ollama pull llama4-scout
3ollama run llama4-scout
4
5# vLLM ile production serving
6python -m vllm.entrypoints.openai.api_server \
7 --model meta-llama/Llama-4-Scout-17B-16E-Instruct \
8 --tensor-parallel-size 2 \
9 --max-model-len 1000000Lisans ve Ticari Kullanım
Llama 4 Community License, Llama 3.1 ile aynı şartlarda:
- Ticari kullanım serbest (700M MAU'ya kadar)
- Fine-tuning ve distillation izni
- Türev model oluşturma serbest
- Açık ağırlıklar (model weights) paylaşılıyor
Behemoth: Gelecekte Ne Bekleniyor?
Meta, Llama 4 ailesinin en büyük modelinin Behemoth olacağını duyurdu:
- 2 trilyon+ toplam parametre
- ~288B aktif parametre
- Eğitimi hâlâ devam ediyor
- GPT-4.5 ve Claude Opus 4 ile rekabet etmesi bekleniyor
Behemoth, açık kaynak AI tarihinin en büyük modeli olacak.
Açık Kaynak AI Ekosistemi Değerlendirmesi
Llama 4 ile birlikte açık kaynak AI ekosistemi ciddi bir olgunluğa ulaştı:
| Nesil | Kapalı Kaynak Rakip | Sonuç |
|---|---|---|
| Llama 2 (2023) | GPT-3.5 | Geride |
| Llama 3 (2024) | GPT-4 | Yaklaşıyor |
| Llama 3.1 405B (2024) | GPT-4o | Denk |
| Llama 4 Maverick (2025) | GPT-4o | Denk/üstün |
Meta'nın açık kaynak stratejisi, AI demokratikleşmesinin en önemli itici gücü olmaya devam ediyor. Scout'un 10M token bağlamı ve Maverick'in çok dilli performansı, açık kaynak alternatiflerin artık her senaryoda ciddi bir seçenek olduğunu gösteriyor.
Sonuç
Llama 4, Meta'nın açık kaynak AI vizyonunda yeni bir zirve. Scout'un benzersiz 10M token bağlamı, Maverick'in dengeli performansı ve MoE mimarisinin sağladığı verimlilik, açık kaynak AI'ı kapalı kaynak alternatiflerle tam rekabet noktasına taşıdı. Behemoth'un yayınlanmasıyla bu denge daha da değişebilir.
Kaynaklar: Meta Llama 4 Blog | Hugging Face Model Hub | Llama GitHub


