
Yapay zeka sektörü, son haftanın en tartışmalı gelişmesiyle sarsıldı. Anthropic, Pentagon'un 200 milyon dolarlık AI sözleşmesini otonom silahlar ve kitlesel gözetim endişeleriyle reddetti. Saatler sonra OpenAI aynı masaya oturdu ve anlaşmayı imzaladı.
Bu kriz sadece iki şirketin hikayesi değil — yapay zekanın askeri kullanımı, etik sınırlar ve teknoloji şirketlerinin devlet baskısı karşısındaki duruşu hakkında sektör genelinde bir hesaplaşma başlattı.
6 Günde Neler Oldu?
Pentagon ile Anthropic arasındaki gerilim, 2026 Şubat ayının son haftasında zirveye ulaştı. İşte kritik zaman çizelgesi:
24 Şubat: ABD Savunma Bakanı Pete Hegseth, Anthropic CEO'su Dario Amodei'ye bir ültimatom verdi — 27 Şubat Cuma saat 17:01'e kadar Claude modellerinin "tüm yasal amaçlar" için kullanılmasına izin ver, yoksa sonuçlarına katlan.
26 Şubat: Anthropic, Pentagon'un "son teklifini" resmen reddetti. Şirket, sunulan uzlaşı dilinin "güvencelerin istenildiğinde göz ardı edilmesine izin veren hukuki ifadelerle birlikte geldiğini" açıkladı.
27 Şubat: Üç kritik gelişme aynı gün yaşandı:
- Başkan Trump, tüm federal kurumların Anthropic teknolojisini kullanmayı "derhal durdurmasını" emretti
- Bakan Hegseth, Anthropic'i "ulusal güvenlik için tedarik zinciri riski" ilan etti — normalde yabancı düşman devletlere uygulanan bir etiket
- OpenAI, Pentagon ile gizli ağlarda AI kullanımı için anlaşma imzaladığını duyurdu
28 Şubat: Sam Altman anlaşma detaylarını paylaştı ve "aceleye geldi, optik iyi görünmüyor" itirafında bulundu. Amodei ise kararı "misilleme amaçlı ve cezalandırıcı" olarak nitelendirdi.
1-2 Mart: Claude, ABD App Store'da ChatGPT'yi geçerek 1 numara oldu. 1,5 milyondan fazla kişi "QuitGPT" hareketine katıldı.
Anthropic Neden Reddetti?
Anthropic'in iki kırmızı çizgisi vardı — ve bunlardan geri adım atmayı kesinlikle reddetti:
1. Otonom silahlar: Amodei, mevcut AI sistemlerinin hayat-ölüm kararlarını insansız verebilecek olgunluğa henüz ulaşmadığını savundu. Şirketin açıklamasındaki ifade netti: "Bugünkü yapay zeka modellerinin tam otonom silahlarda kullanılacak kadar güvenilir olmadığına inanıyoruz." İş süreçleri için bile güvenilir AI agent sistemleri geliştirmek zorlu bir süreçken, askeri hedefleme konusunda hata yapmanın bedelini hayal etmek güç değil.
2. Kitlesel gözetim: Amerikan vatandaşlarının konum bilgileri, web tarama verileri ve kişisel finansal bilgilerinin toplu olarak toplanması konusunda endişe duydular. Bu verilerin çoğu yasal olarak erişilebilir olsa da, Anthropic yapay zekanın bu toplama işlemini ve ardından gelen gözetimi çok daha etkili hale getireceğinden kaygılıydı.
Pentagon ise Claude'u "tüm yasal amaçlar" için kullanmak istiyordu ve söz konusu kullanım senaryolarıyla ilgilenmediğini belirtti. Ancak Anthropic, sözleşmede yazılı güvence olmadan sözlü beyanların yeterli olmadığı görüşündeydi.
Amodei'nin CBS News'e verdiği röportajdaki sözleri durumu özetliyor:
"Bu kırmızı çizgilerimizden geri adım atmayacağız. Vatansever Amerikalılarız ve ABD'nin ulusal güvenliğini destekliyoruz — ancak dar kapsamlı iki istisna konusunda uzlaşamadık."
Anthropic, "tedarik zinciri riski" etiketinin hukuki dayanağı olmadığını belirterek mahkemeye başvuracağını açıkladı.
OpenAI Neden Kabul Etti?
OpenAI, blog yazısında anlaşmayı "Our Agreement with the Department of War" (Savaş Bakanlığı ile Anlaşmamız) başlığıyla duyurdu ve üç kırmızı çizgi belirledi:
- Kitlesel iç gözetim için kullanılmayacak
- Otonom silah sistemleri için kullanılmayacak
- Yüksek riskli otomatik kararlar için kullanılmayacak
Ayrıca şu güvenceleri vurguladı: yalnızca bulut üzerinden dağıtım, güvenlik yetkili OpenAI personelinin süreçte yer alması ve güvenlik altyapısının tam kontrolünün OpenAI'da kalması.
Peki İki Anlaşma Arasındaki Fark Ne?
Yüzeysel bakıldığında OpenAI'ın güvenceleri Anthropic'in istekleriyle aynı görünüyor. Ancak eleştirmenler kritik bir boşluğa dikkat çekti:
OpenAI'ın sözleşmesindeki "kitlesel gözetim" yasağı yalnızca vatandaşların özel bilgilerinin "kısıtlamasız" toplanmasını kapsıyor. Ticari olarak satın alınabilir kamuya açık veriler — konum bilgileri, sosyal medya paylaşımları, web tarama geçmişi — bu yasağın dışında kalıyor.
MIT Technology Review'un analizine göre, "bu tam olarak Anthropic'in korktuğu şey." Savunma İstihbarat Teşkilatı'nın (DIA) daha önce bu tür ticari verileri satın aldığı biliniyor ve bu verilerin AI ile analiz edilmesi, pratikte kitlesel gözetimle aynı sonucu doğurabilir. Bu tür hassas veri işleme süreçleri, siber güvenlik perspektifinden ciddi riskler barındırıyor.
OpenAI mühendisi Leo Gao bile kendi şirketini X'te eleştirerek anlaşmadaki güvenceleri "vitrin süslemesi" olarak nitelendirdi.
Kamuoyu Tepkisi: #CancelChatGPT
Kamuoyu tepkisi beklenenden çok daha sert oldu:
- QuitGPT hareketi: 1,5 milyondan fazla kişi ChatGPT aboneliğini iptal etti veya boykot mesajlarını paylaştı
- Claude App Store'da 1 numara: Claude, ABD App Store'da ChatGPT'yi geçerek en çok indirilen uygulama oldu. ChatGPT ikinciliğe, Gemini ise dördüncülüğe düştü
- Anthropic'in büyümesi: Ücretsiz kullanıcılar Ocak ayından bu yana %60'tan fazla arttı, ücretli aboneler 2026'da ikiye katlandı
- Çalışan tepkisi: 300'den fazla Google çalışanı ve 60'tan fazla OpenAI personeli, Anthropic'in etik duruşunu destekleyen açık mektup imzaladı
San Francisco'da OpenAI ofislerinin önündeki kaldırımlar anlaşmayı eleştiren tebeşir grafitileriyle kaplanırken, Anthropic'in ofisleri önünde şirketi destekleyen mesajlar yer aldı.
Bu Kriz İşletmeler İçin Neden Önemli?
Bu olay bir teknoloji haberi gibi görünse de, AI teknolojisini iş süreçlerine entegre eden her kuruluş için kritik dersler içeriyor.
AI Tedarikçisi Seçimi Stratejik Bir Karar
Bir yapay zeka sağlayıcısının etik duruşu, devlet politikalarıyla çatıştığında bir gecede "tedarik zinciri riski" ilan edilebiliyor. İşletmelerin AI çözüm ortaklarını seçerken yalnızca teknik kapasiteye değil, kurumsal değerlere ve regülasyon risklerine de bakması gerekiyor.
Vendor Lock-in Riski Hiç Bu Kadar Somut Olmamıştı
Federal kurumlar bir gecede Anthropic'ten OpenAI'a geçmek zorunda kaldı. Bu durum, tek bir AI sağlayıcısına bağımlı kalmanın risklerini çarpıcı şekilde ortaya koyuyor. Çoklu model stratejileri ve modüler AI mimarileri artık lüks değil, zorunluluk.
AI Kullanım Politikaları Vitrin İçin Değil
OpenAI'ın "otonom silah yasağı" ile Anthropic'in aynı konudaki yasağı arasındaki fark, birkaç kelimelik hukuki ifadede gizli. İşletmelerin kendi AI kullanım politikalarını oluştururken bu tür nüansları anlaması ve net sınırlar çizmesi şart.
Kamuoyu AI Etiğine Giderek Daha Duyarlı
1,5 milyon kişinin bir AI ürününü boykot etmesi, tüketicilerin teknoloji şirketlerinin etik duruşlarına ne kadar önem verdiğini gösteriyor. Bu trend, markaların AI stratejilerini şeffaf ve etik bir çerçevede planlaması gerektiğine işaret ediyor.
Sonuç
Bu kriz, yapay zeka sektöründe birkaç gerçeği netleştirdi:
- AI güvenliği politik bir araç haline gelebilir — Bir şirketin etik çizgileri, devlet baskısıyla test edilebilir
- Kamuoyu desteği etik duruşu ödüllendiriyor — Claude'un App Store'da 1 numaraya yükselmesi bunun kanıtı
- "Tüm yasal amaçlar" ile "tüm etik amaçlar" aynı şey değil — Yasal olan her şey sorumlu AI kullanımı anlamına gelmiyor
- Vendor çeşitlendirmesi kritik — Tek sağlayıcıya bağımlılık, jeopolitik risklere maruz bırakıyor
- Şeffaflık güven inşa eder — Anthropic'in açık tutumu, kısa vadede iş kaybına yol açsa da uzun vadede marka değerini artırdı


