ABD'de yapay zekâ dünyası ortadan yarıldı. Yapay zekâ şirketi Anthropic, Donald Trump yönetiminin dünyaya şiddetle yeni bir düzen dayatma çabasında insan hakları ihlallerini kolaylaştırmayı reddedince yönetim tarafından "sakıncalı" ilan edildi. Patlak veren iç savaşta kullanıcılar, yönetimle anlaşmaya varan OpenAI'yi terk ederek Anthropic'in uygulaması Claude'a kaydolmaya başladı.
ABD Savunma Bakanlığı (Pentagon) izlediği satın alma anlaşmaları stratejisiyle, ChatGPT yapay zekâ programını üreten OpenAI ve Claude yapay zekâ programını üreten Anthropic arasındaki rekabeti sadece bir pazar yarışı olmaktan çıkarıp, ulusal güvenlik stratejisinin bir parçası haline getirirken, yapay zekâ dünyasını da etik ilkeler ve insan hakları yaklaşımı bakımından ikiye bölmüş oldu.
Sonuçta dünyanın en gelişmiş yapay zekâ modellerinden biri olan Claude’un yaratıcısı Anthropic Pentagon tarafından "istenmeyen şirket" ilan edilirken, OpenAI ABD ordusunun operasyonlarının kalbine yerleşti.
Kırmızı çizgiler ve etik sınırlar
Çatışmanın merkezinde yapay zekânın "askerileştirilmesi" konusundaki görüş ayrılığı yatıyor. Anthropic, kurulduğu günden bu yana kendisini "güvenlilik odaklı" (safety-first) bir şirket olarak tanımladı. Şirketin amiral gemisi Claude, geliştiricilerince sıkı etik protokollerle sarmalanmıştı.
Pentagon, Anthropic’ten Claude modelini taktiksel analizler ve potansiyel otonom (insan müdahalesi olmadan karar verebilen) silah sistemleri için tam erişime açmasını talep etti. Ancak Anthropic yönetimi, Claude’un kullanım şartlarında yer alan "insan hakları ihlallerine veya fiziksel zarara yol açacak faaliyetlerde kullanılamaz" maddesini esnetmeyi reddetti.
Bu tutum, Pentagon koridorlarında "teknolojik bir isyan" olarak algılandı. ABD savunma yetkilileri, bir teknoloji şirketinin devletin savunma stratejisine "şart" koşmasını kabul edilemez buldu.
OpenAI’ın pragmatik dönüşümü
Anthropic etik bir duruş sergilerken, savunma ihalelerindeki en büyük rakibi OpenAI farklı bir yol izledi. Geçmişte askeri kullanıma dair benzer kısıtlamaları olan Sam Altman'ın kurucusu ve yönetcisi olduğu şirket, 2024 ve 2025 boyunca kullanım şartlarını "ulusal güvenlik çıkarlarıyla uyumlu kılmak" üzere sessizce güncelliyordu.
OpenAI, Pentagon’un ihtiyaç duyduğu "hız ve esneklik" talebine yeşil ışık yaktı. Şirket, yapay zekanın etik denetimini tamamen kaldırmak yerine, bu denetimi "teknik bir katman" olarak modelin içine gömdüğünü, ancak hükümetin acil durum ihtiyaçlarında bu bariyerlerin esnetilebileceğini taahhüt etti. Bu hamle, OpenAI'ı bir anda ordunun gözünde "vatansever teknoloji ortağı" konumuna yükseltti.
"Woke AI" tartışması
Trump yönetiminin yapay zekâya bakışı, rekabeti daha da kızıştırdı. Trump yönetiminin teknoloji danışmanları, Anthropic’in etik kısıtlamalarını "Woke AI" (Siyaseten Doğrucu YZ) olarak yaftaladı.
Pentagon’dan sızan raporlara göre, Anthropic’in modelleri "politik doğruculuk adına ulusal çıkarları tehlikeye atmakla" suçlanıyor. Bu siyasi baskı, Anthropic’in sadece Pentagon ile değil, diğer federal kurumlarla olan sözleşmelerinin de askıya alınmasına yol açtı. Şirketin "tedarik zinciri riski" (Supply Chain Risk) listesine alınması, teknoloji dünyasında bir şirkete verilebilecek en ağır cezalardan biri olarak görülüyor.
Dijital silahlanma yarışı ve gelecek senaryoları
Mevcut tabloda Silikon Vadisi ikiye bölünmüş durumda:
▶ Anthropic yanlıları: Teknolojinin kontrolsüz bir şekilde orduya devredilmesinin "Terminatör senaryolarını" gerçeğe dönüştüreceğini savunanlar.
▶ OpenAI ve savunma lobisi: ABD'nin bu teknolojiyi tam kapasiteyle kullanmaması halinde Çin veya Rusya’nın gerisinde kalacağını ve bunun asıl büyük güvenlik riski olduğunu savunanlar.
Rekabet nereye varacak?
Pentagon'un bu yıkıcı tutumu, diğer yapay zeka girişim hazırlıkları (start-up) için de bir gözdağı gibi. Mesaj net:
"Eğer federal bütçeden pay almak istiyorsanız, etik kurallarınızı bizim stratejilerimize göre şekillendirmelisiniz."
Bu süreçte Anthropic, sivil pazara (bireysel kullanıcılar ve yaratıcı endüstriler) odaklanarak "güvenli liman" imajını pekiştirmeye çalışırken; OpenAI, Microsoft'la devasa ortaklığının yanına Pentagon'u da ekleyerek bir "dijital savunma sanayi devine" dönüşüyor.
Adaletin değil Pentagon'un kılıcı
ABD Savunma Bakanlığı, Claude ve ChatGPT arasındaki rekabette sadece bir müşteri değil, kuralları koyan bir "hakem" rolünü üstlendi. "Savaş Bakanı" Pete Hegseth, X'te yaptığı bir paylaşımda, "Anthropic'in çarpık iyilikseverliğinin Hizmet Şartnamesi, asla savaş alanındaki Amerikan askerlerinin güvenliği, hazırlığı veya hayatlarının üstünde olamaz" dedi. Bu sonuç, yapay zekanın geleceğinin yalnızca mühendisler tarafından değil, generaller ve siyasetçilerce belirleneceği yeni bir dönemin başlangıcını işaret ediyor.
Anthropic’in Pentagon kararına karşı açmaya hazırlandığı dava, önümüzdeki aylarda ABD ve dünya gündemini meşgul edecek. Anthropic, tedarik zinciri risk sınıflandırmasının kapsamı konusunda Pentagon'u mahkemeye vereceğini açıkladı. Şirket cuma günü yaptığı açıklamada, bu sınıflandırmanın hem "yasal olarak geçersiz olduğunu hem de şirketlerin hükümetle müzakeresi açısından tehlikeli bir emsal teşkil ettiğini" belirtti.
Bu davada, hukuk "Yapay zeka vicdan sahibi olabilir mi ve bu vicdanın sahibi kim?" sorularına yanıt arayacak.
Kullanıcıların vicdanı
Ancak, Anthropic ABD hükümetine karşı duruşuyla çoktan kullanıcıların vicdanına yerleşmiş görünüyor. İnsanlar şirketin San Francisco'daki genel merkezinin önündeki kaldırımlara tebeşirle "Tanrı Anthropic'i seviyor" yazıyorlar.
Anthropic, yüz milyonlarca dolarlık gelir kaybının sonuçlarıyla karşı karşıya kaldı ama hem yapay zeka camiasında hem de bunun ötesinde büyük bir destek kazandı. Hükümetin getirdiği yasağın üzerinden bir kaç saat geçtiğinde Claude uygulaması Apple App Store'da zirveye fırladı ve ChatGPT'yi birincilikten indirdi.
Katy Perry gibi yapay zekâyla derin bir ilişkisi olmayan ünlüler bile Anthropic'e kaydolurken, şirketin CEO'su Dario Amodei, CBS News ile yaptığı röportajda hükümetle aynı fikirde olmamayı "dünyadaki en Amerikan şey" olarak niteledi.
Bu arada, OpenAI, modellerini kullanmak üzere Savaş Bakanlığıyla yaptığı anlaşmanın iç gözetim ve otonom silahlar konusundaki "kırmızı çizgilerini" koruduğunu ve "gizli yapay zekâ uygulamaları için daha önce yapılmış herhangi bir anlaşmadan daha fazla koruma sağladığını" iddia etti.
Anthropic özellikle insanların hakları ve hayatlarının tehlike altına girebileceği koşullarda Pentagon'un iradesine boyun eğmeyen tutumuyla kuruluşunda açıkladığı ilkelere sadık kaldı. Teslim olmama kararı şimdiden diğer rakiplerini baskı altına alıyor. Sosyal medyada dolaşmaya başlayan "Bölünmeyeceğiz" başlıklı açık mektup, yayımlanır yayımlanmaz Google çalışanlarından 537, OpenAI çalışanlarından ise 89 imza aldı.
(AEK)





