Yapay Zekânın Politik İnşası serimizin bu bölümünde, Meredith Whittaker’ın “The Steep Cost of Capture” başlıklı makalesini, Diyar Saraçoğlu’nun çevirisiyle sizlere sunuyoruz.
Signal Vakfı’nın mevcut başkanı, teknoloji endüstrisinin içeriden bir eleştirmeni ve yapay zekânın politik ekonomisi alanında önde gelen bir ses olan Whittaker, bu makalede Soğuk Savaş’taki askerî-akademik kompleksi günümüz teknoloji tekellerinin nüfuzuyla karşılaştırıyor. Facebook’un veriye erişimi kesmesinden Google’ın kurum içi sansür talimatlarına, Amazon’un eleştirmenlere yönelik baskılarına dek uzanan örnekler, bilimin “tarafsız” olmadığını; aksine, sermaye ve iktidar ilişkilerinin yoğunlaştığı bir mücadele alanı olduğunu gösteriyor.
Whittaker’ın çağrısı net: Akademisyenler, teknoloji işçileri ve eleştirel araştırmacılar yalnızca stratejik dayanışma ve örgütlenme yoluyla bu kuşatmayı geriletip yapay zekânın toplumsal maliyetlerini görünür kılabilir. Aksi hâlde, “demokratikleştirme” adıyla sunulan her ortaklık, veri ve işlem gücü tekellerini daha da pekiştirerek kamusal bilgi alanını daraltacaktır.

Yapay Zekânın Politik İnşası
Bu, son derece tehlikeli bir an. Yapay zekâ olarak pazarlanan özel bilişim sistemleri, kamusal yaşamımıza ve kurumlarımıza sızıyor, endüstriyel gücü yoğunlaştırıyor, ötekileştirmeyi daha da derinleştiriyor ve kaynaklar ile bilgiye erişimi sessizce şekillendiriyor.
Endüstriyel yapay zekânın bu saldırısıyla nasıl başa çıkacağımızı düşünürken, öncelikle son on yılda kutlanan “atılımların” yapay zekâ tekniklerindeki temel bilimsel buluşlardan kaynaklanmadığını kabul etmeliyiz. Bu gelişmeler, geçmişte olduğu gibi bugün de öncelikli olarak birkaç büyük teknoloji şirketinin elindeki devasa veri ve hesaplama kaynaklarının bir ürünü olmuştur.
Modern yapay zekâ, özünde kurumsal kaynaklara ve iş yapış biçimlerine bağımlıdır ve bu teknolojiye artan bağımlılığımız, hayatlarımız ve kurumlarımız üzerinde bir avuç teknoloji firmasına orantısız bir güç devrediyor. Bu durum aynı zamanda bu firmalara hem yapay zekânın gelişim yönü hem de onu araştırmak isteyen akademik kurumlar üzerinde önemli bir nüfuz sağlıyor. Kısacası, teknoloji firmaları, bir yandan kendi ürünleriyle hayatlarımızı ve kurumlarımızı şekillendirirken, diğer yandan yapay zekâ ve arkasındaki ticari faaliyetler hakkında ne bildiğimizi ve ne bilmediğimizi belirleyecek kadar avantajlı bir konumdadır.
Artan düzenleme baskısı
Soğuk Savaş sırasında ABD ordusunun bilimsel araştırmalar üzerindeki etkisini incelediğimizde, teknoloji endüstrisinin günümüzdeki yapay zekâ üzerindeki etkisiyle paralellikler görürüz. Bu tarih aynı zamanda, ABD askeri hâkimiyetinin akademik bilgi üretimini nasıl şekillendirdiğine ve muhalif olanları cezalandırmak için nasıl çalıştığına dair endişe verici örnekler sunuyor.
Bugün giderek artan bir düzenleme baskısıyla karşı karşıya olan teknoloji endüstrisi, tıpkı geçmişte ABD ordusu ve müttefiklerinin yaptığı gibi, teknoloji lehine anlatılar yaratma ve eleştirmenleri susturarak kenara itme çabalarını yoğunlaştırıyor. Genel bir bakışla, teknoloji endüstrisinin yapay zekâ araştırması ve bilgi üretimindeki hâkimiyetinin, akademi içindeki ve dışındaki eleştirel araştırmacıları ve savunucuları oldukça tehlikeli bir konuma ittiğini görüyoruz. Bu durum, tam da bu tür çalışmaya en çok ihtiyaç duyulduğu bir zamanda, en ön saflardaki toplulukları, politika yapıcıları ve halkı, bu teknolojinin ve ondan sorumlu endüstrinin maliyetleri ve sonuçları hakkındaki hayati bilgilerden mahrum bırakma tehdidi taşıyor.
Büyük teknoloji firmalarının yapay zekâ ve ilgili araştırmalar üzerindeki etkisinin boyutunu incelerken, bu alana yönelik mevcut eğilimin kısa bir geçmişiyle başlamak faydalı olacaktır. Yaklaşık 70 yıllık bir geçmişi olmasına ve birkaç “yapay zekâ kışı” atlatmasına rağmen, yapay zekâ son on yılda neden bu kadar öne çıktı ve yapay zekâdan bahsettiğimizde aslında neden bahsediyoruz? Bu soruları yanıtlamak, “yapay zekâ” teriminin ne kadar değişken olduğunu gözler önüne serer; ayrıca dikkatimizi, mevcut patlamanın merkezinde yer alan yoğunlaşmış kurumsal kaynakların önemine ve bu kaynaklar üzerindeki tekelci kontrolün, bir avuç teknoloji şirketine hem alanı yeniden tanımlama yetkisi verdiğini hem de bu sistemlere dair bilgiyi kurumsal gizlilik perdesinin ardına hapsetme olanağı tanıdığına çeker.
AlexNet algoritması
2012’de Toronto merkezli bir araştırma ekibi, ImageNet Büyük Ölçekli Görsel Tanıma Yarışması’nı kazanan AlexNet adlı bir algoritma oluşturdu. Bu, yakın dönem yapay zekâ tarihinde bir dönüm noktasıydı ve teknoloji endüstrisinde büyük bir olaydı. Bu gelişme, denetimli makine öğrenmesinin, önemli miktarda hesaplama gücü ve devasa etiketli veri kullanılarak eğitildiğinde, tahmine dayalı örüntü tanımada şaşırtıcı derecede etkili olduğunu gösterdi.[1] AlexNet algoritması, neredeyse yirmi yıllık makine öğrenmesi tekniklerine dayanıyordu. Ancak çığır açan şey algoritmanın kendisi değil, büyük ölçekli veri ve hesaplama kaynaklarıyla eşleştirildiğinde algoritmanın yapabildikleriydi.
AlexNet, güçlerini pekiştirmek ve genişletmek isteyen büyük teknoloji şirketleri için ileriye dönük bir yol haritası çizdi. AlexNet’in başarısının dayandığı kaynaklar, büyük teknoloji firmalarının zaten kontrol ettikleriydi: Geniş hesaplama altyapısı, devasa miktarda veri (ve onu işlemek ve depolamak için mevcut sistemler), sürekli veri toplamayı güvence altına alan köklü pazar erişimi ve kısıtlı sayıda olan yetenekleri işe almak ve elde tutmak için gereken sermaye. Yapay zekâ araştırmasının öncülerinden Yoshua Bengio, durumu basitçe şöyle özetliyordu: “[Hesaplama] gücü, uzmanlık ve veri hepsi birkaç şirketin elinde toplanmış durumda.”[2]
2012 yılı, denetimli makine öğrenmesinin ticari potansiyelini ve “yapay zekâ” teriminin bir pazarlama aracı olarak gücünü gösterdi. Teknoloji şirketleri, makine öğrenmesini ve diğer veriye bağımlı yaklaşımları hızla yapay zekâ olarak (yeniden) markalaştırdı ve bunları çığır açan bilimsel yeniliklerin ürünü olarak sundu. Şirketler laboratuvarları ve startup’ları satın alarak yapay zekâyı sayısız alanda neredeyse her amaca uygun, çok yönlü bir verimlilik ve hassasiyet aracı olarak pazarlamaya koyuldu. Yapay zekânın her yerde olduğunu söylememizin sebebi de işte bu.
Bu firmalardan akan söylem ve sermaye, yapay zekâ araştırma alanını yeniden tanımlamaya hizmet etti, alanı fonlarla doldurarak alanın dikkatini veri ve hesaplama yoğun tekniklere ve araştırma sorularına odakladı. Yapay zekâ geliştirmek ve bu alanda çalışma yapmak isteyen üniversite laboratuvarları ile girişimler, büyük teknoloji şirketlerinin kontrolündeki maliyetli bulut bilişim ortamlarına ve veriye erişebilmek için mücadele etmek zorunda kaldı; bu dinamik 2012’den beri daha da yoğunlaştı. Cornell profesörü ve Yurttaşlar ve Teknoloji Laboratuvarı’nın yöneticisi J. Nathan Matias, “bazı alanların sıkı endüstri bağları olmadan var olamayacağını” belirttiğinde bu bağımlılığın boyutuna işaret ediyordu.[3]
Bu durum, bu alanlardaki araştırmacıların ilkesiz olduğu anlamına gelmediği gibi, böyle bağımlılıklardan kaçınabilecek araştırma yönelimlerinin hiç bulunmadığı anlamına da gelmez. Ancak bu, alanı harekete geçiren soruların ve teşviklerin her zaman bireysel araştırmacıların kararına bırakılmadığı anlamına gelir. Ve alanın kuralları -hangi soruların cevaplanmaya değer görüldüğü ve hangi cevapların burs, ödül ve kadro getireceği dahil- büyük ölçüde, kaynak yoğun yapay zekâya yönelik kurumsal yönelim ve onu körükleyen teknoloji endüstrisi teşvikleri tarafından şekillendirilmektedir.
Paradigma değişimi
Stanford’ın yakın tarihli bir hamlesi bu dinamiği gözler önüne seriyor. Ağustos 2021’de üniversite, “Temel Model Araştırma Merkezi” (Center for Research on Foundation Models - CRFM) adlı yeni bir birim kurduğunu duyurdu; merkezin açılışına, bu modelleri yapay zekâda “paradigma değişimi” olarak niteleyen ve bu nedenle yeni, maliyetli bir araştırma merkezini meşrulaştıran, 100’ün üzerinde yazarın imzasını taşıyan bir rapor eşlik etti.[4] Rapor boyunca temel modeller, kaçınılmaz, en son teknoloji ve bilimsel ilerlemenin ürünü olarak sunuluyor. Peki “temel modeller” nedir? Bilmemeniz gayet doğal. Çünkü bu ismi, daha önce “büyük dil modelleri” (Large Language Models - LLM) olarak bilinen yapıları yeniden markalamak amacıyla Stanford, kendi raporu ve CRFM tanıtım materyalleri için türetmiştir. GPT-3 ve BERT gibi LLM’ler, yapay zekâdaki en fazla veri ve işlem gücü gerektiren teknikler arasında yer alır; bu nedenle de endüstri kontrolünün en belirgin olduğu alanlardandır. Son dönemde medyada büyük ilgi görmenin yanı sıra, belirgin önyargılar, çevresel maliyetler ve gücün yoğunlaşması üzerine yöneltilen sürekli eleştirilerin hedefi olmuşlardır.[5]
Stanford’ın yeniden markalama çabası, endüstri tarafından ele geçirilmiş teknikleri en son teknoloji olarak yüceltmenin ötesinde, LLM’leri bu eleştiri mirasından uzaklaştırmaya hizmet ediyor. Rapor, “temel modellerin inşasına yönelik araştırmaların neredeyse tamamen endüstride gerçekleştiğini” kabul etse de, gücün yoğunlaşması meselesini, teknolojilere olan bağımlılığımızı yeniden düşünmemizi gerektiren bir problem olarak değil; Stanford gibi kurumların da pastadan pay alabilmesi için erişim kısıtlamalarının gevşetilmesiyle çözülebilecek bir problem olarak sunuyor: “[S]onuçta temel modellerin nasıl konuşlandırılacağına dair somut kararları endüstri verir, ancak biz de disiplin çeşitliliği ve ticari olmayan teşvikleriyle akademiye yaslanmalıyız.”[6]
Yapay zekâ araştırmalarına erişimi genişletme çabaları da aynı örüntüyü izliyor; veri ve işlem gücü bakımından yoğun yapay zekâ türlerini kabul edilmiş bir olgu olarak ele alıyor ve yalnızca bu yoğunlaşmış kaynaklara daha fazla kişinin nasıl erişebileceğine odaklanıyor. Bu dar çerçeveli probleme önerilen “çözümlerden” birini incelediğimizde, sektörün araştırma alanını nasıl ele geçirdiğinin boyutlarıyla yüz yüze geliyoruz.
Yapay zekâya erişimi “demokratikleştirme”
Mart 2020’de, eski Google CEO’su Eric Schmidt’in başkanlık ettiği ve başka teknoloji yöneticilerinin de yer aldığı Ulusal Yapay Zekâ Güvenlik Komisyonu (NSCAI), “yapay zekâ araştırmasına erişimi demokratikleştirmek” adına ABD hükümetinin ulusal bir yapay zekâ araştırma altyapısını finanse etmesini önerdi. Bu öneri, 2021 Ulusal Savunma Yetkilendirme Yasası’na (NDAA) girerek, “farklı bilim alanlarındaki araştırmacı ve öğrencilerin, kamuya açık ve yapay zekâya hazır hükümete ait ve hükümet dışı veri setleriyle birlikte konumlandırılmış yüksek hesaplama kaynaklarına erişim sağlayacak bir sistem kurulmasını” zorunlu kıldı.[7] NDAA direktifinin ardından, Beyaz Saray Bilim ve Teknoloji Politikası Ofisi ile Ulusal Bilim Vakfı, Ulusal Yapay Zekâ Araştırma Kaynağı’nı (NAIRR) başlattı ve politikaları ile uygulamasını tasarlayacak bir çalışma grubu görevlendirdi.
Teknoloji yöneticileriyle dolu, çıkar çatışmalı bir devlet organı neden ellerindeki yoğunlaşmış gücün merkezinde yer alan altyapılara erişimi “demokratikleştirmeyi” önerir? Çünkü bu öneri gerçekte bu gücü azaltmaz. Aksine, hayata geçirilirse büyük teknoloji şirketlerinin nüfuzunu neredeyse kesinlikle pekiştirir ve genişletir. Büyük teknoloji şirketlerinin yapay zekâ araştırma ve geliştirme altyapısı üzerindeki hâkimiyeti, “tarafsız platformlar” sunmanın çok ötesine geçer: Araştırma sürecini tanımlayan araçları, geliştirme ortamlarını, dilleri ve yazılımları onlar kontrol eder; yapay zekâ araştırmasının içinde yüzdüğü suyu onlar oluşturur. Üstelik istense bile -ki yapay zekânın zararları ve kusurları düşünüldüğünde bu da tartışmaya açıktır- mevcut teknoloji endüstrisi ekosistemi dışında anlamlı bir ulusal araştırma altyapısı inşa etmek akla yatkın değildir. Böyle bir girişim, yeni bir platform kurmayı, yazılım geliştirmeyi, on binlerce araştırmacıyı yeni araç ve arayüzlere alıştırmayı ve bu devasa, pahalı sistemi sürekli ayakta tutmak için binlerce site güvenilirliği mühendisi, yazılım geliştirici, kalite güvencesi testçisi ve destek personeli istihdam etmeyi gerektirir.
Pratikte, yapay zekâ araştırma altyapılarına erişimi “demokratikleştirme” yönündeki bu öneriler, tanıdık altyapıları teknoloji devlerinden lisanslayarak onları daha da sübvanse etmekten ve böylece yapay zekâ ile onun araştırmasının şartlarını tanımlamaya devam etmelerini sağlamaktan başka bir anlama gelmiyor. Bu sırada Stanford’ın yeni CRFM’i gibi merkezler, endüstriye bağımlı yapay zekâ tekniklerini alanın araştırmasının ön safları olarak sunarak bu hâkimiyeti daha da pekiştirmeye hazırlanıyor.
Akademinin, teknoloji şirketlerine bağımlılığı
Endüstri destekli doktora programlarından teknoloji şirketlerinin kampüs içinde ofis açmasına, Ulusal Bilim Vakfı’nın Amazon’la işbirliği yaparak yapay zekâda “adaletin” parametrelerini tanımlayıp bu pozitivist kriterleri karşılayan projelere hibe vermesine kadar,[8] akademiyi teknoloji şirketlerine daha da yaklaştırmayı amaçlayan çok sayıda düzenek görüyoruz. Bu düzenekler, yapay zekâ alanında yaygın olan çifte atama anlaşmalarına kadar uzanıyor; şirketler, yapay zekâ profesörlerini işe alırken onların akademik unvan ve görevlerini sürdürmelerine izin veriyor. Çifte ataması yapılan akademisyenler şirket maaşı alıyor, teknoloji çalışanlarıyla yakın çalışıyor ve kurumsal araştırma altyapısından yararlanırken, çalışmalarını üniversite kimliğiyle yayımlıyor. Bu tür düzenlemeler, şirketlerin üniversitelerden araştırmacıları transfer ederek “beyin göçü”ne yol açtığı suçlamalarına karşı kalkan görevi görüyor. Ayrıca şirketlerin ilgi duyduğu soruları yanıtlamak üzere uygulayıcıları kendi saflarına katmalarını sağlarken, akademik disiplinlerin de aynı sorulara organik ve bağımsız biçimde yatırım yaptığı izlenimini yaratıyor.
Bu tür çelişkili düzenlemelerin olağan uygulama sayılmasının nedeni, yapay zekâ araştırmacıları ile üniversitelerin, büyük şirketlere ve onların kontrolündeki kaynaklara duydukları bağımlılığı açıkça görmeleridir. Samsung için çalışan ve aynı zamanda Imperial College London’da görev yapan makine öğrenmesi profesörü Maja Pantic, Financial Times’a verdiği demeçte “Sadece akademide kalarak çalışmaya devam edemezdim; gerekli hesaplama kaynaklarımız yok, bana çalışacak insanlar için maaş ödeyemem ve işlem gücü oluşturacak param da yok” dedi.[9] Pantic ve pek çok meslektaşı, ya böyle bir bağımlılığın örtük koşullarını kabul ederek bir şirketle işbirliği yapmayı ya da itibar ve akademik başarıyla özdeşleştirilen türde araştırmaları hiç yapamamayı seçmek zorunda kalıyor.
Teknoloji sektörünün yapay zekâ araştırmaları üzerindeki etkisinin bu denli derin olması, Soğuk Savaş sırasında ABD ordusunun bilimsel araştırmalar üzerindeki hâkimiyetiyle paralellik gösteriyor. Teknoloji şirketleri de benzer bir taktik kılavuzundan faydalanıyor.
ABD ordusunun akademideki etkisi
1946’da, İkinci Dünya Savaşı’nın hemen ardından, General Dwight D. Eisenhower “Bilimsel ve Teknik Kaynakların Askerî Varlıklar Olarak Değerlendirilmesi” başlıklı bir muhtıra kaleme aldı. Bu metinde Eisenhower, bilim insanlarını ve araştırmacıları askeri planlamaya doğrudan dâhil etmeyi öneriyordu. Ona göre bu strateji, ordunun bilim insanlarıyla güven ilişkisi kurmasını, yeni gelişmeleri ilk elden takip etmesini ve fonlama ile mesleki samimiyet aracılığıyla araştırma gündemini şekillendirerek bilim insanlarının “temel problemlerine” aşina olmasını sağlayacaktı.[10] Muhtıradan üç yıl sonra, 1949’da, ABD Sovyetler Birliği’nin nükleer silah denemeleri yaptığına dair kanıt elde etti. Bu gelişme, Eisenhower’ın planını hayata geçirmeye yardımcı oldu ve araştırmaları finanse edip yönlendirmek üzere askerî kuvvet kolları içinde çeşitli araştırma ofisleri ile kurumlarının kurulmasını hızlandırdı.[11]
Bizim açımızdan asıl önemli olan, bunun ABD ordusuna, bilimsel araştırmanın yönünü ve bu araştırmalara ev sahipliği yapan kurumları şekillendirme gücü vermiş olmasıdır. Bu etki, akademik araştırmaların ABD ordusunun soruları ve kaygıları etrafında şekillenmesini sağlamakla kalmadı; aynı zamanda ihbarcıları cezalandırmak, muhalefeti susturmak ve bilimsel otorite kisvesi altındaki abartılı iddialar karşısında kayıtsızlığı teşvik etmek için de kullanıldı. Tam da bu karanlık tarihlerde, ister askerî ister endüstriyel olsun, ele geçirmenin ağır bedeliyle ve bunun akademik özgürlük ile iktidarı hesap vermeye zorlayabilecek bilgi üretimi üzerindeki tehlikeli sonuçlarıyla yüzleşiyoruz.
Aldric Saucier, ABD ordusunda görevli olan ve dönemin Başkanı Ronald Reagan’ın tartışmalı Stratejik Savunma Girişimi (SDI) projesinde çalışan bir bilim insanıydı. SDI, ülke çapındaki bilim insanlarını balistik bir füze kalkanı kurma çabasına dahil eden devasa bir askerî programdı. Bu öneri hayalîydi ve araştırma topluluğundaki birçok kişi bunu bilimsel temelden yoksun ve nükleer savaş ihtimalini artıracağı gerekçesiyle eleştiriyordu. Saucier, programdaki israfı, dolandırıcılığı ve abartıyı rapor ettiğinde, dönemin Savunma Bakanı Dick Cheney onun işten çıkarılmasını bizzat yürüttü ve bilimsel yetkinliğini kamuoyu önünde itibarsızlaştıran bir kampanyayı yönetti.[12] Ordu tarafından işletilen araştırma laboratuvarlarının dışında da muhalifler tehdit edildi. Üniversitelerdeki bilim insanları, SDI araştırmalarını ve fonlarını boykot etmek için örgütlendi. Buna karşılık, Indiana Milletvekili Dan Burton, profesörlerin SDI ile ilgili hibeleri reddettiği üniversitelerin bütçelerini kesmekle tehdit etti. Bu arada, uzun süredir ABD ordusunun nükleer hedefleriyle müttefik olan Lawrence Livermore Ulusal Laboratuvarı’nın üniversite yönetimi, laboratuvarın silahlanma yarışını körüklemedeki rolünü eleştiren fizikçi Hugh DeWitt’i kurumdan uzaklaştırmaya çalıştı. DeWitt görevini korumayı başarsa da zam ve terfi alamadı, ayrıca ilgi çekici projelerin dışında bırakıldı.[13] Dönemin Savunma Bakanlığı Araştırma ve Mühendislik Müsteşarı Donald Hicks, araştırmacıları alenen sindirecek kadar ileri gitti. Bir röportajda Hicks, profesörlerin “özgür bir ülkede” konuşmakta serbest olduklarını fakat “ağızlarını kapalı tutmakta da özgür olduklarını… Ben de onlara para vermemekte özgürüm,” dedi.[14] The Wall Street Journal, Hicks’i öven bir başyazı yayımladı.
Bugünden geriye baktığımızda, SDI programının kusurları ve tehlikeli mantığı konusunda eleştirmenlerinin büyük ölçüde haklı olduğunu görüyoruz. Ne var ki kanıta dayalı argümanları ve analizleri, akademik özgürlüğe adandığı iddia edilen kurumlar içinde bile onları misilleme, mali baskı ve itibarsızlaştırmadan koruyamadı.
Düzenleyici ve toplumsal baskı artarken...
Yalnızca birkaç büyük teknoloji şirketinin yapay zekâ araştırmaları üzerinde benzer bir nüfuza sahip olması hepimizi endişelendirmelidir; özellikle de düzenleyici ve toplumsal baskı artarken sektörün olumlu bir anlatı inşa etme arzusuna dair artan kanıtlar ve eleştirileri susturup cezalandırma konusundaki açık istekliliği ortadayken.
Örnekler çok: Facebook’un, şirketin 6 Ocak Kongre Baskını’ndaki[15] rolünü inceleyen New York Üniversitesi araştırmacılarının veri erişimini iptal etmesi; Google’ın kurum içi araştırmacılarına bulgularında “olumlu bir ton” kullanmalarını emretmesi[16] ve eşzamanlı olarak dışarıdan “akademik müttefikler” devreye sokarak düzenleyici müdahaleyi sorgulatması;[17] Amazon’un ürünlerindeki ırkçı mantıkları ortaya çıkaran genç Siyah araştırmacılara yönelik asılsız saldırılar yönlendirmesine ve şirketin iklim zararlarına karşı örgütlenen işçilere misilleme yapmasına kadar. Google ayrıca, Timnit Gebru’yu, kendisinin ve ortak yazarlarının, Google’ın ürün yol haritasının temelini oluşturan ve Stanford’ın yakın zamanda yeniden markalaştırıp yeniden değer kazandırdığı LLM’leri eleştiren bir makaleden isimlerini çıkarmalarını talep ettikten sonra işten çıkardı. Liste uzayıp gidiyor; bu da şirketlerin sınırı tam olarak nerede çizdiğine dair sağlam bir barometre sunuyor: büyümelerini ve gelirlerini tehdit eden her türlü araştırma ve muhalefet.
Muhalefeti cezalandırıp tehdit gördükleri araştırmaları küçümsemekle yetinmeyen teknoloji şirketleri, eleştiriyi kendi saflarına çekip etkisizleştirmeye de çalışıyor. Bunu, çoğu “yapay zekâ etiği”ne odaklanan ve teknoloji iktidarı ile hâkimiyetini soyut yönetişim soruları olarak sunarak sektörün mevcut biçimini bir veri, yapay zekânın yayılımını da kaçınılmaz kabul eden kurum ve koalisyonlara maddi destek verip en zayıf eleştirmenlerini parlatarak başarıyorlar. Aynı anda “yapay zekâ önyargı ödülleri” ve adalet yamaları gibi teknokratik çözümleri öne çıkararak, teknoloji kaynaklı ayrımcılığı kötü kod ve “hatalı” mühendislik problemleri şeklinde sahneliyorlar.[18] Bu yaklaşımlar, seçkin mühendisleri “önyargı”nın hakemi konumuna yerleştirirken; bilgisayar bilimi eğitimi almamış olmalarına rağmen, yapay zekânın ırksallaşmış güç asimetrileri ve politik ekonomisine odaklanan ve bu sayede yapay zekâ zararlarını anlamak için hayati önem taşıyan akademisyenleri ve savunucuları yapısal olarak dışlıyor.
Bütün bunlar, büyük yatırımcıların peşine düşen işletmeler gibi yönetilen akademik kurumların, teknoloji ortaklıklarının ve fonlarının sağladığı mali ve itibari avantajları görmezden gelmekte zorlandığı bir zemin üzerinde yaşanıyor. Akademik işlerin giderek daha güvencesiz hale gelmesi ve bu nedenle her geçen gün daha az sayıda akademik çalışanın, akademik özgürlüğü zedeleyebilecek politikalara güvenle karşı çıkmak için gerekli iş güvencesi ya da sendikal dayanışmaya sahip olması bu dinamiği ağırlaştırıyor. Sonuç olarak teknoloji şirketleri, doğrudan finanse ettikleri araştırmaların ötesinde, üniversitede hangi çalışmaların yer alıp hangilerinin dışlanacağına ilişkin kararlarda da giderek artan bir nüfuz elde ediyor.
Yapısal ırkçılık ve eşitsizliği görünür kılan çalışmalara yönelik süren saldırıyı da görmezden gelemeyiz. Aşırı sağ düşünce kuruluşları ve Cumhuriyetçi yetkililer, ırksal adaleti odağında tutan pedagoji ve araştırmaları “eleştirel ırk teorisi” etiketiyle gelişigüzel damgalayarak, eğitim kurumlarına onları ortadan kaldırmaları için baskı yapıyor. Entelektüel özgürlüğe dönük bu saldırı birçok bakımdan önemlidir. Irksal kapitalizm ve yapısal ırkçılığa odaklanan akademik çalışmalar ile hareket pratikleri, teknolojinin toplumsal etkilerini ele alan eleştirel araştırmaların dayandığı yöntem ve çerçevelerin çoğunu sağlamıştır. Böylece teknoloji eleştirisi, yüzeysel “önyargı” tartışmalarını aşarak bu teknolojilerin ırksal dışlanma örüntülerini nasıl yeniden ürettiğini ve yapay zekâyı geliştirmek ile uygulamak için gerekli kıt ve pahalı kaynaklara sahip olanların elinde gücü nasıl yoğunlaştırdığını inceleyebilmiştir. Bu eleştirel hat, teknoloji şirketlerinin aktif olarak direndiği şekillerde, kamuoyu tartışmasını ve küresel düzenleme gündemini şimdiden güçlü biçimde etkilemiştir.
Peki, nasıl bir yol izlenmeli?
İlk adım olarak, teknoloji eleştirisi üreten ya da buna dayanan akademisyenler, savunucular ve politika yapıcılar, teknolojinin ele geçirme, temellük etme ve taviz dinamikleriyle gecikmeden yüzleşmeli ve bunları adlandırmalıdır. Bu, bilgi üretiminin koşullarına yönelik özdüşünümsel eleştirileri ve çıkar sahibi kurumların etkisi altındaki bilgi emekçilerinin karşı karşıya kaldığı ödünleri, pazarlıkları hesaba katmak demektir. Akademik prestij ağlarını şekillendiren mesleki samimiyet siyaseti, akademi ile sektör çalışanları arasındaki sınırları bulanıklaştırdığı için bu süreç rahatsızlık yaratacaktır. Ancak bu dinamikleri adlandırmak, onları ele almanın ve alternatif gelecekleri tasavvur edip talep etmemizi sağlayacak soruları gündeme getirmenin tek yoludur.
Bu, tam da şu anda yapay zekâ araştırmalarının endüstri tarafından ele geçirilmesiyle tehlikeye atılan türden bir müdahaledir. Peki, bu tür eleştirel çalışmaları nasıl destekleyebilir ve bunu hem akademi içinde hem de dışında yapanları nasıl koruyabiliriz?
Burada, son beş yılda sektör genelinde kayda değer ilerlemeler kaydeden örgütlü teknoloji işçileriyle, işgücü piyasası çökerken bile eşitsizliği ayakta tutan “bireysel deha” miti altında örgütlenen akademi emekçilerinin kritik rolüne dönüyoruz. Akademi emekçilerinin mesleğin güvencesizliğine karşı yürüttüğü mücadele, aynı zamanda akademik özgürlük mücadelesidir. Daha istikrarlı kariyer olanakları ve üniversite üzerinde daha demokratik bir denetim, güç dengelerini zengin bağışçılar ile büyük endüstri patronlarından uzaklaştıracaktır. Örgütlü teknoloji işçileri ise sektörlerinin gücünü içeriden sınırlamak, yaptıkları iş üzerinde daha fazla söz sahibi olmak ve işverenlerinin akademi ve ötesindeki nüfuzunu törpülemek gibi bir göreve sahiptir. Bu bağlamda, örgütlü araştırmacıların ve bilim insanlarının, şu anda ulusal yapay zekâ araştırma altyapısını destekleyen cömert ABD kongre ödeneklerinin yeniden yönlendirilmesini talep etmelerini, bunun yerine uzmanlıklarını ve konumlarını kullanarak, gerçek anlamda kamuya açık ve erişilebilir üniversiteleri, işçi okullarını ve yaşanmış deneyime sahip toplulukları öğrenenler ve teknolojiyi sorgulayan uzmanlar panteonuna entegre eden programları desteklemek için bağış talep etmelerini hayal edebiliriz.[19] Ne var ki, teknoloji endüstrisi yalnızca NSCAI gibi Kongre tarafından atanan konseyler aracılığıyla politika yazmakla kalmıyor, aynı zamanda lobi faaliyetleri için büyük petrol ve büyük tütünü geride bırakacak ölçüde harcama yapıyor. Dolayısıyla, böylesi bir müdahale ciddi ve örgütlü bir mücadeleyi zorunlu kılacaktır.
ABD Kongresi’nin gerçekten demokratik ve bağımsız eleştirel çalışmaları cömertçe destekleyeceği bir gelecek şimdilik ufukta görünmüyor. Yine de akademide ve teknoloji işyerlerinde örgütlenmek; kurumsal baskı karşısında birbirimizi savunmaya hazırlanarak ve zorlayıcı ele geçirme dinamiklerini güvenle teşhir edebilmemizi sağlayacak özen ile karşılıklı sorumluluk reflekslerimizi güçlendirerek, kısa vadede hem kendimizi hem de kamu yararını korumamıza yardımcı olabilir. Bu elbette kolay olmayacak; teknoloji ve akademi ortamlarında derin izler bırakan rekabet ve alan kapma kültürleriyle yüzleşmeyi gerektirecek. Fakat riskler son derece yüksek ve yapay zekâ ile onu yönlendiren endüstri hakkında neyi bilip bilmediğimizi şekillendirmeye çalışanlar son derece örgütlü ve devasa kaynaklara sahip. Kısacası bu, salt fikirlerin yarıştığı bir alan değil, doğrudan bir güç mücadelesidir; strateji ve dayanışma olmadan haklı olmak bizi korumaya yetmeyecektir.
Dipnotlar:
[1] Krizhevsky, A., Sutskever, I. ve Hinton, G.E. ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems 25 (NIPS 2012); https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf
[2] Murgia, M. AI academics under pressure to do commercial research. Financial Times. 13 Mart 2019; https://www.ft.com/content/94e86cd0-44b6-11e9-a965-23d669740bfb
[3] Matias, J.N. Why we need industry-independent research on tech & society. Citizens and Tech Lab. Ocak 2020; https://citizensandtech.org/2020/01/industry-independent-research/
[4] Bommasani, R. vd. On the opportunities and risks of foundation models. 2021; arXiv preprint arXiv:2108.07258
[5] Bender, E.M., Gebru, T., McMillan-Major, A. ve Shmitchell, S. On the dangers of stochastic parrots: Can language models be too big? Proc. of the 2021 ACM Conference on Fairness, Accountability, and Transparency. ACM, New York, 2021, 610-623; https://dl.acm.org/doi/10.1145/3442188.3445922
[6] Bommasani, R. vd. On the opportunities and risks of foundation models. 2021; arXiv preprint arXiv:2108.07258
[7] https://www.congress.gov/116/bills/hr6395/BILLS-116hr6395enr.pdf
[8] https://www.nsf.gov/funding/pgm_summ.jsp?pims_id=505651
[9] Murgia, M. AI academics under pressure to do commercial research. Financial Times. 13 Mart 2019; https://www.ft.com/content/94e86cd0-44b6-11e9-a965-23d669740bfb
[10] Melman, S. Pentagon Capitalism: The Political Economy of War. McGraw-Hill, New York, 1970.
[11] Krinsky, R. Swords ve sheepskins: Militarization of higher education in the United States and prospects of its conversion. Bulletin of Peace Proposals 19, 1 (1988), 33-51; http://www.jstor.org/stable/44481371
[12] Lardner, Jr., G. Army accuses SDI critic of falsifying credentials. Washington Post. 14 Nisan 1992; https://www.washingtonpost.com/archive/politics/1992/04/14/army-accuses-sdi-critic-offalsifying-credentials/13ffe75f-50f8-4654-9027-536c30880c13/
[13] Martin, B. Science: contemporary censorship. Censorship: A World Encyclopedia, Vol 4. içinde, D. Jones, ed. Fitzroy Dearborn, Londra, 2001, 2167–2170; https://documents.uow.edu.au/~bmartin/pubs/01cescience.html
[14] Hiatt, F. Official seeks like minds in ‘Star Wars’. Washington Post. 13 Mayıs 1986; https://www.washingtonpost.com/archive/politics/1986/05/13/official-seeks-like-minds-in-starwars/28ddbdc0-d55f-4cac-a742-b17176e6adcf/
[15] 6 Ocak 2021 tarihinde, dönemin ABD Başkanı Donald Trump’ın destekçilerinin, Joe Biden’ın kazandığı 2020 başkanlık seçimi sonuçlarının onaylandığı Kongre oturumunu engellemek amacıyla Washington, D.C.’deki Kongre Binası’na düzenlediği baskın (ç.n.).
[16] Dave, P. ve Dastin, J. Google told its scientists to ‘strike a positive tone’ in AI research – documents. Reuters. 23 Aralık 2020; https://www.reuters.com/article/us-alphabet-google-research-focus/google-told-its-scientists-to-strike-a-positive-tone-in-ai-researchdocuments-idUSKBN28X1CB
[17] Satariano, A. ve Stevis-Gridneff, M. Big tech turns its lobbyists loose on Europe, alarming regulators. New York Times. 14 Aralık 2020; https://www.nytimes.com/2020/12/14/technology/bigtech-lobbying-europe.html
[18] Vanian, J. Why Microsoft ve Twitter are turning to bug bounties to fix their A.I. Fortune. 10 Ağustos 2021; https://fortune.com/2021/08/10/why-microsoft-and-twitter-are-turning-to-bugbounties-to-fix-their-a-i/
[19] Özellikle Lilly Irani ve Nandina Vgontzas’a, bu noktaları belirlememde bana gösterdikleri özen ve entelektüel cömertlik için teşekkür etmek istiyorum.
(DS/VC)


