Yapay Zekânın Politik İnşası serimizin bu bölümünde, Timnit Gebru ve Emily Bender gibi önemli isimlerin de katkıda bulunduğu “Dağıtık Yapay Zekâ Araştırma Enstitüsü” (Distributed AI Research - DAIR) ekibinden Alex Hanna ile gerçekleştirdiğimiz söyleşiyi paylaşıyoruz.
Sosyolog ve yapay zekâ araştırmacısı olan Hanna, Google’daki etik yapay zekâ ekibinden ayrıldıktan sonra katıldığı DAIR’de, veri sömürüsü, toplumsal önyargılar, çevresel etkiler ve kurumsal tekele karşı eleştirel bir yapay zekâ yaklaşımının geliştirilmesi için çalışmalar yürütüyor. Kendisi, aynı zamanda DAIR bünyesinde katılımcı ve dağıtık araştırma modellerini savunarak, yapay zekânın toplumsal faydayı merkeze alan bir biçimde inşa edilmesine katkıda bulunuyor.
Alex Hanna’nın yapay zekânın “balon” niteliği, büyük teknoloji şirketlerinin veri tekelleşmesi, akademik bağımsızlığı tehdit eden finansman politikaları ve emek sömürüsünün yeni biçimleri hakkındaki görüşlerini bulacağınız söyleşide, DAIR gibi bağımsız inisiyatiflerin ne tür alternatifler sunduğunu ve daha adil, katılımcı ve şeffaf bir teknoloji anlayışının nasıl şekillenebileceğini de ele alıyoruz. Hanna, yapay zekâ alanına dair eleştirel görüşlerinin yanı sıra, “Yapay zekâya gerçekten ihtiyacımız var mı?” sorusuna da dikkat çekici bir yanıt veriyor.
Yapay Zekânın Politik İnşası
13 Ocak 2025
“Bu dalga fazlasıyla abartılmış durumda”
Sizce “yapay zekâ” kavramı sadece bir abartı veya balon mu?
Yapay zekâ aslında tutarlı bir teknoloji bütünü değil, ancak şu anda “yapay zekâ” adı altında popüler olan dalga, metinden metin üreten büyük dil modelleri ve metinden görüntü üreten difüzyon modelleri gibi “üretken yapay zekâ” etrafında yoğunlaşıyor. Bu dalga hem fazlasıyla abartılmış durumda hem de bir balon niteliği taşıyor.
Abartı, beklentileri çok yüksek tutup sonrasında bunları karşılamayan teknolojilerin etrafında oluşuyor. Ayrıca bunun bir balon olmasının nedeni, yapay zekâya devasa miktarda sermaye aktarılmış olmasına rağmen sonuçların oldukça sınırlı kalması. Hatta Sequoia Capital gibi risk sermayedarları bile, yapay zekâ teknolojilerinin bu yatırımı haklı çıkarması için yaklaşık 600 milyar dolar gelir elde etmesi gerektiğini kabul ediyor.
Büyük dil modellerini “istatistiksel tekrar mekanizmaları” olarak tanımlayan eleştirel görüşler, bu sistemlerin gerçek bir kavrayış veya içgörü sağlamadığını öne sürüyor. Yapay zekâya “derin anlama” atfetmek, kullanıcıların ne tür yanılgılara kapılmalarına yol açabilir ve bu yanılsamanın ne gibi toplumsal ve siyasal sonuçları olabilir?
Bu ifade çok yerinde, çünkü modellerin eğitim verilerindeki içeriği farklı biçimlerde tekrarladığını net bir şekilde ortaya koyuyor. Bu modellerin hiçbir benlik algısı yok ve dünyayı gerçek anlamda “anladıkları” söylenemez. Onlara anlama yetisi atfetmek, insan gibi davrandıkları ve önemli toplumsal ve siyasi yapılanmalarda gerçek insanların yerini alabilecekleri yanılgısına yol açıyor - ki bu, hakikatten son derece uzak.
Veri ve hesaplama gücünün merkezîleştirilmesi
Büyük teknoloji şirketlerinin devasa veri toplama ve işleme politikaları, yapay zekâ alanında nasıl bir güç asimetrisi yaratıyor? Kâr odaklı yapay zekâ anlatılarıyla birleşen veri tekelleşmesi, küresel ölçekteki fırsat eşitsizliklerini ve güç dengesizliklerini hangi yollarla derinleştiriyor?
Bu teknolojilerin etkili olabilmesi için çok büyük miktarda hesaplama gücü ve veriye ihtiyaç duyuluyor. Dolayısıyla, bunu gerçekleştirebilecek kurumlar çoğunlukla büyük teknoloji şirketleri veya bu verileri toplayıp devasa hesaplama kaynaklarıyla eğitme konusunda uzmanlaşmış şirketler oluyor.
OpenAI ve Anthropic gibi şirketlerin birçoğu, Microsoft, Google ve Amazon gibi şirketlerin sağladığı hesaplama gücüyle destekleniyorlar. Yapay zekâ araçları her zaman arzu edilen çözümler olmasa da, veri ve hesaplama gücünün merkezîleştirilmesi, zaten az sayıda firmanın elinde toplanmış olan bilişim kaynaklarının yol açtığı sorunları daha da derinleştiriyor.
Geniş veri kümeleriyle eğitilen yapay zekâ modelleri, toplumsal önyargıları ve ayrımcı örüntüleri hangi yollarla yeniden üretebilir?
Yapay zekâ modelleri, ırkçılık, cinsiyetçilik, sömürgeci bakış açıları ve diğer ayrımcılık biçimleri dahil olmak üzere internetin sunduğu her şeyi kullanarak eğitiliyor. Çıktıları belirli ölçüde düzeltmeye yönelik bazı yöntemler bulunsa da, şirketler veri temizliği konusunda vakit ayırmıyor veya veri setlerinin tam olarak ne içerdiğini bile bilmiyor. Bu nedenle söz konusu önyargılar, metinlerde, görsellerde ve videolarda tekrar tekrar üretilebiliyor.
“Birçok model, ihtiyacı olan veri formatına sahip değil”
Yapay zekâ ve algoritmalar, insan emeğini hangi mekanizmalarla sömürüyor ve bu emek alanında ne tür dönüşümlere yol açıyor? (Örneğin otomasyon kaynaklı iş kayıpları, “gig ekonomisi”nde güvencesiz çalışma vb.)
Öncelikle, yapay zekânın işler hâle gelebilmesi için muazzam miktarda emek gerekiyor. Bu modellerden çıkabilecek her türlü zararlı içeriği etiketlemek, filtrelemek ve ayıklamak için devasa miktarda emeğe ihtiyaç duyuluyor. Ayrıca birçok model, ihtiyacı olan veri formatına baştan sahip değil. “Veri emeği” olarak adlandırılan bu iş, daha fazla şirket daha fazla model geliştirdikçe giderek daha belirgin hâle geliyor.
Buna ek olarak, işverenler ofis çalışanlarının ve yaratıcı çalışanların yaptığı işin büyük ölçüde sentetik medya tarafından otomatikleştirilebileceğini düşündükleri için, bu araçlarla çalışanları değiştirmek için sabırsızlanıyor. Örneğin Bill Gates, gelecekte doktorlara ve öğretmenlere ihtiyaç kalmayacağını, çünkü bu mesleklerin yerini modellerin alacağını düşünüyor. Oysa gerçekte, özellikle doktorluk ve öğretmenlik gibi önemli sosyal becerileri gerektiren işleri bu araçların tam anlamıyla ikame etmesi mümkün değil. Buna rağmen, birçok kurum “bu işin artık otomasyona geçirilebileceğini” öne sürüp çalışanlarını işten çıkarmaya başladı. Nitekim grafik tasarım ve video oyunu tasarımı gibi sektörlerde, tam zamanlı çalışanların işlerine son verilip, onları “gig” çalışanı olarak tekrar işe alma eğilimine çoktan tanık oluyoruz.
Veri toplama ve işleme süreçlerinde, düşük ücretli, güvencesiz ve genellikle görünmez kılınan emek biçimlerine giderek daha fazla başvurulduğu belirtiliyor. Bu yapı, emeğin değersizleştirilmesini nasıl pekiştiriyor ve daha adil bir model nasıl kurulabilir?
Bu konuya, daha önce veri işçileriyle ilgili soruda değinmiştim. Ancak özellikle sorunun ikinci kısmına değinmek istiyorum. Bu işçilere sektör genelinde uygun koşullar sağlanırsa -yeterli ücret, düzenli molalar ve ruh sağlığı hizmetleri gibi- bu işin en kötü yanlarının önüne geçmek mümkün olabilirdi. Fakat aynı zamanda, bu işin küresel giyim, kahve ve çikolata üretimi alanlarında gördüğümüz benzer örüntü türlerini izlediğini de unutmamak gerekiyor.

“Hesap verebilirliği sağlayacak mekanizmalar yetersiz”
Büyük teknoloji şirketlerinin yapay zekâ araştırmalarının finansmanına hâkim olması, akademik bağımsızlığı hangi açılardan tehdit ediyor? Araştırma gündeminin ticari çıkarlara göre şekillenmesi uzun vadede ne tür riskler doğuruyor ve bu duruma karşı hangi önlemler alınabilir?
Büyük teknoloji şirketleri, özellikle bilgisayar bilimi ve yapay zekâ araştırmaları alanında, akademi ile özel sektör arasındaki geçişin yoğun yaşandığı bir yapıya dönüşmüş durumda. Bu alanda çalışan akademisyenler, büyük ölçekli endüstri hibeleri alıyor; hem teknoloji şirketlerinin laboratuvarlarında zaman geçiriyor hem de mezun öğrencilerini buralara yönlendiriyor. Bilgisayar bilimi ve yapay zekâ araştırmaları, büyük teknoloji şirketlerinden fon alan popüler derin öğrenme yaklaşımlarının egemenliğine girmiş durumda. Böylece, daha az popüler görülen ve yeterince desteklenmeyen diğer araştırma türleri zarar görüyor.
Uzun vadede, bilgisayar bilimi içinde farklı araştırma soruları ve paradigmalar göz ardı edilebiliyor. Yapay zekâ alanı teorik olarak zayıf temellendirilmiş olsa da, bu modelleri giderek daha fazla veriyle beslemek baskın paradigma hâline gelmiş durumda. Fon kaynaklarına dair şeffaflık elbette yardımcı olabilir; ancak hesap verebilirliği sağlayacak mekanizmalar oldukça yetersiz. Alternatif fonlama yöntemleri de destekleyici olabilir, fakat büyük teknoloji şirketleriyle rekabet etmek son derece güç.
Şirketlerin, ürettikleri modellerin nasıl eğitildiğine ve nasıl çalıştığına dair şeffaf olmaması büyük bir endişe kaynağı. Şeffaflık ve hesap verebilirliği artırmak bu sorunları ne ölçüde çözebilir, yoksa daha yapısal düzenlemelere mi ihtiyaç var?
Şeffaflık en alt düzeyde bir gereklilik ama asla yeterli değil. Veri şeffaflığı konusunda çok daha güçlü düzenlemelere ihtiyacımız var; ancak bununla birlikte, şirketler düzenlemeleri ihlal ettiğinde kolektiflerin harekete geçebilme yetisine de sahip olması gerekiyor.
“Asıl ihtiyaç, insanların yararına çalışan bir teknoloji”
DAIR gibi bağımsız ve dağıtık yapay zekâ araştırma inisiyatifleri, farklı coğrafyalardan ve disiplinlerden gelen uzmanların işbirliği yapmasına imkân tanıyor. Bu yaklaşım, yapay zekâ çalışmalarını hangi açılardan zenginleştiriyor ve büyük şirketlerin tekelleşmesine karşı ne tür alternatifler sunuyor?
DAIR, büyük teknoloji şirketlerinin etkisinden bağımsız olarak, toplulukların kendileri için önemli olan soruları araştırabildiği bir kurum olmayı amaçlıyor. Te Hiku Media gibi bazı başka kurumlar ise topluluklarının veri egemenliğini ve hesaplama araçları üzerindeki kontrolünü güvence altına almak ve aynı zamanda bu topluluklara karşı hesap verebilir olmak için çalışıyor.
Veri sömürüsüne, çevresel yıkıma, toplumsal önyargılara ve kurumsal tekele odaklanan eleştirel yaklaşımlar, daha adil ve sorumlu bir yapay zekâ geliştirmenin yollarını araştırıyor. Bu çerçevede tasarım ilkeleri, düzenlemeler ve yönetişim modelleri nasıl şekillenmeli? Tüm bu konuştuklarımızın ardından, sizce “başka bir yapay zekâ” mümkün mü?
“Yapay zekâ”ya ihtiyacımız olduğunu düşünmüyorum. Asıl ihtiyacımız olan, şirket çıkarlarına ve onların otoriter eğilimlerine hizmet etmeyen, insanların yararına çalışan bir teknoloji. İlkeler, düzenleme ve yönetişim özellikle teknolojinin geliştirme süreçlerinin dışında bırakılan insanların da dâhil olabileceği daha geniş bir katılım temelinde örgütlenmeli.
(DS/VC)