Duke University Reporters’ Lab verilerine göre, dünya genelinde aktif olarak doğruluk kontrolü yapan 443 platform bulunmaktadır (Duke Reporters’ Lab, 2025). Bu kuruluşlar, dezenformasyon ile mücadelede önemli bir rol üstlenmekte; ancak görünürlükleri ve etkileri büyük ölçüde dijital platformların tercihleri doğrultusunda belirlenmektedir. Meta 2016 yılında, Amerika Birleşik Devletleri başkanlık seçimleri sonrasında Facebook’ta yayılan doğru olmayan haberler nedeniyle, üçüncü taraf doğrulama programını başlattı (Facebook Newsroom, 2016). Böylece yanlış bilginin yayılımını önlemek amacıyla, IFCN (International Fact-Checking Network) imzacısı doğrulama kuruluşları ile işbirliği yapmaya başlayan Meta, eşik bekçiliği görevini doğruluk kontrolü yapan bağımsız kuruluşlara bırakmış oldu. 2018 yılında Cambridge Analytica skandalının ortaya çıkması ile birlikte üçüncü taraf doğrulama programı kamuoyuna güven tazelemenin bir aracı olarak daha da önem kazandı. 2019 Aralık ayında ise, yeni bir politika güncellemesi yapan Meta, Instagram özelinde üçüncü taraf doğrulama programını küresel ölçekte başlattı.
Fakat sekiz sene sonra, 7 Ocak 2025’te Meta’nın Amerika Birleşik Devletleri’nden başlayarak üçüncü taraf doğrulama programını sona erdireceğini açıklaması dünya gündemine oturdu. Mark Zuckerberg, X gibi Facebook’un da algoritmalar ve topluluk temelli sistemler üzerinden doğruluk kontrolü yapacağını söyledi (Kaplan, 2025). Gerekçe olarak Donald Trump’ın tekrar başkan olarak seçildiği 2024 yılı başkanlık seçimleri sırasında doğruluk kontrolü yapan kuruluşların taraflı olabildiğine dair görüşlerini dile getirdi. Fakat hem X’in CEO’su Elon Musk hem de Meta’nın CEO’su Mark Zuckerberg’ün tarafsızlık vurgusu aslında platformların taraflılığına dair kaygıları ön plana çıkardı.
X’in topluluk notları sistemi (community notes) ve Meta’nın üçüncü taraf doğrulama programını sona erdirerek algoritmik ve topluluk temelli yaklaşımlara yönelmesi, bağımsız doğruluk kontrolü yapan kuruluşlara duyulan güveni zayıflattı. Meta’nın fonları kesmesiyle, bağımsız bir gelir modeli geliştirmemiş olan doğruluk kontrolü yapan kuruluşların finansal olarak sürdürülebilirlikleri tehlikeye atıldı.

“Dijital Medya Okuryazarlığı” yazı dizisi başlıyor
Topluluk temelli doğrulama nedir?
Topluluk temelli doğrulama, dijital platformların profesyonel doğruluk kontrolü yapan uzmanlardan uzaklaşarak kullanıcı katkılarına dayalı yeni bir denetim modeline yönelmesidir. X (eski Twitter), bu yaklaşımı ilk olarak 2021 yılında “Birdwatch” adıyla başlatmış, 2022’de ise Elon Musk’ın platformu devralmasının ardından “Community Notes” adı altında yeniden yapılandırmıştır (Twitter Blog, 2021, X, 2021). Ancak topluluk notları; topluluk üyelerinin (community member) yerel bağlam konusunda yetersiz olması, dilsel çeşitlilik konusundaki kısıt, uzmanlık gerektiren içeriklerde topluluk üyelerinin bilgilerinin yetersizliği gibi çeşitli nedenlerle eleştirilmektedir. Neticede topluluk üyeleri paltform tarafından belirlenen kimselerdir ve platformda dolaşan yanlış olduğu düşünülen ya da nefret söylemi içerdiği düşünülen içerikler ile ilgili görüş bildirmeleri beklenmektedir. Burada topluluk üyelerinin politik taraflılığı da göz önünde bulundurulmalıdır. Meta da benzer şekilde algoritmik sıralama, kullanıcı bildirimleri ve yapay zekâ destekli analiz modellerine dayalı, daha az şeffaf bir topluluk modeli geliştirmiştir (AP News, 2025). Özetle topluluk temelli doğrulama sistemleri, bilgiye erişim konusunda eşitsizlik yaratmakta, kullanıcı kimliği, politik eğilim ve platform içi görünürlük gibi faktörler, hangi yorumların öne çıkacağını belirleyebilmektedir. Bu sistemlerin ne kadar şeffaf, kapsayıcı veya hesap verebilir olduğu tartışmalıdır.
Dijital kapitalizmden platform kapitalizmine gerçekliğin ticarileşmesi
İnternetin küresel iletişim altyapısı üzerinden neoliberal ekonomik yapılarla nasıl bütünleştiğini açıklamak için kullanılan dijital kapitalizm kavramı, Dan Schiller tarafından 1999 yılında ortaya atılmıştır (Schiller, 1999). Bu yaklaşımın devamı niteliğinde olan platform kapitalizmi ise kullanıcı verisini ekonomik değere çeviren dijital sistemlerin egemenliğini tanımlamak için kullanılan bir kavramdır (Srnicek, 2017). Platformlarda bir içeriğin görünürlüğü, onun bir meta olarak ekonomik değerini belirler. İçeriğin daha çok etkileşim getirmesi, onun daha fazla öne çıkarılması anlamına gelir. Bu da doğru içerikler yerine dikkat çekici veya tartışmalı içeriklerin önceliklendirilmesine neden olmaktadır. Yanıltıcı içeriklerin dijital mecralarda doğru bilgilere kıyasla daha hızlı ve yaygın biçimde yayıldığını ortaya koyan araştırmalar mevcuttur. Bu durum, yanlış bilgilerin şaşırtıcı ve duygusal olarak tetikleyici yapısından kaynaklanmakta ve algoritmaların etkileşim rakamları yüksek olan bu içerikleri öne çıkarıp görünür hale getirmesiyle sonuçlanmaktadır (Vosoughi, Roy & Aral, 2018).
Özetle, bağımsız doğrulama kuruluşlarının veya haber medyalarının ürettiği nitelikli içeriklerin algoritmalar tarafından geri plana itilmesi, platformların ekonomik çıkarlarının kamusal faydanın önüne geçtiğini göstermektedir. Platform kapitalizmi bilginin doğruluğundan çok, dolaşıma giren içeriğin etkileşim rakamlarının yani görünürlüğünün önem kazanmasına neden olmaktadır.
Algoritmalar kimin tarafında?
Sosyal medya platformlarında bir içeriğin görünür olup olmayacağı, kullanıcı etkileşimi, tıklama oranı ve platformda geçirilen süre gibi ekonomik ölçütlerle belirlenmektedir. Ancak bu ölçütler yalnızca teknik değil; aynı zamanda kültürel ve ideolojik değerlerle de şekillenmektedir.
Algoritmik önyargılara dair tartışmalar, 2000’li yılların başında Google’ın sunduğu kişiselleştirilmiş arama motorlarına kadar uzanır. Cass Sunstein (2009), Republic.com 2.0 adlı kitabında, kullanıcıların kendilerini her gün tekrar okuduklarını belirtmekte ve kullanıcıların yalnızca benzer düşüncedeki kişilerle etkileşime geçmesini sağlayan algoritmaların demokrasiyi tehdit ettiğini öne sürmektedir. Eli Pariser (2011) ise bu durumu “filtre balonu” kavramı ile açıklamış; bireylerin yalnızca kendi görüşlerine uygun içeriklerle karşılaşmasının dijital çeşitliliği ve toplumsal diyaloğu daralttığını savunmuştur. Gillespie (2014), algoritmaların yalnızca teknik sistemler değil, aynı zamanda kültürel yapılar olduğunu ve bu nedenle içerik sıralamalarında belirli değerleri ve önyargıları yansıttığını vurgulamaktadır. Bu argümanlara dayanarak, algoritmaların bilgiye erişimi tarafsız biçimde yönlendirmediği; aksine, dikkat ekonomisine hizmet eden politik bir filtreleme sistemi oluşturduğu anlaşılmaktadır.
Örneğin Google’ın News ve Discover algoritmalarında yaptığı değişiklikler, Türkiye’deki bağımsız haber sitelerinin ziyaretçi trafiğini %70–90 oranında düşürdü. Bu durum, reklam gelirlerini doğrudan etkiledi ve Gazete Duvar, ziyaretçi kaybı nedeniyle 12 Mart 2025’te faaliyetlerini sonlandırmak zorunda kaldı. Google’ın algoritmalardaki şeffaf olmayan güncellemeleri sadece bağımsız medyanın gelirlerini değil, aynı zamanda halkın nitelikli habere yani gerçeğe erişimini de engelliyor (Bianet, 2025;T24, 2025).
Bunun yanı sıra, yapay zekâ modellerinin içerik üretiminde ve dağıtımında artan rolü, telif hakkı tartışmalarını da gündeme getiriyor. Özellikle haber içeriklerinin izinsiz kullanımı ya da yapay zekâ tarafından özetlenerek yeniden sunulması, yaratıcı emeğin görünmezleşmesine neden oluyor. Örneğin, Perplexity AI gibi yapay zekâ destekli arama motorları, ya da GPT, Gemini, DeepSeek gibi geniş dil modelleri haber sitelerindeki içerikleri özetleyerek kullanıcılara doğrudan bilgi sunuyor. Kullanıcı orijinal kaynağı ziyaret etmeden içeriği tükettiği için bu durum özellikle haber medyası açısından telif hakkı ihlali ve maddi kayıp riski yaratıyor. Öte yandan algoritmalar, hangi içeriğin görünür olacağına karar verirken bu üretimlerin telif haklarına ya da etik ilkelerine değil, genellikle kullanıcı etkileşimi gibi ticari önceliklere göre hareket ediyor. Bu durum algoritmik şeffaflık ve telif hakkı reformlarının dijital çağda yeniden ele alınmasını zorunlu kılmaktadır.
Özetle algoritmalar, makina öğrenimi ve yapay zekâ temelli masum kodlar değil, dijital enformasyon akışını şekillendiren, kimi içerikleri görünür kılıp kimilerini gizleyen ideolojik aygıtlardır (Erbaysal Filibeli, 2019).
Veri taraflıysa, gerçeklik nasıl mümkün olur?
YouTube’un öneri algoritmasının zamanla kullanıcıları daha aşırı içeriklere yönlendirdiği çok sayıda araştırmacı tarafından tartışılmıştır (Tüfekçi, 2014; Tüfekçi, 2018; Marwick & Lewis, 2017). Bu noktada çok izlenen bir videonun daha çok izlenmesini sağlayan yapay zeka temelli algortmaların etkileri görülmektedir. Yapay zekâ sistemleri, geçmiş verilerle eğitildiği için bu verilerdeki önyargıları yeniden üremektedir. Safiya Noble (2018), algoritmaların toplumsal eşitsizlikleri pekiştirebileceğini ve ırkçılığı güçlendirdiğini arama motroları üzerinden açıklamıştır. Dolayısıyla algoritmalar özelinde eğitim verisi taraflıysa sonuçların da taraflı olacağı bilinmektedir.
Buradan hareketle değinmemiz gereken bir diğer konu ise geniş dil modelleri ve veri ilişkisidir. Geniş dil modelleri (LLM) olarak adlandırılan üretken yapay zekâ sistemleri, beslendikleri veri setlerinin taraflı yapısı nedeniyle taraflı içerikler üretebilmektedir. Bu durum, OpenAI tarafından geliştirilen ChatGPT, Google’ın Gemini’i ve DeepSeek gibi modellerin kullanıcı sözleşmelerinde belirtilmektedir. Örneğin, ChatGPT’nin kullanım kılavuzlarında, modelin eğitildiği verilerdeki önyargıların farkında olunması gerektiği ve çıktılarının otomatik olarak doğru kabul edilmemesi gerektiği vurgulanır (OpenAI, 2024).
Bu bağlamda, taraflı veri setleriyle eğitilmiş modellerin, gerçekte var olmayan ya da veri tabanında yer almayan içerikleri üretmesi mümkündür. Bu tür durumlar, literatürde ‘halüsinasyon’ olarak tanımlanmakta ve yapay zekâ sistemlerinin yanlış, uydurma ya da hatalı bilgi üretmesine işaret etmektedir. Halüsinasyonlar, yalnızca bireysel düzeyde kullanıcıları yanıltmakla kalmaz. Kullanıcıların bu tür hatalı veya taraflı içerikleri fark edecek düzeyde dijital medya okuryazarlığına sahip olmaması, bu içeriklerin tekrar dolaşıma girmesine neden olmakta; böylece doğru olmayan enformasyonun yeniden üretilmesi ve yaygınlaşması gibi ciddi sorunlar ortaya çıkmaktadır.
Bu nedenle, eğitim verisinin taraflı olduğu ve sistematik önyargılar içerdiği bir ortamda, algoritmalar ya da yapay zekâ sistemleri aracılığıyla doğrulama yapmak, güvenilir sonuçlar üretmek açısından ciddi sınırlılıklar barındırmaktadır.
Avrupa Birliği “Dijital Hizmetler Yasası” ve “Yapay Zeka Yasası”
Avrupa Birliği dijital platformlara karşı yurttaş haklarını korumak ve dijital alanda daha güvenli bir ekosistem oluşturmak amacıyla Dijital Hizmetler Yasası (Digital Services Act - DSA) ve Yapay Zekâ Yasası (AI Act) gibi kapsamlı düzenlemeler geliştirmiştir. DSA, özellikle çok büyük çevrimiçi platformların (VLOP-Very Large Online Platforms) algoritmik sistemlerini daha şeffaf hale getirmesini, risk değerlendirmeleri yapmasını ve kullanıcıların içerik sıralama sistemleri üzerinde daha fazla kontrol sahibi olmasını zorunlu kılmaktadır (European Commission, 2022). AI Act ise yapay zekâ sistemlerini kullanım amaçlarına göre farklı risk kategorilerine ayırmakta ve özellikle ‘yüksek riskli’ uygulamaların insan gözetimine tabi tutulmasını şart koşmaktadır. Bu düzenlemeler, yalnızca Avrupa sınırları içinde geçerli olmakla kalmayıp, küresel teknoloji firmalarının da bu yasal çerçevelere uyum sağlamasını zorunlu kılmaktadır. Özellikle sosyal medya platformları ile geniş dil modeli (LLM) geliştiren şirketlerin, kullanıcı haklarını gözeten ve algoritmik şeffaflığı önceleyen bu yeni normlara uyum göstermesi beklenmektedir.
Sonuç: Gerçeği aramak bir kamusal sorumluluktur!
Gerçekliğin algoritmalar tarafından belirlendiği bir çağda, kullanıcıların daha şeffaf, daha adil ve daha hesap verebilir dijital ekosistemler talep etmesi kaçınılmazdır. Doğruluk kontrolü sadece teknik bir süreç değil; dijital demokrasinin temelidir. Algoritmalar tarafsız değil, veri seçimleri ile gerçekliği şekillendiren ideolojik yapılardır.
Bu nedenle dijital medya okuryazarlığı, algoritmik okuryazarlıkla tamamlanmalı; kullanıcılar sadece içerik değil, içerik üretim ve dağıtım yapıları konusunda da bilinçlendirilmelidir. Dijital çağda gerçeği aramak kamusal bir sorumluluktur!
Kaynakça
- bianet. (2025, Mart 13). Bağımsız medya Google’ı protesto ediyor.
- European Commission. (2022, October 19). The Digital Services Act. Digital Strategy.
- European Commission. (2024, August 1). Artificial Intelligence Act. Digital Strategy.
- Filibeli, T. (2019). Big Data, Artificial Intelligence, and Machine Learning Algorithms: A Descriptive Analysis of the Digital Threats in the Post-truth Era. Galatasaray Üniversitesi İletişim Dergisi, 31, 91-110.
- Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie et al. (Eds.), Media Technologies. MIT Press.
- Marwick, A., & Lewis, R. (2017). Media manipulation and disinformation online. Data & Society.
- Noble, S. U. (2018). Algorithms of oppression. NYU Press.
- OpenAI. (n.d.). Is ChatGPT biased? OpenAI Help Center.
- Pariser, E. (2011). The filter bubble: What the internet is hiding from you. Penguin Press.
- Schiller, D. (1999). Digital capitalism: Networking the global market system. The MIT Press.
- Srnicek, N. (2017). Platform Capitalism. Polity Press.
- Sunstein, C. R. (2009). Republic.com 2.0. Princeton University Press.
- T24. (2025, Mart 14). Google algoritması haber sitelerini nasıl etkiliyor? İşte grafikler...
- Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7).
- Tufekci, Z. (2018, March 10). YouTube, the great radicalizer. The New York Times.
- Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science.
Dijital Medya Okuryazarlığı
- Dijital medya okuryazarlığının temel kavramları ve kuramsal çerçeve – Yasemin Giritli İnceoğlu (18 Haziran 2025)
- Algoritmik taraflılık: Platform kapitalizmi, veri ve gerçeklik - Tirşe Erbaysal Filibeli (2 Temmuz 2025)
- Dijital çağda 'doğru' bilgiye nasıl yaklaşılır? - Koray Kaplıca (16 Temmuz 2025)
- Dijital medyada gazetecilerin hak ve yükümlülükleri - Nihan Güneli (30 Temmuz 2025)
- Medyanın sınırlarını aşmak: Kolektif bilginin temellükü, emeğin dönüşümü ve alternatif gelecekler - Diyar Saraçoğlu (13 Ağustos 2025)
- Eleştirel dijital okuryazarlık: Nefret söylemi ve dezenformasyonla mücadelede anahtar yetkinlik - Öyküm Hüma Keskin (27 Ağustos 2025)
- Yapay zekâ çağında çocuklar: Fırsatlardan yararlanırken risklerden nasıl korunacaklar? - Esra Ercan Bilgiç (10 Eylül 2025)
Bizim Medyamız (Our Media)
AB tarafından finanse edilen ve 2023-2025 yıllarını kapsayacak "Bizim Medyamız" (Our Media) projesinin partnerleri arasında IPS İletişim Vakfı/bianet de var.
"Bizim Medyamız: Medya Okuryazarlığının ve Aktivizminin Çoğaltılması, Kutuplaşmanın Önlenmesi ve Diyalogun Teşvik Edilmesi için Sivil Toplum Hareketi" projesi üç yıl sürecek.
Projenin ilk odağı, Balkanlar ve Türkiye'de, STK'lerin, medya profesyonellerinin, genç aktivistlerin ve kamunun; medya özgürlüğünün yanında medyanın gelişimine ve sürdürülebilirliğine dair eğilimler ve zorluklar hakkında kapasite geliştirmelerini sağlamak olacak.
AB tarafından finanse edilen ve 2023 – 2025 yıllarını kapsayacak "Bizim Medyamız" projesinin partnerleri şöyle:
- Güney Doğu Avrupa Medya Profesyonelleşmesi Ağı (SEENPM)
- Arnavutluk Medya Enstitüsü (Tiran)
- Mediacentar Vakfı (Sarajevo)
- Kosova Basın Konseyi
- Karadağ Medya Enstitüsü (Podgorica)
- Makedonya Medya Enstitüsü (Üsküp)
- Novi Sad Gazetecilik Okulu (Novi Sad)
- Barış Ensitüsü (Ljubljana)
- bianet (Türkiye).
"Bizim Medyamız" projesinin IPS İletişim Vakfı/bianet adına araştırmacısı vakfın araştırma koordinatörü Sinem Aydınlı.

Yeni bir sivil toplum hareketi: Bizim Medyamız
Projenin kapsamı
Proje, medyanın sürdürülebilirliğine yönelik ana eğilimleri, riskleri ve fırsatları belirlemek ve medya özgürlüğü ile medya ve bilgi okuryazarlığını (MIL) desteklemek için medya aktivizmi çalışmalarındaki iyi uygulamaları haritalandırabilmeye yönelik bir araştırmayla başlıyor. Araştırma bulguları, medyadaki zorlukları ele alabilmek için medya alanındaki STK'lerin ve diğer paydaşların kapasitelerini güçlendirmek için kullanılacak.
"Bizim Medyamız" kapsamında gazetecilerin, medya kuruluşlarının ve medya kurumlarının kapasitesilerini anlamaya yönelik savunuculuk faaliyetleri yapılacak. Yerel ve ulusal medya ve diğer aktörlerin, medyadaki toplumsal cinsiyet eşitsizliklerine yönelik medya aktivizmi çalışmaları yapması teşvik edilecek. Proje kapsamında ayrımcılığa ve cinsiyetçi kalıp yargılara karşı çıkma ve yapılacak çeşitli aktiviteler aracılığıyla toplumsal cinsiyet eşitliğini destekleme konusunda genç liderler güçlendirilecek.
Proje, kentsel ve kırsal alanlardaki STK'lere verilen mali destekle, yurttaşların MIL becerilerini geliştirmek, medya özgürlüğü ve bütünlüğünü desteklemek ve propaganda, nefret söylemi ve dezenformasyondan kaynaklanan kutuplaşmaya karşı koymak amacıyla yerel topluluklara ulaşacak.

Bu yazı, Avrupa Birliği tarafından fonlanan ve IPS İletişim Vakfı / bianet’in de paydaşı olduğu “Our Media / Bizim Medyamız” projesi kapsamında hazırlanan Dijital Medya Okuryazarlığı Dosyası ve Kılavuzu’nun içeriklerinden biri olarak yayımlanmaktadır.
(TEF/SA/VC)












