*"Nefret söylemi", Fotoğraf: Canva
15 Aralık'ta Hrant Dink Vakfı'nın, düzenlediği "Sosyal Medya ve Nefret Söylemi: Ayrımcılık algoritmalarla nasıl yayılıyor?" başlıklı çevrimiçi panelde* Dangerous Speech Project** kurucu direktörü Susan Benesch*** ile bir araya geldik.
Susan, "nefret söylemi" ifadesinden ziyade, daha net ve kapsamlı olduğu ve bazı söylemlerin her zaman nefret söylemi kapsamına girmediği gerekçesiyle, "tehlikeli söylem "-projesinin adı da aynı- ifadesini kullanmayı tercih ediyor.
Moderatörlüğünü üstlendiğim panelde sözü Susan'a vermeden önce sohbetimizin genel çerçevesini şu biçimde özetlemiştim;
"İnternet üzerinden nefret söyleminin belli grupları ve belli azınlıkları hedef alması toplumsal bir meseleye dönüştü. Nüfusun yarısından fazlasının sosyal medyayı etkin olarak kullanmasıyla birlikte, çevrimiçi nefret söylemi içeriğinin üretimi/yayılımı çok hızlı gerçekleşiyor.
İçeriğin, bilginin güvenilirliği de gittikçe belirsiz bir hal alır oldu. Nefret dolu yazışmalar, konuşmalar ne yazık ki düşmanlık duygularını tetikliyor, bazılarımızı sessizleştiriyor veya marjinalleştiriyor. Bu nedenle, çevrimiçi katılımdan geri duranların olması da kaçınılmaz.
Nefret söylemleri bazen rahatsızlık veren, suç teşkil edebilecek, ceza kanunu kapsamına girebilecek edimleri içeriyor. Tanımının zorluğu da işi karmaşık hale getiriyor, diğer yandan, nefret söylemi ile ilgili bir sınırlama getirdiğinizde, bireylerin ifade özgürlüğünü kısıtlama durumu karşınıza çıkıyor. Siyasi olarak yapılan tartışmalarda bu ifadenin etrafında birtakım belirsizlikler var. Nefret söylemi, sosyal medya platformlarının arkalarındaki algoritmalar açısından da sorun oluşturuyor. Toplumumuzdaki mevcut yanlılığı makineler, algoritmalar öğrenebiliyor, dolayısıyla belli ırklara karşı, toplumsal cinsiyete karşı, ayrımcılığın da makineler tarafından öğrenebildiğini biliyoruz.
Algoritmalara dayalı bir şekilde farklılaştırma ayrımcılıkla neticeleniyor, belirli grupların dezavantajlı hale gelmesine neden olabiliyor.
Her tür ayrımcılığa maruz kalan gruplar - etnik azınlıklar, kadınlar, LGBTİ+ bireyler, insan hakkı savunucuları, gazeteciler- sessizleşebiliyor.
Facebook, Twitter, Google+ gibi mecraların bizim üzerimizde büyük bir etkisi var. Gördüğümüz kadarıyla içeriğin pek çoğu ya yanlış olarak yayından kaldırılıyor ya da yanlışlıkla yayında tutulmaya devam ediliyor. Bunlar da ifade özgürlüğümüzü etkileyip kamu tartışmalarına katılım hakkımızın önüne geçebiliyor."
Şimdi de Susan'a yönelttiğim sorulara verdiği yanıtlardan öne çıkanları ana hatlarıyla özetlemeye çalışacağım.
Nefret söylemini kimler üretiyor?
Nefret söylemi çok farklı biçimlerde, farklı siyasi ve sosyal bağlamlarda karşımıza çıkabiliyor. Nefret söylemini daha iyi anlayabilmenin yolu, nefret söylemini üretenin kimler olduğuna bakmaktan geçiyor. İlk sırada ideolojik nedenler, ekonomik kazançlar ya da kişisel çıkarlarından dolayı nefret söylemi içeriğini üreten ve bunu yaygınlaştıran profesyoneller var. Bu içerik üreticileri işe kendilerini adıyorlar, bazen özel, belli taraflar için bazen de devlet için veya başka devletler için çalışıyorlar. Bir diğer adları da Trol çiftlikleri, gayri resmi bir ordu gibi çalışıyorlar. Bu kişiler Robot kelimesi içerisinde geçen "bot"ları üretiyorlar. Bot bir yazılım gibi yani bir insanmış gibi sizinle yazışabiliyor, online olarak size hitap edebiliyor. Bu tür botları kullanmanın avantajı var zira istenilen içerik istenilen hızda yayılıyor. Belli hedef kitleye yönelik çalışıyorlar, örneğin toplumun bir grubunu şiddet duyguları ile kasıtlı olarak ya da tehdit duygusu yaratmak amacıyla öbür gruba karşı ateşleyebiliyorlar ya da insanları belli bir siyasi parti için oy kullanmaya ikna ediyorlar.
Bir başka kategori de kendini bu işe adayan kişiler/gruplar. Kişisel trollük yapıp başkalarına da esin kaynağı oluşturabiliyorlar.
Bu kategorideki kişilerin ya da grupların çok kötü bir tehdit olarak algıladıkları bir şey karşısında eyleme geçtiğini görüyoruz. Bir başka grubu tehdit olarak algıladıklarından, bu gruba saldırmak, bu grubu incitmek istiyorlar.
Bir üçüncü gruptakiler ise sosyal medyada kendini çok yalnız hisseden, belli kişilere/gruplara öfke duyan kimseler. Birbirlerini çok hızlı bir şekilde bulan, birbirlerinin öfkesini tamamlayıp, büyüten bu kişiler kolaylıkla başka birine ait fikre kapılıp bu şekilde hareket edebiliyorlar.
Nefret söylemi ve farklı kimlikler
Bütün kimlikler nefret söyleminin hedefi ve mağduru olabiliyor. Burada en çok karşımıza çıkan iki özellik zaman zaman iç içe geçip örtüşebiliyor.
Bunlardan birisi, nefret söylemini yayma konusuna kendini çok adamış kişiler. Onların genelde birden fazla gruba karşı öfke beslediğini görüyoruz. Örneğin, Pittsburgh'da bir sinagogda iki yıl önce katliama neden olmuş kişi katliamdan önce şöyle bir paylaşımda bulunmuştu: "Aynı anda hem Müslümanlara hem Yahudilere saldırıyor olacağım."
Çok trajik bir şekilde Müslümanlar ve Yahudiler bir arada bu katliamı yapan kişinin öfkesinin öznesi haline geldiler.
Kadınlar da nefret söyleminin hedefinde olabiliyor, bilhassa kadın gazeteciler. Yine burada farklı kimlikler örtüşebiliyor, zaten savunmasız olan alt gruplar birleşiyor, örneğin, gazeteciler zaten hedef alınan bir grup -keza kadınlar da öyle- bir kadın gazeteci iseniz daha fazla saldırılara maruz kalabiliyorsunuz.
İkinci kategoride ise amatör ruhlu ama nefret söyleminin yayılımına kendini adamış kişiler var, bu kişilerin bir bölümü de oldukça cahil. Örneğin, Müslümanları hedef aldıklarını düşünürlerken Sih topluluklarına saldırıyorlar. Yani bunun çok da ayrımında olamıyorlar.
Sosyal medya şirketleri ve algoritmalar
Nefret söylemi farklı şiddetlerde farklı içeriklerle gerçekleşebiliyor. Sosyal medya şirketleri bunun bilincine henüz yeni varabildiler.
Facebook, Twitter, Instagram, Google+ gibi sosyal medya devlerinin, altı yedi yıl önce gündemlerinde nefret söylemi yoktu. Facebook bir ilk olarak, nefret söylemini şiddetine göre üç kademede/seviyede incelemeye başladı. Ama şirketler şimdilerde bu konuyla çok daha ilgililer, dışarıdan çok daha fazla baskıya maruz kaldılar.
Hükümetler bu konuda bazı kanunlar geçirdi ve şirketleri, nefret söyleminin yayılımını kısıtlamak amacı ile tedbirler almaya zorladılar, bu platformlarda saldırıya uğrayan bireyler de seslerini yükseltme olanağına ulaştılar. Bu şirketler dünyanın dört bir yanından uzmanları California'ya davet ettiler, farklı yerlerde ofisler açtılar.
Farklı ülkelerdeki nefret söyleminin yayılımını daha iyi izleyip anlamaya çalışsalar da daha kat edecek uzun yolları var.
Şirketlerin algoritmalarının ne olduklarını, nasıl çalıştıklarını, neyi nefret söylemi olarak gördüklerini, gerçekten sorunlu bir içerikse onu nasıl engellediklerini, değilse de bunu nasıl tespit ettiklerini bilmiyoruz.
Diğer yandan, her algoritma insan kararına göre yaratıldığı için taraflı oluyor zira bu algoritmaları yaratan insanların tarafsız olma olasılığı çok düşük.
Şirketler, şirket sırlarını ve şirketlere özel ticari bilgilerini ve bu algoritmalarla ilgili bilgiyi paylaşmak istemiyorlar zira paylaşacak olurlarsa nefret söylemini yayan kişilerin de bunu çok daha etkili ve hızlı bir şekilde yapacaklarını da düşünüyorlar çünkü eğer bu algoritmaları paylaşırlarsa bu algoritmalar nefret söylemiyle ifade özgürlüğünün arasındaki sınırı nerede çizdiğini de biliyor olacaklar.
Sosyal medya hâlihazırda bütün insanların iletişimi için en önemli mecra haline geldi. Bu kadar önemli bir mecranın tek kontrolünün şirket çalışanlarında olması- hangi içeriğin yaygınlaştırılacağı, hangi içeriğin sakıncalı olduğuna karar veren merci olması- oldukça sorunlu.
Nefret söylemini internet üzerinden tespit etmek için algoritmalar ya da yapay zeka veya yazılım kullanılmakta. Birkaç yıl öncesine kadar şirketlerin bu konuyla ilgilenen güçlü ekipleri yoktu ama artık on binlerce düşük maaşla taşeron şirketlerde çalışan var. Bunların işi içeriği, sabahtan akşama kadar izlemek, tespit etmek. Çalışanların içerik yüzünden psikolojilerinin bozulduğu, hatta ciddi psikolojik hasar gördükleri ortaya çıktıktan sonra büyük şirketler psikologlarla çalışma kararı aldılar.
Neler yapılabilir?
Buna en basit yanıt, nefret içerikli paylaşımları silmek. Ancak bu yetersiz bir yaklaşım zira o içeriği hızlı bir biçimde yeniden yerleştirmek mümkün. O yüzden, bununla mücadele etmenin yollarından biri ilk etapta nefret içerikli söylemin paylaşılmasını engellemek olmalı. Yani bir içeriği o platformda daha görünmeden, önceden silmek. Şu anda bununla ilgili bazı teknolojik çalışmalar yapılıyor.
Tabii işin bir de telif haklarıyla ilgili yönü var. Şirketin algoritması eğer telifle ilgili sorunu olan bir içerik paylaşıldığını fark ederse zaten ilk etapta bunu tespit edip paylaşmıyor. Diğer taraftan, ifade özgürlüğü ile ilgili kısmına da dikkat etmemiz gerekiyor. Yani herhangi bir içerik eğer daha paylaşılmadan siliniyorsa o zaman burada algoritmaların gerçekten doğru bir şekilde saptanması, sileceği içeriği doğru seçmesi son derece önemli. Aksi takdirde ifade özgürlüğü de ihlal edilmiş oluyor.
İfade özgürlüğü ile ilgili olarak büyük bir tehdit de devletlerin nefret söylemi hakkındaki yaygın endişelerini meşrulaştırma gerekçeleri sunmaları. Bu devletler şirketlerin içinde istemedikleri verilerin silinmesi için kanunlar çıkarttı. Şirketlerin buna karşı gelmesi çok zor, bu nedenle şirketler iflas edebilir.
Şirketlerin hükümetlerden gelen baskılara direnebilmeleri de çok önemli. Şirketler siyasi figürlerin nefret söylemi içeren iletilerini silme konusunda çekimser davranıyorlar ama ironik bir biçimde başkanlığı biten Trump'ın tweetlerini silme konusunda cesur davranmışlardı. Başkanlığı devam etseydi aynı şey olamayacaktı muhtemelen.
Şirketler üzerine baskı kurulabilir, zaman zaman şirketlerin nüfuz sahibi kişilere istisnai davrandıklarına tanıklık ediyoruz oysa bu kişilerin etki alanları geniş ve kitlelere büyük zararlar verme potansiyeline sahipler.
İnternet diğer grupların birbirleriyle yaptıkları tartışmaları görmemizi sağladı, örneğin 6 Ocak 2021'de ABD Kongre binasını basanların grup içi konuşmalarını kamuoyu takip edince bu gruplar hem kendilerini tüm açıklığıyla afişe etmiş oldular, hem de gerçekler su yüzüne çıkmış oldu.
Şirketlerin, karşıt söylem ve/veya alternatif söylemler üzerine araştırmalar yapanları özendirmesi gerekli, örneğin karşıt söylem çalışanlara Facebook bir miktar hibe programı hayata geçirmişti.
Bağımsız araştırmacıların farklı dillerde yaptıkları bağımsız araştırmalara her zamankinden fazla gereksinim var. Hrant Dink Vakfı'nın, nefret söylemini yapay zeka ile tespit etmek üzere yürüttüğü proje kapsamında düzenlenen bu çevrimiçi panelde, çevrimiçi nefret söylemi ile mücadelede iyi örgütlenmenin yanı sıra, uzlaşı odaklı yaklaşımların izlenmesinin önemine vurgu yapıldı.
**Dangerous Speech Project
Şiddeti teşvik eden her türlü söylem biçimini incelemek ve ifade özgürlüğü koruyarak bu söylem çeşitleriyle mücadele etmek için 2010 yılında kuruldu. Bu projenin öncelikli dört alanı: Birçok ülkede tehlikeli söyleme yönelik izleme ve araştırma çalışmaları yürütmek; tehlikeli söylem ve diğer zararlı ifade biçimlerine yönelik etkili müdahaleleri araştırmak; sosyal medya ve diğer teknoloji şirketlerine politikaları konusunda önerilerde bulunmak ve bu şirketleri şeffaf araştırmalara teşvik etmek; tehlikeli söylem konusunu incelemek ve bu söyleme karşıt söylem oluşturmak isteyen insanları tehlikeli söylem konusunda bilinçlendirmek.
***Susan Benesch hakkında
Tehlikeli konuşmalar hakkında çalışmalar yürüten ve ifade özgürlüğünü korurken buna karşı koyma yollarını araştıran, kâr amacı gütmeyen bir araştırma ekibi olan Dangerous Speech Project'in kurucusu ve yöneticisi. Benesch aynı zamanda Harvard Üniversitesi'ndeki Berkman Klein İnternet ve Toplum Merkezi'nde öğretim üyesi.
*Panelin tümünü Türkçe izlemek için buraya, İngilizce izlemek için buraya tıklayın.
(YGİ/AÖ)
Kaynaklar:
https://www.frontiersin.org/articles/10.3389/fdata.2020.00003/full
https://www.sciencedaily.com/releases/2020/07/200707113229.htm
https://www.antidiskriminierungsstelle.de/EN/homepage/_documents/download_diskr_risiken_verwendung_von_algorithmen.pdf?__blob=publicationFile&v=1
https://www.article19.org/resources/social-media-content-takedowns-your-stories/
https://www.weforum.org/agenda/2021/07/ai-machine-learning-bias-discrimination/
https://unesdoc.unesco.org/ark:/48223/pf0000374174