Hrant Dink Vakfı, 10 Kasım Cuma günü “İnsan Hakları Bağlamında Algoritmaların Dizaynı” isimli paneli düzenledi. Vakfın “Dijital Teknolojileri Kullanarak Nefret Söylemi ve Ayrımcılıkla Mücadele” projesi kapsamında gerçekleşen panelde konuşmacılar algoritmaların güvenilirliğine, Twitter/X platformundaki algoritma değişimlerinin etkilerine ve algoritmaların dizaynında verilerin işlenmesinin hukuki boyutlarına dikkat çekti.
“Nefret söylemlerinin yanına reklam verilir oldu”
Hrant Dink Vakfı Havak Salonu’nda gerçekleşen panelin ilk oturumu Bahçeşehir Üniversitesi Yeni Medya bölümünden akademisyen Melis Öneren Özbek’in moderatörlüğünde Center for Countering Digital Hate’ten Sarah Eagan’ın konuşmasıyla başladı.
Eagan, Center for Countering Digital Hate’in dijital medyada nefret söyleminin tespiti ve engellenmesiyle ilgili çalışmalarından bahsetti. Twitter/X platformundaki son algoritma değişiklikleriyle beraber kullanıcıların daha fazla nefret söylemiyle karşılaşmasına dikkat çekti.
Eagan, Elon Musk’ın yeni gelir paylaşımı modelini nefret söylemi için açık çek olarak değerlendirdi. Algoritma en uç içerikleri en ön plana çıkardığı için büyük markaların reklamlarını nefret söylemi içeren gönderilerin yanında verdiğini söyleyen Eagan, aynı zamanda platformdaki içerik denetiminin yetersiz olduğunu belirtti.
Son olarak Eagan, şirketleri algoritmalar hakkında şeffaf ve hesap verebilir olmaya çağırdı. Musk’ın Center for Countering Digital Hate’e dava açtığını söylerken aldıkları desteğin kendilerinin toplumsal sermayesinin Musk’ınkinden fazla olduğunu gösterdiğini söyleyerek sözlerini bitirdi.
Kendi kendilerini eğiten modeller manipülasyona açık
Panelin ikinci konuşmacısı Koç Üniversitesi Bilgisayar Mühendisliği bölümünden akademisyen Gözde Gül Şahin’di. Şahin, Büyük dil modellerinin “prensipleri” konusunda yaptığı konuşmada ChatGPT gibi sistemlerin insani değerlere uyum sağlama sürecini anlattı.
Geçtiğimiz senelerde insan emeğiyle eğitilen modellerin artık “kendi kendilerini eğittiklerini” söyleyen Şahin, bu gibi uygulamaların verilen bilgilere göre çok kolay manipüle edilebildiğini ve bu durumun kullanıcıların ön yargılı, hatta toksik cevaplarla karşılaşmasına sebep olduğunu söyledi.
Şahin’e göre gelecekte kullanıcıları daha ikna edici sohbet robotları ve dolayısıyla bağımlılık yapıcı bir sohbet tecrübesi bekliyor, hatta önümüzdeki senelerde “yapay zeka sevgililer” topluma dahil olabilir.
Algoritmalar denetlenmeli
İlk oturumun son konuşmacısı, Washington Üniversitesi Bilgi Okulu’ndan Tanu Mitra’ydı. Mitra, arama ve öneri algoritmalarını yanlış bilgilendirmeye karşı denetlenmesi hakkında bilgi verdi.
Youtube’daki arama ve Amazon’daki öneri algoritmalarını anlamak için yaptıkları deneyleri anlatan Mitra, algoritmaların kullanıcılarının önüne çıkardığı içeriklerin zararlı olup olmadığı konusunda daha etkin bir denetim yapılması için çağrıda bulundu.
Panelin insan hakları bağlamında verilerle algoritmaların ilişkisinin incelendiği ikinci oturumu ise bilgi ve teknoloji avukatı Selin Çetin’in moderasyonunda bilişim hukuku uzmanı Gökhan Ahi’nin konuşmasıyla başladı. Basın ve ifade özgürlüklerinin kısıtlanmasının hem sansür hem de otosansüre yol açtığını belirten Ahi, bunun aynı zamanda toplumdaki kutuplaştırmayı ve şiddet eğilimini artırdığına değindi.
Basının etkisiz hale getirilmesiyle sosyal medyada kutuplaştırıcı içeriklerin çok daha rahatça kullanılabildiğini söyleyen Ahi, kutuplaştırma siyasetinin sonucunda ortaya nefret söyleminin çıktığını belirtti ve bu gibi durumların engellenmesinde uluslararası işbirliğinin önemini vurguladı.
“ChatGPT’yi eğiten insanlar saatte iki dolardan az kazandı”
Oturumun ikinci konuşmacısı Pakistanlı hak savunucusu ve avukat Shymla Khan, insan hakları bağlamında veri ve algoritmalar arasındaki ilişkiyi inceledi. ChatGPT’yi eğitmek için çalışan Kenyalıların saatte iki dolardan az kazandığını hatırlatan Khan, dijital hakların Batı dışında kalan coğrafyalarda ne anlama geldiğini tartışmaya açtı.
Khan, yapay zekadaki başlıca problemlerin görünmez veri emeği, algoritmik ayrımcılık ve eşitsizliğin ötekileştirilmiş toplulukları orantısızca ve daha fazla etkilemesi ve yapay zeka yönetmeliklerinin dünyanın diğer kısımlarında çoğunlukla yetersiz oluşu olduğunu söyledi.
Yapay zekanın ayrıca kullanıcıların ücretsiz emeğiyle de eğitildiğini belirten Khan, yapay zeka dilinin dezenformasyon yaymak için silah haline getirilebilecek oluşunun büyük bir risk olduğunu söyledi.
Panelin son konuşmacısı Avrupa Dijital Medya Gözlemevi’nden uluslararası insan hakları araştırmacısı Lisa Ginsborg’du. Yapay zekanın dezenformasyonun önüne geçmek için giderek daha önemli bir araç olduğunun altını çizen Ginsborg, Avrupa Birliği’nin Dijital Hizmetler Yasası’ndan bahsetti.
Yapay zeka bağlamında algoritma tasarımlarının insan haklarına olabilecek olumsuz etkileri, içerik denetimi ve dezenformasyon konularına dikkat çeken Ginsborg, bu sorunların ortak özelliklerinin arasında algoritmaların şeffaf olmayışının önemli bir yer kapladığını söyledi.
(AY/NK)