Hrant Dink Vakfı, Claudia von Vacano ile Stefanie Ullmann’ın konuşmacı olarak katılacağı, Berrin Yanıkoğlu’nun da moderatörlüğü üstleneceği çevrimiçi bir söyleşi düzenliyor.
25 Ocak Salı günü 19.00’la 20.30 arasındaki söyleşinin konusu “Yapay zeka ve nefret söylemi: Fırsatlar ve riskler.”
Vakıf yayınladığı duyuru metninde "nefret söyleminin tespit edilmesinin nefret söylemiyle mücadelede birincil öneme sahip olduğunun” altını çizerken son yıllardaki teknolojik gelişmelerin, medyadaki nefret söyleminin tespitinde yapay zekaya önemli bir rol biçtiğini ekledi.
“Nefret söylemi çalışmalarında birçok konunun tartışmaya açılması gerekiyor” diyen vakıf nefret söylemi tespitinin konuşulacağı söyleşide şu sorulara cevap aranacağını ifade etti:
- Algoritmalardan yararlanılmasının temel sebepleri nelerdir?
- Algoritmalar nefret söylemini tespit etme konusunda ne kadar başarılı?
- Yapay zeka, nefret söylemi tespitinde insanın yerini alabilir mi?
- Yapay zeka ifade özgürlüğünü ne kadar koruyabilir?
- Nefret söylemi tespitinde yapay zeka yanlı sonuçlar üretir mi?
- Kullanılan verilerin sonuçlara etkisi nedir?
- Algoritmalar nefret söylemini tespit ederken bağlamı gözetebilir mi?
Bu kapsamda Berkeley D-Lab’ten Claudia von Vacano ve Centre For Research in The Arts, Social Sciences And Humanities’ten Stefanie Ullmann nefret söylemi tespit çalışmaları kapsamında yürüttükleri projeleri hakkında bilgi verecek. Nefret söylemini yapay zekayla tespit etmenin avantajları ve dezavantajları hakkında konuşacak.
Söyleşide, Sabancı Üniversitesi Veri Analitiği Mükemmeliyet Merkezi'nden Berrin Yanıkoğlu'nun katkıları ve soruları ile nefret söyleminin tespitinde kullanılan algoritmaların güçlü ve potansiyel yönleri ve bu alandaki gelişmeler üzerinde durulacak.
Zoom üzerinden gerçekleştirilecek etkinlikte Türkçe ve İngilizce simultane tercüme de yapılacak. Ayrıca etkinlik vakfın YouTube, Facebook ve Twitter hesaplarından canlı yayınlanacak.
Etkinliğe buradan kayıt olabilirsiniz.
Stefanie UllmannStefanie Ullmann, Cambridge Üniversitesi çatısı altında yürütülen Giving Voice to Digital Democracies: The Social Impact of Artificially Intelligent Communications Technology projesinde doktora sonrası araştırma görevlisidir. Stefanie Ullmann'ın araştırma alanları arasında işlevsel dilbilim, eleştirel teori ve söylem analizi, derlem dilbilim, yeni medya ve iletişim teknolojileri ile çatışma çözümleri ve kriz durumlarında dilin bir araç olarak kullanılması bulunuyor. Ullman, güncel olarak, çevrimiçi nefret söyleminin karantinaya alınması, yanlış bilgi, makine/bilgisayar çevirisindeki cinsiyet yanlılığı, dinamik veri ifadeleri ve nefret söylemi ile mücadelede karşıt söylem yaklaşımlarına odaklanıyor. Claudia von VacanoClaudia von Vacano, Cornell Sosyal Bilimler Merkezi Veri Bilimi Üyeleri Programını ve bu kurum içindeki çekirdek araştırmalara yönelik destek hizmetlerini yönetiyor. Ayrıca Vacano, veri yoğun sosyal bilimlerde araştırmalar için disiplinler arası kaynaklar sağlayan D-Lab(Berkeley)’te, yönetici direktör olarak çalışıyor. D-Lab’te yürütülen Çevrimiçi Nefret Endeksi (OHI) araştırma projesi ile Vacano, YouTube, Reddit ve Twitter'da nefret söyleminin kavranması adına araştırmalar yapıyor. Vacano’nun araştırma alanları, hesaplamalı sosyal medya araştırmaları, nefret söylemi ve veri bilimindeki ve daha genel olarak eğitim politikasındaki çeşitlilik üzerine odaklanıyor. Berrin YanıkoğluBerrin Yanıkoğlu, Sabancı Üniversitesi’nde Bilgisayar Bilimleri Profesörü ve Veri Analitiği Mükemmeliyet Merkezi (VERİM) Direktörüdür. 1988 yılında Boğaziçi Üniversitesi Bilgisayar Bilimleri ve Matematik bölümünde çift anadal ile mezun oldu, 1993 yılında ABD Dartmouth College'dan Bilgisayar Bilimi bölümünden doktora derecesini aldı. Prof. Yanıkoğlu, 2000 yılında Sabancı Üniversitesi'ne katılmadan önce Rockefeller Üniversitesi, Xerox Görüntüleme Sistemleri ve IBM Almaden Araştırma Merkezi'nde çalıştı. Araştırma alanları yapay zeka ve makine öğrenimine yoğunlaşan Berrin Yanıkoğlu’nun, güncel olarak, ilgi alanları arasında sosyal medyadaki nefret söyleminin otomatik tespiti yer alıyor. |
(HA)