Kadir Has Üniversitesi salonlarında gerçekleştirilen OHO 2014'ün üçüncü gününde veri haberciliği konusunda İzmir Ekonomi Üniversitesi İletişim Fakültesi öğretim üyesi Burak Doğu bir sunum yaptı.
Veri haberciliğinin nasıl ve neden başladığını anlatarak sunumuna başlayan Doğu, enformasyon bombardımanı kavramının ortaya çıktığını söyledi.
Teknolojinin ilerlemesiyle çok fazla verinin ortaya çıktığını belirten Doğu şöyle konuştu:
“Paylaşılan metinlerden görsellere, videolardan haberlerin altına yapılan yorumlara kadar büyük bir hızla büyük miktarlarda veri akışı başladı. Bu işi eskiden ağırlıkla ajanslar yapıyordu ve bugün literatürde bu çalışma şekline ‘churnalism’ deniyor.
"Veri haberciliğinin etkilendiği iki yönlü ilerleme var. Bunun ilki teknik yön yani cep telefonlarının hem iletim hem de veri üreten ve yayan araçlar haline gelmesi. İkincisi ise içeriğin yönlenmesi. Burada da hazırlanan içeriklerin yayınlanmasının ardından katılımcıların katkıları ile yeninden üretilmesi. Bu tür kavramlar veri okuryazarlığı kavramını beraberinde getirdi."
Alternatif medya veri haberciliğine yöneldi
Burak Doğu’ya göre bugün gelinen noktada veri haberciliğinin artması sonucu web'in salt aktarım aracı olmaktan çıktığını ve bir hikaye anlatma aracı haline geldi.
“Bu noktada veriyi anlaşılır kılmanın kamusal yararları olabileceği fark edildi. Bir başka yönü de hepimizin bildiği gibi ana akımın kaybettiği itibarı kazanma olarak da veri haberciliği önemli bir fırsat olarak görülüyor. Alternatif medyanın yöneldiği en önemli alanlardan biri olarak da veri haberciliği önemli bir alan”.
Seçim tahminleriyle başladı
Doğu veri haberciliğinin ilk kullanıldığı ve yayılmaya başladığı yılların 1950'ler olduğunu ve "computer asisted reporting" (CAR) (bilgisayar destekli habercilik) kavramının bu dönemde ortaya çıktığını söyledi: “50'lerde CBC televizyonu seçimlerden önce öngörüde bulunmak için bir sistem hazırladı. Burada amaç veri toplayarak Amerikan toplumuna seçimlerle ilgili haber verebilmek ve öngörüde bulunabilmekti.”
Wikileaks dönüm noktası
Veri haberciliğinin ağırlığını hissettirdiği gelişme olarak Doğu Wikileaks’i dönüm noktası olarak gösterdi: “Wikileaks ile veri haberciliğini tanıdık. Bu devasa veriden birilerinin bizim için bir şeyleri bulup hazırlaması gerekiyordu.”
Veri yığınını işlemek
Veri haberciliğinde ücretsiz araçlarIssuecrawler: Bir network'ün webdeki haritasını çıkaran bir araç. Data Wrapper: Paylaşılan tablolar hazırlanabiliyor. Pipl: Kişi tarama. Videolicious: Klip yapma. Graph Commons: Kollektif ağ oluşturma işine yarıyor. Geofeedia: Sosyal medyaya yüklenenler arasında arama yapabiliyorsunuz. Gapminder: Verilerin görselleştirilmesi. Tineye: Görsel tarama, tanıma yapabiliyorsunuz. Wolfram Alpha (Soru bazlı çalışan tarama motoru. Sorularını direk soruyorsunuz), Whois: Domain alan adı sorgulama yapabiliyorsunuz. Wayback Machine: Internette yıllar önce alınan screenshootları görüyorsunuz. Siteler daha önce nasıldı bunu görüyorsunuz. Scaraperwiki: Wikipedia verilerinden tablolar hazırlamanızı sağlar. Gephi: Komlike grafikler hazırlamanıza yardım eder. Google Refine: Veri temizleme yapar. Formatları dönüştürür. Google Fusion Tables (Verileri görselleştirme) Storyful: Doğrulama yapan bir site ve küresel bir firma. Her ay yaklaşık 1000 video doğruluyorlar |
Veri haberciliğinde bir iş planı meselesi olduğunu söyleyen Doğu, tasnif ve sınıflandırmanın önemli olduğunu belirtti. “İnanılmaz rakamların olduğu veri dünyasına örneklerle bakacak olursak. Google'da her dakikada 4 milyon tarama yapılıyor ve aynı sürede her dakika skype üzerinden 23 bin 500 saatlik bağlantı yapılıyor. Dolaysıyla bu kadar akış içinden veriyi bulup çıkarıp işlemek başlı başına bir habercilik alanı haline gelmeye başladı.”
Paket veri ve gazetecilerin hazırladığı veri
Doğu’nun verdiği bilgiye göre bugün iki tür veriden bahsedebiliyor: “lki hazır veri denilen paket veriler. Örneğin birleşmiş Milletlerin, AB'nin hazır data setleri ya da resmi kurumların sayfalarında yayınladıkları veri paketleri. Diğeri ise derlenen veriler. Bunlarda gazetecinin kendi çabası ile bulduğu veya başka yerlerde hazırlanmış verileri birleştirdiği veriler. Örneğin Türkiye'nin bir konudaki durumunu başka bir ülke ile karşılaştırmak gibi.”
Yenilenen kavramlar
Veri haberciliği deyince daha çok konu özelinde bazı alanlar ortaya çıkıyor. Doğu bu kavramları şöyle sıraladı:
1- Temizleme: Veriyi hatalardan arındırmak, standardize etmek anlamına geliyor.
2- Bağlam. Veri güvenilir mi, kim nerden ne amaçla toplamış gibi araştırmaları yapmak ve verinin arka planına inmeyi gerektiriyor.
3- Birleştirme: Hangi data setleri birleştirilecek.
4- İletişim: Veri ile ilgili iletişim kurup verileri yaymak.
5- Görselleştirme: Bu görselleştirme çok komplike değil. 6- Yazarak veya rakamlarla atlatma: Çünkü her şeyi görselleştirme mümkün değil.
7. Sosyalleştirme: Kamuya mal etme, veriyi sosyalleştirme. Halkı da işin içine katma. Bu verilerin halkın nasıl işine yarayacağı konusu. Mesela Fukuşima örneğini hatırlarsınız. Nükleer sızıntı nedeniyle büyük toprakların boşaltılması gerekti. Almanya'da böyle bir veri haberciliği çalışması yapıldı ve nükleer bir kaza olursa var acaba kaç kişi evlerini boşaltmalı sorusunun cevabı arandı. Ortaya çıkan çalışma, hikayeyi anlatırken sizi de ilgilendiren bir durum var demenin bir yoluydu bu
Guardian örneği
"Veri haberciliğine işlerlik kazandırmak gerekiyor" diyen Doğu, Guardian örneğini anlattı: "Guardian bu konuda başı çekiyor. Bu konuyla ilgili çalışan ekipleri var. Veri haberciliğinin yayınlanması kavramı ortaya 'data blog' kavramını çıkardı ve beş yıldır var. Bu bloglar hikayelerin arkasındaki rakamları veriyordu. Guardian’da Wikileaks'ten sonra farklı birimler aynı masanın etrafında toplandı. Şu anda büyük grupların data ekipleri var. Ciddi projelerde gazeteciler tasarımcı, bilgisayar programcısı, yarı zamanlı araştırmacı proje yöneticisi, danışman ve stajyerlerle çalışıyor." (ZY/HK)