80'li yılların ikinci yarısında gazetecilik mesleğine adım attığım Cumhuriyet'te, çaylak polis muhabiri olarak Halil Nebiler'in hemen arkasında oturma şansına nail oldum. Halil bir yandan keyifle kahvesini höpürdeterek içer, diğer taraftan emniyet müdüründen hukukçusuna, bilimum ünlü şahsiyetlerle telefonda laflar, dolmakalemiyle not defterine zaman zaman aheste aheste notlar düşerdi. Asıl beni her zaman şaşırtansa, Yazı İşleri'nden ne istenirse istensin, hemen konuyla ilgili o portakal renkli, kilit altındaki dolabından bir dosya çıkarmasıydı.
"Kürt İdris mi? Olur, taşra baskısına yetişir." "Geçen yılki filanca operasyonun akıbeti mi? Kaç satırlık istiyorsunuz?" O dönemde bilgisayar hak getire, fotokopi makinesini dahi hatırlamıyorum. Halil'in o ünlü dosyaları da gazete kupürleri, el yazısıyla alınan notlar, teyp kasetleri ve karbon kağıtla daktiloda kopyalanmış belgelerden oluşurdu.
Son yayınladığı belgelerle dünya kamuoyunun gündemine oturan Wikileaks, 20 küsur yılda ne kadar hızlı yol kat ettiğimizi hatırlattı. Wikileaks'in ekonomi-politiğini ve medyatik açıdan taşıdığı önemi, gerek bianet'te hafta içinde yer verilen değerlendirmeler, gerekse "Apoletli Medya" başlıklı blogunda, 30 Kasım'da kaleme aldığı yazıyla sevgili Ragıp Duran yeterince ortaya koydu.
Geçen haftaki yazımda, Wikileaks'in tür olarak "Data Driven Journalism"e (DDJ) dahil edildiğini yazmıştım. Türkçeye veri gazeteciliği şeklinde yansıyan kavramın uygulamalarına göz atmadan önce bu kavramı ve gelişimini özetlemekte yarar var.
DDJ'nin temelinde bilgiye serbest erişim talebi var; burada, İnternet'i açıklık-şeffaflık kültürü olarak gören özgür yazılım, açık kaynak anlayışı yatıyor. Gazetecilik eğitimine gerek duymuyor. Bu açıdan yurttaş gazeteciliği türüyle kesişiyor. Ukrayna kökenli ABD'li gazeteci-web geliştirici Adrian Holovaty'nin 2006 Eylül'ünde kaleme aldığı "Haber sitelerinin köklü değişme zorunluluğu" başlıklı yazı, bir tür manifesto kabul ediliyor. Bilgisayar destekli habercilik (Computer-assisted-reporting) daha önce de vardı. Ancak DDJ bu işi hem daha ileri, hem de daha farklı bir boyuta taşıyor.
DDJ, araştırma ve yayınlama olmak üzere iki temel safhadan oluşuyor. Excel dosyası ya da Word formatında olabilir bir ya da birden fazla data seti bir yazılım aracılığıyla analiz ediliyor. Sorgular, ham veri yığınından, belli bir konu hakkında aydınlatıcı ve ilgi çekici bilgi elde edilmesini sağlıyor. Sözkonusu bilgilerse son aşamada görselleştirilerek statik ya da interaktif şekilde sunuluyor. Görsel malzemeye yorum eklemek tercihe bırakılsa da kaynağa ilişkin açıklamalarla data setleri için indirme imkânı sunulması önem taşıyor. DDJ'de verinin paylaşımı esas alınıyor.
Bütün bunlar örneklediğimizde anlam kazanıyor. İngiliz "The Guardian" gazeteciliğin bu özel alanı için "DataBlog-Veri kutsaldır" başlıklı ayrı bir bölüm açmış. Bu bölümde 170'den fazla yorumla en çok ilgi çeken "İngiltere'nin Afganistan'daki kayıpları"na bakıyoruz. İngiltere Savunma Bakanlığı (MoD) resmi web sitesinden düzenli aralıklarla Screen Scraping yöntemiyle otomatik olarak çekilen kayıp rakamları, Scribd, Google Dökümanlar ve Timetric'in uygulamalarıyla görsellik kazanıyor ve sonunda Guardian'ın sayfalarına "gömülüyor" (embedding).
İşin teorisi bu kadar! Şimdi sıra uygulamada: DDJ'nin perde arkasında çalışan 10 uygulaması, size daha iyi bir fikir verecektir:
2005 yılında, "dünyanın açık ve paylaşılabilir bilgisi için veri tabanı" sloganıyla Danny Hillis ve Robert Cook tarafından kurulan Metaweb, 16 Temmuz 2010 tarihinde Google tarafından açıklanmayan bir rakama satın alındı. Metaweb'in ürünlerinden Freebase Gridworks da bir süre sonra Google Refine etiketiyle hizmet vermeye başladı. Google Refine, muazzam miktarlarda data setlerini "temizleyip" analiz etme ve dönüştürme işlevini görüyor. Bu yılın Nisan ayında ünlü Pulitzer ödülüne layık görülen, Herbert Sandler başkanlığındaki Propublica isimli sivil toplum/medya örgütü de yazılımı aktif olarak kullanan kuruluşlar arasında yer alıyor.
Bu açık kaynak kodlu görselleştirme yazılımının, Windows'un yanı sıra Linux ve MacOS X işletim sistemlerine uygun sürümü de bulunuyor. Üç boyutlu görüntüleme teknolojisinin kullanıldığı programla geliştirilen bir Türkçe uygulama için şu sayfaya göz atabilirsiniz.
İsveçli akademisyen Prof. Dr. Hans Rosling öncülüğünde geliştirilen Gapminder, 2007 yılının Mart ayında Google tarafından satın alındı. Bir süredir Trendalyzer adını kullanan uygulama, Flash bazlı çalışıyor.
Many Eyes, IBM'in veri görselleştirme projesi... 2007'de, Fernanda Viégas ve Martin M. Wattenberg öncülüğünde temeli atılan online hizmet, görselleştirdiğiniz veriyi paylaşıp üzerinde tartışabilmenizi sağlıyor. Hangi ülkede hangi sosyal ağın kullanıldığını gösteren bu harita, Many Eyes kullanılarak üretilmiş.
2007 Şubat'ından itibaren faaliyet vermeye başlayan Yahoo! Pipes, Pasha Sadri, Ed Ho, Jonathan Trevor, Kevin Cheng ve Daniel Raffel tarafindan geliştirildi. Halen beta aşamasında olan Yahoo! Pipes bir Mashup editör uygulaması. En az iki farklı kaynaktan gelen veri ve içeriğin yeni bir sayfada kombine edilerek birleştirilmesine Mashup adı veriliyor. Bu sayfada Google Maps, Flickr ve Second Life içeriğinin birleştiği Mashup örneklerini bulacaksınız.
"Verilerini birkaç dakika içinde görselleştir ve paylaş" sloganını kullanan Tableau Public, Stanford Üniversitesi'nde, Prof. Pat Hanrahan ve Chris Stolte liderliğindeki bir ekip tarafından 1997'den itibaren geliştirilmeye başlandı. Yıllar içinde sürekli yenilenen yazılıma "Görsel Sorgulama Dili" (VizQL - Visual Query Language) adı verilen yeni sorgu dili adapte edildi. Desktop, Server ve Reader isimli ücretli uygulamalarının yanı sıra 2010 Şubat'ından itibaren ücretsiz bir sürüm olan Tableau Public de kullanıma açıldı. Tableau Public, veriyi grafiğe dönüştürerek interaktif olarak paylaşılabilir hale getiriyor. Ortaya çıkan bu grafikler üzerinde karşılaştırmalı analizler yapabiliyor ve kendi sitenize/sayfanıza ekleyebiliyorsunuz.
Zach Wilson, John Hedden, George Maasry ve Matt Polak tarafından geliştirilen bu üç boyutlu veri görselleştirme uygulaması, 2007 Haziran'ında hizmete açıldı. Misyonunu "Enformasyonu, haritalar ve veri görselleştirmeyle bilgiye dönüştürmek" olarak tanımlamış. Hâlâ XP ve Vista sürümünde kalmış olması, Linux ve MacOS X sürümünün yokluğu elbette hanesine eksi puan olarak yazılıyor.
Birkaç işi aynı çatı altında yapabileceğiniz bir online hizmet. Screen Scraping olarak tanımlanan yöntemle başka sitelerden bilgi süzebiliyor, veri toplayıp sonunda görselleştirebiliyorsunuz. Örnek Python, PHP ve Ruby kodlarını deneyip kendi kodlarınızı eş zamanlı olarak deneyip çalıştırabileceğiniz uygulamalarla geliştiricilere ve meraklılarına, arşivindeki data setleriyle de haberci ve araştırmacılara hitap ediyor. Julian Todd tarafından kurulan Scraperwiki, kullanışlı ara yüzü ve sunduğu zengin imkânlarla popülerliğinin önümüzdeki aylarda giderek hızla artmasını beklediğim sitelerden...
OpenStreetMap altyapısını kullanan bir başka veri görselleştirme uygulaması. (NH/EÜ)
_____________________________________________________________________________
Konuyla ilgili daha ayrıntılı bilgilenmek isteyenler için önerebileceğim kaynaklar ise şunlar:
* Guardian.co.uk'de 2010 Ocak'ında yayımlanan Mercedes Bunz imzasıyla yayımlanan "Geleceğin gazetecileri programlama işinden de mi anlayacak?" başlıklı yazı ( http://www.guardian.co.uk/media/pda/2010/jan/15/digital-media-journalism-education )
* Mathew Ingram imzasıyla 2009 Mayıs'ında Niemanlab.org'da yayınlanan "Bilgisayar destekli haberciliğin altın çağı" başlıklı yazı ( http://www.niemanlab.org/2009/05/the-golden-age-of-computer-assisted-reporting-is-at-hand/ )
* Judith Townend imzasıyla 2010 Şubat'ında Blogs Journalism'de yayınlanan "Hackerlar veriye dayalı gazetecilik yapıyor" başlıklı yazı ( http://blogs.journalism.co.uk/editors/2010/02/02/hacks-and-hackers-play-with-data-driven-news/ )
* Steve Meyers imzasıyla 2009 Nisan'ında Poynter Online'da yayınlanan "Verilerin görselleştirilmesi, habere derinlik katıyor" başlıklı yazı ( http://www.poynter.org/latest-news/top-stories/95154/using-data-visualization-as-a-reporting-tool-can-reveal-storys-shape/ )
* Google Dökümanlar'dan yararlanarak adım adım veri görselleştirilmesinin anlatıldığı bir blog ( http://blog.ouseful.info/2008/10/14/data-scraping-wikipedia-with-google-spreadsheets/ )