Tekrarlanabilir ve 
şeffaf araştırmalar

“Makale yazmak” diye tanımlanan işe ilk el attığımda henüz lisans eğitimini tamamlamamış genç bir öğrenciydim. Yurtdışında nasıl oluyor bilmiyorum ama sanırım Türkiye’de -en azından benim okulumda- makale yazmayı tamamen el yordamıyla öğrenmek zorundasınız.

Danışmanımın konuyla ilgili bir makaleyi okumakla başlayıp, ona benzer veya o makalede gönderme yapılmış makaleleri okuyarak devam etmemi söylediğini hatırlıyorum.

Bana söyleneni yaptım. Ancak daha ilk makalede dikkatimi çeken şey, bu makalelerde bahsedilen gözlemlerin nasıl yapıldığı veya gözlemlenen veriyi işleyerek makalenin katkısını oluşturan yöntemin tam olarak nasıl çalıştığıyla ilgili ayrıntıların es geçilmiş olduğuydu.

Danışman hocama sorarak mı öğrendim, yoksa kendi kendime mi bunu fark ettim bilmiyorum ama makale yazarlarına gidip bu gözlemimi paylaşsam bana: “Bunu okuyan herhangi birisinin bizim yaptığımız işi kendi başına yapabilmesi için yeteri kadar ayrıntıyı zaten veriyoruz. Anlamıyorsan veya beceremeyeceksen biz ne yapalım?” sözleriyle cevap vereceğini düşünmeye başladım.

Şansıma, o sıralarda okuduğum makalelerde atlanan ayrıntılar o kadar da önemli değildi. Bilgisayarın başına oturup bir veya birkaç günde bir araya getirebileceğiniz kadar basit yazılımlar oluşturmanız yetiyordu.

Pek önemsiz gözüken bu mesele, aslında tüm bilim insanlarını ve sağlıklı bir bilim üretimini önemseyen herkesi ilgilendiriyor. Zira bilim, yapılan çalışmaların bağımsız araştırmacılar tarafından denenmesine ve üretilen bilginin paylaşılarak, paylaşılanın üzerine yeni bulgulara ulaşılmasına dayanıyor.

Bu, bilim insanlarının birbirlerinin yayınlarını okurken doğal olarak gerçekleştirdikleri bir eylem olagelmiş. Bu tarz, hala bazı bilim dallarında ve alt alanlarda geçerli olmaya devam etse de, bazı alanlarda yayınlanan makalelerin sadece yayındaki metne bakarak denenmesi veya bahsedilen verinin elde edilmesi mümkün değil.

Özellikle hesaplama ağırlıklı alanlarda yayınlanan makalelerde bu sorun kendini göstermeye başladı. Sorun, kullanılan algoritmaların gittikçe karmaşıklaşmasına ve değinilen veri kümelerinin sayısının ve büyüklüğünün gittikçe artmasına dayanıyor. Örneğin artık yayında bahsedilen sonuçların gerçekten alınıp alınamayacağını denemeniz için 3-4 aylık bir çalışma sürdürmeniz gerekebiliyor. Çoğunlukla da çalışması için gerekli olan bir değişkenin değerini kendiniz bulmanız veya makalenin yazarlarına sormanız gerekebiliyor. Bu, süreyi daha da uzatıyor.

İzleyebildiğim kadarıyla bilim camiasının bu soruna getirdiği bazı çözüm önerileri var. Birincisi, yazarların yayınlarında makaleyi sınamak için gerekli olan tüm verinin ve bilgisayar programlarının indirilebileceği bir web adresi vermeleri özendiriliyor. İkinci olarak, bu iki öğeyi yükleyebilecekleri özel web siteleri hazırlanıyor. Bu siteler, büyük olasılıkla ortalama bir araştırmacının mümkün kılabileceğinden çok daha uzun bir süre için bu verileri saklıyor olacaklar. Üçüncüsü, bu iki öğenin nasıl bir iş akışı içerisinde kullanılması gerektiğinin kurallı bir şekilde anlatılmasını sağlayan yazılımların geliştirilmesi.

Bu önerilerin hepsini bir araya getirmeye çalışan uygulamalardan birisi Galaxy. Şu an için sadece biyoinformatik alanındaki çalışmaları içeren sistem oldukça umut vaad ediyor. Ancak, ne yazık ki, bu gibi araçların özellikle Türkiye gibi yayın sayısından başka hiçbir akademik katkının ödüllendirilmediği ülkelerdeki bilimsel üretim tarzını değiştirmeleri oldukça zor.