Büyük Veri ya da Big Data
Gürcan Banger
Facebook’ta paylaş
Twitter’da paylaş
Duygu Güncesi - Ana Sayfa
Facebook’ta izle
Twitter’da izle
LinkedIn’de izle
Büyük veri (İng. Big data), bilişimin ve buna bağlı olarak iş kültürünün yeni kavramlarından birisidir. Bu kavramı, daha önce kullandığımız veri (İng. data) kavramından ayırt etmemizin bir nedeni var. Bilişim, ölçme ve izleme teknolojilerindeki gelişmelerin sonucunda, veri kümeleri daha önce bilinen veri işleme ve yönetimi teknik ve uygulamaları ile ele alınamaz boyutlara ulaştı. Dolayısıyla büyük miktardaki verilerin depolanması, veriler üzerinde araştırma yapılması, işlenmesi, bunların paylaşılması, uzak mesafelerdeki başka ortamlara aktarılması, farklı veri kümelerinin çapraz eşlenmesi, verilere gömülü yönelimlerin bulunması ve görselleştirilmesi için yeni yöntem, teknik ve algoritmaların geliştirilmesi gerekiyor.
Verinin Hızlı Büyümesi
Bilişimin geleneksel döneminin ünlü IBM PC standardı, -basit olarak söylendiğinde- bir megabayt belleğe erişim imkânına sahipti. Günümüzün 64 bit bilgisayarları ise 16 ekzabayt belleği adresleyebilir. 2010 yılında yapılan bir araştırma 2009’da küresel bilgi hacminin 800 ekzabayt olduğunu tahmin etmektedir. Bu hacmin 2020’de 44 katına çıkacağı öngörülüyor. Bu büyüklükleri kestirebilmek için –gene basit olarak– megabaytın bir milyon, gigabaytın bir milyar harf sayısal büyüklüğünde olduğunu hatırlayalım. Bir ekzabayt ise milyon X milyon X milyon (on üzeri onsekiz) büyüklüğündedir. Bu da, büyük veri (big data) ile kastedilen veri hacminin hangi ölçekte olduğunu anlatabilmektedir.
Veri kümelerinin giderek büyümesinde; yeni geliştirilen veriye duyarlı mobil aygıtlar, uzaktan algılayabilen teknolojik araçlar, kameralar, ses alıcı ve kaydediciler, rady frekansı okuyucuları ve kablosuz duyarlı ağlar etkili oldu. Son yapılan araştırma ve hesaplamalara göre; dünyanın kişi başına bilgi depolama kapasitesi 1980’lerden bu yana her 40 ayda (yaklaşık 3,5 yılda) bir iki misli arttı. 2012 yılına ulaşıldığında; veri üretme hızının günde 2,5 kentilyon (10 üzeri onsekiz) bayta ulaştığı ifade ediliyor.
Sorunlar ve Fırsatlar
Yaşadığımız çağın en önemli özelliklerinden birinin bilginin (yukarıda özetlediğim gibi) büyük bir üretim hızına ve çeşitliliğine ulaşması olduğuna dair hiç kimsenin kuşkusu kalmadı. Bu çılgınca ilerleyiş, bir yönüyle bir ‘bilgi çöplüğü’ görüntüsü yaratıyor. Diğer yandan bu büyük kümelerin için çok ciddi bilgileri çekip çıkarmak ve dünyadaki, toplumlardaki ve ekonomilerdeki yönelimleri gözlemek mümkün oluyor. Özetle; bir yönüyle bir ‘bilgi çöplüğü’ izlenimi yaratan büyük veri kümeleri, diğer yönüyle bir ‘bilgi hazinesi’ olarak algılanabilir. Bu amaçla veri kümelerinin içinde ihtiyaç olanı algılama, izleme, süzgeçleme, ayıklama, raporlama, görselleştirme ve iletme gibi konularda yeni yöntem, araç ve uygulamalara ihtiyacımız var.
Büyük veri olgusunun yarattığı tehdit ve fırsatları doğru kavrayabilmek için bu gelişmenin bazı niteliklerini iyi kavramak gerekir. Öncelikle (yeni alanların geliştirilmesi ile) verinin içeriği çeşitleniyor. Artık mevcut bilim dallarını bir çırpıda sayıvermek mümkün değil. Diğer yandan (yukarıda sözünü ettiğim) yeni veri üreteçleri farklı biçimlerde veri üretiyorlar. Bu verilerin işlenebilmesi için ortak bir dile (formata) dönüştürülmesi gerekiyor. Bu da küresel ölçekte başarılması gereken bir iştir.
Veri üretim hızı, yukarıda ifade edildiği gibi giderek yükselen bir ivmeye sahip. Bu yüksek hız ve ivme sayesinde, veri miktarı önceki çağlarda hayal edilemeyecek boyutlara ulaştı. Önümüzdeki sorunlardan birisi, bu verilerin işe yarar ve gereksiz olanlarını ayırt edebilmektir. Değer yaratacak olan ile olmayanı süzgeçleyebilmek, hem kuruluşlar hem de kişiler için önemli bir faaliyet haline dönüştü. Sosyal medyayı göz önünüze getirdiğinizde; bir diğer sorunun ‘doğrulama’ olduğunu kolayca hatırlayacaksınız. Veriye ulaşmak yetmiyor; enformasyon ile dezenformasyonu birbirinden ayırt edebilmek gerekiyor. Veri kümeleri büyüdüğünde bu sorun, aşılması daha ciddi bir sorun haline dönüşüyor.