1 Kızılcahamam Mesleki ve Teknik Anadolu Lisesi, Ankara.
2 Gazi Üniversitesi, Teknoloji Fakültesi, Bilgisayar Mühendisliği Bölümü, Ankara.
serkan_savas@hotmail.com, nurettin@gazi.edu.tr
Özet: Sosyal medya günümüzde istihbarat için büyük bir veri kaynağıdır. Bununla beraber gelecekte de veri kaynağı olmaya devam edeceği öngörülmektedir. Bu alanda gerçekleştirilecek çalışmalar, pek çok olayın teşhis ve analizinde önemli rol oynayacaktır. Bu çalışmada, çağımızın en önemli bilişim unsurlarından birisi olan siber güvenlik konuları arasındaki siber istihbarata yönelik inceleme yapılmıştır. İstihbarat kavramı açıklanmış, tarihsel gelişimine değinilmiştir. 21. Yüzyılın yeni istihbarat türü olan siber istihbarat konusu açıklanmıştır. Sosyal medya kullanımının yaygınlaşmasıyla birlikte daha da önem kazanmış bir disiplin olan büyük veri konusu açıklanmıştır. Bu alanda büyük veri analiz programları ve görselleştirme programlarına örnekler verilmiştir. Programların özellikleri açıklanmış, siber istihbarat ve sosyal medya istihbaratı potansiyellerine değinilmiştir.
Anahtar Sözcükler: Siber güvenlik, siber istihbarat, sosyal medya, sosyal medya istihbaratı, büyük veri, istihbarat.
A New Dimension In Cyber Security: Social Media Intelligence
Abstract: Social media is a big data source today and It is stipulated that it will continue being data source for intelligence in the future too. Studies which will be made on this area, will play very important role on detection and analysis of a lot of events. In this study, an investigation was made on cyber intelligence which is one of the subjects of cyber security which is one of the most important element of IT of our times. Intelligence concept was explained and its historical development was referred. Cyber intelligence which is the new intelligence type of 21th century was explained. Big data which became more important with the widespread use of social media was explained. Big data analysis and visualiation programs were sampled in this area.Features of programs are explained and the potentials of cyber intelligence and social media intelligence were referred.
Keywords:Cyber security, cyber intelligence, social media, social media intelligence, big data, intelligence.
1. Giriş
Sosyal Medya kullanımı günümüzde internet kullanımının en temel amaçları arasına yerleşmiştir. Facebook, Twitter, Instagram, Linked-in, Google+ vb. pek çok sosyal ağ, milyonlarca kullanıcı tarafından günlük olarak, aktif bir şekilde kullanılmaktadır. Bu kadar çok kullanıcının bulunduğu sosyal medya ortamı, internet ortamında akan veri miktarının da katlanarak artması durumunu ortaya çıkarmıştır. Kullanıcıların internete yükleyerek paylaştıkları metin, görüntü, video ve ses verileri aynı zamanda bilgi değeri olan pek çok verinin de internet ortamında dolaşması anlamına gelmektedir. Ancak bu veri yığınları arasından amaca uygun bilgilere ulaşabilmek için verilerin işlenmesi gerekmektedir. İşte bu noktada büyük veri disiplinine ihtiyaç duyulmuştur. Büyük veri ayrıca farklı amaçlarla pek çok farklı disiplinlerle de ortak çalışmaktadır. Bu amaçlardan bir tanesi istihbarattır. Şirketlerin ihtiyaçları doğrultusunda istihbarat faaliyetleri yapmalarının yanında artık devletler de güvenlik amaçlı istihbarat faaliyetleri yapmaktadır. Bu yeni istihbarat kavramı “siber istihbarat”, sosyal medyada yapılan istihbarat ise “sosyal medya istihbaratı”[1] olarak adlandırılmaktadır.
Bu çalışmanın ikinci bölümünde istihbarat kavramı ve tarih boyunca gelişimi açıklanmıştır. Üçüncü bölümde ise büyük veri kavramı açıklanarak sosyal medya analizi programları tanıtılmış, son bölümde ise sosyal medyada istihbarat potansiyellerinden bahsedilmiştir.
2. İstihbarat
İstihbarat, kelime manası itibariyle Arapça istihbar kelimesinin çoğulu olarak; haberler veya yeni öğrenilen bilgiler, haber alma demektir[2]. İngilizcede istihbarat kelimesinin karşılığı olan "intelligence"; akıl, zekâ, anlayış, haber, bilgi ve istihbarat anlamına gelmektedir. Buradaki vurgu, haberin toplanmasında değil, toplananların birleştirilmesi ve analiz edilmesindedir. Özdağ’a göre bu durum istihbaratın ABD ve İngiliz toplumlarında “malumatın değerlendirilmesi” olarak, ülkemizde ise “malumatın derlenmesi” olarak algılandığının bir göstergesidir[3]. İstihbarat için Almancada “haberler” anlamına gelen “nachrichten”, Fransızcada “işaret, aydınlanma, öğrenme ve öğretme” anlamlarına gelen “renseignement” kelimeleri kullanılırken, Rusçada ise anahtar kelime olarak “güvenlik” karşımıza çıkmaktadır[4]. Her dilde istihbaratın farklı anlamlandırılması o dildeki insanların istihbaratı algılamalarıyla doğrudan ilişkilidir[5].
Türkiye Milli İstihbarat Teşkilatı sitesinde istihbarat, "Devlet İstihbaratı, devletin bütünlüğünü, rejimin emniyetini sağlamak için, millî politika ile tespit edilen millî hedefleri elde etmek üzere devlet organlarının yaptığı istihbaratın tümüdür. Başka bir ifadeyle, Millî Güvenlik Politikaları'nın oluşturulması için gerekli bilgileri sağlayan ve ilgili bütün devlet istihbarat kuruluşlarının işbirliği ve koordinasyonu ile üretilen istihbarattır" şeklinde tanımlanmıştır[6].
Şekil 1. MİT – İstihbarat Çarkı
İstihbarat faaliyetleri sadece devletler tarafından yapılmamaktadır. Şirketler de rakipleri ile ilgili bilgi toplayıp değerlendirerek gelecekle ilgili kararlar almaktadır.
2.1. İstihbaratın Tarihçesi
İlk istihbarat faaliyetlerinin av peşinde iz sürmeden hareket ederek düşman peşinde iz sürmek şeklinde gerçekleştiği belirtilmektedir. Tufandan sonra Hz. Nuh’un güvercin yollayarak suların çekilip çekilmediğini araştırması dahi bazı araştırmacılar tarafından modern anlamda istihbarat olarak yorumlanmaktadır[3].
İstihbarat alanında, 2. Dünya Savaşı sürecinde önemli değişimler yaşanmıştır. Teknolojinin gelişmesine paralel olarak, insan istihbaratının yanında sinyal istihbaratı, görüntü istihbaratı gibi konularda önemli gelişmeler kaydedilmiştir[5].
20. Yüzyılda;
İngiliz istihbaratının Amerika Birleşik Devletleri’ni I. Dünya Savaşı’na dâhil etmesi (Zimmerman Telegram olayı),
Amerika Birleşik Devletleri’ni II. Dünya Savaşı’na sürükleyen istihbarat zafiyeti (Pearl Harbor),
Kriptolojinin II. Dünya Savaşı üzerindeki dramatik etkisi (Enigma gelişmesi),
İngiliz istihbaratının Hitler’in casuslarını kendi amaçları için kullandığı istihbarata karşı koyma başarısı (the Doublecross – aldatma operasyonu)
ulusal güvenlik için istihbaratın önemini ortaya koyan başlıca gelişmelerdendir[7].
Savaştan sonra ABD’de 1947 yılında Truman’ın, barışı korumak için de istihbarat gereklidir teorisi CIA kanunu ile hayata geçmiştir[8]. Bu aşamadan sonra diğer devletler istihbarat örgütlerine çok büyük yatırımlar yaparak, menfaatlerini korumak ve geleceklerini garanti altına almak amacıyla çalışmışlardır. Bu çalışmalar neticesinde istihbaratta özellikle teknolojik gelişimlere paralel olarak büyük gelişmeler yaşanmıştır[5].
21. Yüzyıl güvenlik ortamını ve tehdit tanımını değiştiren terör, istihbarat örgütlerinde de önemli değişimlerin yaşanmasına neden olmuştur. Bu dönemde 11 Eylül’ün hemen ardından Afganistan’a müdahale yapılmıştır. Bununla da kalınmamış, kitle imha silahlarına dair güçlü istihbarat elde edildiği iddia edilerek Irak’a da bir müdahale gerçekleştirilmiştir. Müdahalenin gerekçesi olarak gösterilen kitle imha silahları üretimine dair istihbaratın doğrulanamaması ile durumun vahameti iyice artırmıştır. Uluslararası arenada birçok taraf, bu hatayı tüm zamanların en büyük istihbarat başarısızlığı olarak değerlendirmektedir. Madalyonun diğer bir yüzünde ise bunun bir istihbarat başarısızlığı değil, daha büyük hedefler uğruna dünya kamuoyunu aldatma stratejisi olduğu iddiaları yer almaktadır[9].
21. yüzyıl güvenlik anlayışının istihbarat örgütleri ile olan ilişkisinde son olarak üzerinde durulması gereken gelişme de yine 11 Eylül olaylarının ardından gerçekleşmiştir. Bu olay öncesinde ve esnasında yaşandığı iddia edilen istihbarat zafiyetinin doğru bir şekilde tanımlanabilmesi için hem İngiltere’de hem de ABD’de çok sayıda olağan üstü komisyon kurulmuş ve raporlar hazırlanmıştır. Raporlarda belirtilen eksikliklerin giderilebilmesi için, CIA’nın 1947’deki kuruluşundan itibaren gerçekleşen en önemli istihbarat reformlarından biri olarak ABD’de Ulusal İstihbarat Direktörlüğü (National Intelligence Director, NID) kurulmuştur. Bu hamlenin amacı hem ulusal düzeyde kurumlar arası istihbarat paylaşımını ve etkinliğini, hem de uluslararası istihbarat koordinasyonunu artırmaktır[10].
Şekil 2. 11 Eylül Saldırısı teröristleri bağlantıları[11]
3. Büyük veri Teknolojinin gelişmesiyle birlikte insan hayatı her geçen gün daha çok cihazın kullanıldığı, mobil ve akıllı hale gelmektedir. Bununla birlikte algılayıcı teknolojilerinin gelişmesi, hareketliliğin artması, sosyal ağların kullanımının artması ve iletişim teknolojilerinin gelişmesi de üretilen verinin çeşitliliğini, hızını ve miktarını arttırmıştır. Computer Sciences Corporation tarafından yayınlanan bir rapora göre 2020 yılında veri boyutunun günümüze göre %4300 artış göstereceği tahmin edilmektedir[12]. Tüm bu gelişmeler sonucunda “Büyük Veri” kavramı ortaya çıkmıştır.
Büyük veri çok çeşitli, yüksek hacimli ve yüksek hızda verilerin saklanması, içindeki bilgilere erişimi ve işlenmesi anlamına gelmektedir. Bu verilerin analiz edilmesi, içinden örüntü tanıma ve gizli bağlantıları ortaya çıkarma gibi işlemler ise büyük veri analizi anlamına gelmekte olup günümüz dünyasında teknoloji şirketlerinin gerek performans ve yönetim zorluğundan ötürü gerekse de rekabet avantajı yaratmak için gündem maddelerinin başında gelmektedir[13]. Yüksek hacimli, karışık ve yüksek hızdaki verilerin geleneksel veri tabanı yönetim sistemleri ile yönetilmesi, işlenmesi ve bilgi çıkarımı mümkün olmamaktadır. Bu yüzden sunucu kümelerinde paralel olarak çalışan yazılımlar gibi farklı algoritmalar, teknikler ve teknolojiler gerektirmektedir[14].
Bu sebeplerden dolayı da artık geleneksel hesaplama yaklaşımları yerine bilgisayar kümeleri, dağıtık dosya sistemleri (HDFS, RDD), geleneksel programlar ve programlama dilleri yerine Hadoop, Spark gibi platformlar yaygınlaşmaktadır. Verinin saklanması ve işlenmesinde kullanılmaya başlanan bu teknolojiler verilerin analizinde kullanılan makine öğrenmesi yöntemlerini de etkilemiştir. Duygu analizi, doğruluk tespiti, tavsiye sistemleri, sosyal ağ keşifleri, tıbbi keşifler, web içeriklerinin keşfi ve sınıflandırılması gibi birçok amaçla makine öğrenmesi algoritmaları kullanılmaktadır[15].
Büyük veri nedir? Bir problem midir? Sadece verinin hacmiyle mi ilgilidir? Bu gibi sorular, IBM araştırmacıları tarafından “Understanding Big Data” adlı kitapta cevaplandırılmıştır. Kitaba göre yüksek hacimde, hızda ve çeşitlilikte ve/veya gerçeklikte olan veriye büyük veri denir[16].
Hacim: Genellikle büyük hacimde veri zorunlu şarttır. Çünkü bu özellik ile birlikte veri, kolay yönetilemez hale gelmektedir.
Hız: Eğer veriler hızlı depolanıyor ve veri işleme elemanları bu hızlı yüklemeye yetişemiyorsa, sistem verimsiz hale geliyor veya veri kayıpları başlıyor.
Çeşitlilik: Çoğu büyük veri uygulamasında, tek bir veri kaynağı veya türünden daha fazla kaynak veya tür vardır. Örneğin çoğu firma, reklam kampanyaları için hedeflediği kitleye ait bilgileri sosyal medya paylaşımları, yorumları gibi yerlerden almakta ve kampanyaları kişiselleştirmektedir. Yapılandırılmış ve yapılandırılmamış veri bir araya getirilmektedir.
Gerçeklik: Veri hacmi artarken, veri kalitesinin de korunması gerekmektedir. Özellikle veri işlenmeden önce algılayıcı türü tespit edilmesi ve verinin türünün doğrulanması gerekmektedir.
Büyük veri teknolojilerinde iş zekâsındaki tanımlayıcı istatistikler yerine tümevarımsal istatistikler[17] ve doğrusal olmayan sistem modellemeleri[18] kullanılarak büyük veri kümelerinden doğrusal olmayan ilişkiler, regresyonlar, bağımlılıklar çıkarılabilmektedir.
Semantik Web kavramı ilk olarak Tim Beerners-Lee, James Handler ve Ora Lassila tarafından ortaya atılmıştır. Semantik web, yazılan bilgilerin sadece doğal diller ile değil, yazılımlar tarafından yorumlanıp, kullanılabilecek şekilde tanımlanabilmesini sağlayan bir internet teknolojisidir[19]. Amacı internet ortamında bulunan bilgilerin sadece kullanıcılar tarafından değil yazılımlar tarafından da anlaşılabilmesi ve bu özellikleri kullanarak bazı işlemlerin otomatikleştirilebilmesidir. Bu bilgilerin tanımlanabilmesi için ortak bir standart belirlenmesi gerekmektedir. Bunun içinde RDF dili üretilmiş ve standart olarak belirlenmiştir. RDF dili zamanla bazı ihtiyaçları karşılayamaz duruma gelmiştir. Bu sebeple de bu dile yapılan eklemeler ile RDFS ortaya çıkmıştır. RDFS’ye RDF’den farklı olarak ontolojilerdeki kaynaklar arasında ilişki oluşturmak için yeni standartlaştırılmış ve özel anlamlı tanımlamalar eklenmiştir. Bu tanımların eklenmesiyle de kaynaklar arasında birçok ilişki tanımlanabilmektedir. Yani RDFS ile kaynaklar arasında bağlantılar tanımlanabilmekte ve ilgili kaynaklar bu şekilde anlamsal olarak birlikte değerlendirilebilmektedir. Ayrıca eldeki tanımlamalardan yeni tanımlamalar ortaya çıkarma durumu da ortaya çıkmaktadır. Bu da RDFS üzerinden çıkarsama yapılabilmesini sağlamaktadır[20].
Büyük veri teknolojilerine öncü olarak 2004 yılında yayınlanan Google’ın MapReduce[21] modelinden bahsedilebilir. Bu modelde sorguların parçalanıp paralel düğümlere dağıtılarak paralel işlenmesinin sağlanması ve sonrasında sonuçların bir araya getirilmesi önerilmiştir. Modelin başarılı olması üzerine bir Apache açık kaynak projesi olan Hadoop’ta uygulanmıştır[22]. Hadoop ile veriler, “commodity hardware” denilen donanım kümelerinde tutularak veri yönetimi ekonomik ve esnek olarak ölçeklenebilir kılınabilmektedir. Daha yüksek performans istenen durumlarda ise birçok büyük teknoloji şirketinin geliştirdiği gelişmiş sunucu kümeleri, mimariler ve uygulamalar kullanılabilmektedir[23].
Hadoop sağladığı dağıtık dosya sistemi ve desteklediği paralel işlem gücü ile önemli performans artışı sağlamaktadır. Hadoop 4 adet alt parçadan oluşmaktadır[20]:
Hadoop Genel
Hadoop Dağıtık Dosya Sistemi
Hadoop Yarn
Hadoop MapReduce
Hadoop Genel’de diğer parçalar tarafından kullanılacak olan kütüphaneler ve hizmetler sağlanmaktadır. Dağıtık dosya sistemi, birlikte çalışan makinaları bir arada kullanarak yüksek ölçeklenebilirlik ve güvenilirlikle dosyaların saklanabilmesini sağlamaktadır. Hadoop Yarn kaynakların yönetiminden sorumludur. Son olarak Hadoop MapReduce büyük verilerin işlenmesi için bir programlama modelidir[20].
Sosyal ağların kullanımının her geçen gün artmasıyla birlikte verinin hızı ve çeşitliliği de artmıştır. Yüksek hızda üretilen veri beraberinde verinin aynı hızda alınması, anlaşılması ve işlenmesi problemlerini de getirmektedir. Büyük veri kavramı yüksek hacimdeki ve hızdaki veri ile ilgili konuları içermekle beraber aynı zamanda çeşitlilik içeren; video, ses, metin gibi yapısal olmayan veya akışkan verilerin saklanmasını, yönetilmesini ve üzerinden bilgiye erişimi de ifade etmektedir[24].
Şekil 4. Yıllara göre günlük tweet sayısı tablosu[25]
Sosyal medya sistemleri, değerli bilgileri içermektedir. Bu sistemler içerisindeki veriler değerini, kişisel bilgileri içermesine borçludur. Sosyal medya bilgileri iş dünyasınca, hükümetlerce, akademik çalışmalar vb. işlemler için kullanılmaktadır.
3.1. Büyük Veri analizinde Kullanılan Programlar
NodeXL: Açık kaynak kodlu bir excel temasıdır. Microsoft Excel 2007-2010 ve 2013 üzerinde çalışabilmektedir ve ağ grafiklerini görselleştirebilen, analiz eden bir temadır. NodeXL takımı olarak adlandırılan ve ilk başta Microsoft Araştırmada çalışıp şuan Connected Action Consulting Group’ta bulunan Marc Smith’in takımında bulunan bir grup araştırmacı tarafından geliştirilmektedir[26].
NodeXL Özellikleri:
Metrik Grafik Hesaplamaları:NodeXL ile derece, arasındalık merkezi konumu, yakınlık merkezi konumu, özvektör merkezi konumu, PageRank (link popülerliği), kümeleme katsayısı, grafik yoğunluğu hesaplamaları kolayca yapılabilir.
Esnek İçe Alma ve Dışa Aktarma: GraphML, Pajek, UCINet ve Matrix formatlarında grafiklerle çalışılabilir.
Sosyal Ağlara Doğrudan Bağlantılar: Twitter, YouTube, Flickr ve email veya Facebook, Exchange, Wikis, Surveys,WWW hyperlinkler ve sosyal medya bulut sistemlerine erişen çeşitli eklentilerle sosyal ağ analizleri mevcuttur.
Yakınlaştırma ve Ölçeklendirme: İlgi alanları yakınlaştırabilme ve grafikteki yığılmaları azaltmak için ölçeklendirebilme imkânı sunmaktadır.
Esnek Düzen: Çeşitli algoritmalar kullanarak analiz imkânı ve fare hareketleri ile bileşenleri ayırt etme ve bütünleştirme olanakları vardır.
Kolay Görünüm Ayarları: Renk ayarları, etiketler, şekiller, ölçekler ve saydamlık gibi görsel ayarlar yapılabilir.
Dinamik Filtreleme: Kaydırıcıları kullanarak anında köşeleri ve kenarları gizlemek mümkündür.
Güçlü Vertex Gruplama: Grafiğin tepe noktalarını ortak özelliklere göre gruplayabilme veya NodeXL’in kendisine otomatik olarak gruplama özelliği vermek mümkündür.
Otomatik Görevler: Tek bir tıkla, benzer birden fazla görevi gerçekleştirebilir..
Şekil 5. NodeXL ekran görüntüsü
Şekil 6. NodeXL grafik örnekleri[26]
Pajek: Sosyal ağ analizinde kullanılan ücretsiz bir yazılımdır. Pek çok farklı program ile uyumlu çalışabilmekte, analiz sonuçları görsel olarak elde edilebilmektedir.
R: Son zamanlarda giderek yaygınlaşan açık kaynak kodlu, veri analiz ve görselleştirme programıdır. Robert Gentleman ve Ross Ihaka tarafından geliştirilen R programlama dili, çok büyük ölçekli veri kümelerini, kısa sürede işleyerek etkili sonuçlar ortaya koyabilmektedir. Açık kaynak kodlu olması sonucunda pek çok kişi tarafından yeni eklentiler ve sayısız kütüphanelerle kullanım alanı gittikçe yaygınlaşmaktadır. Google, Facebook ve Linked In gibi pek çok önemli firma tarafından, veri analizinde kullanılmaktadır. Hazır Büyük Veri analiz algoritmaları ile, büyük miktarda verileri etkili bir şekilde analiz etmek mümkündür[27].
Hadoop: Bir süre Yahoo’da çalışan Doug Cutting ve Mike Cafarella tarafından geliştirilmiş olup, çocuğunun oyuncak filinden ismini almıştır. Sıradan sunuculardan (commodity hardware) oluşan küme (cluster) üzerinde büyük verileri işlemek amaçlı uygulamaları çalıştıran ve Hadoop Distributed File System (HDFS) olarak adlandırılan bir dağıtık dosya sistemi ile Hadoop MapReduce özelliklerini bir araya getiren, Javaile geliştirilmiş açık kaynaklı bir kütüphanedir. Daha yalın bir dille anlatmak gerekirse, Hadoop, HDFS ve MapReduce bileşenlerinden oluşan bir yazılımdır[28]. Onlarca büyük çaplı şirket Hadoop ile veri analizi gerçekleştirmektedir[29].
Bu programlara ek olarak UCINET, Tableau, powerview, gephi gibi analiz ve görselleştirmeye yönelik programlar vardır.
4. Sonuçlar ve Öneriler
Bu çalışmada sosyal medyanın gücüne, etkisine ve potansiyellerine dikkat çekilmek istenmiştir. Sosyal medya analiz araçlarından bazıları tanıtılmış ve analiz yöntemlerinden bahsedilmiştir. Sosyal medyayı analiz etme amaçlarından bir tanesi de devlet güvenliğidir. Devlet güvenliği amaçlı siber istihbarat faaliyetleri, sosyal medyanın gücünün artmasıyla birlikte sosyal medya üzerine yoğunlaşmıştır. Günümüzde bu konuda çalışmalar yapılmaya başlanmıştır. Ancak ülkemizde çoğunlukla insan gücüyle yapılan işlemlerden yararlanılmaktadır. İstihbarat faaliyetlerini otomatikleştiren verimli algoritmaların tanımlanabilmesi, siber güvenlik alanında büyük imkânlar sunacaktır. Bu algoritmalar, olayların önceden tespitinde ve/veya analizinde pek çok fayda sağlayacaktır.
Sosyal medya analizinde kullanılan ve çeşitli istatistiksel sonuçlar veren bazı programlar ve web siteleri vardır. NodeXL, pajek, R, UCINET, Tableau, Powerview, Gephi , topsy.com, sentic.net, paterva.com, botego.com, palantir.com vb. program ve siteler, analiz ve görselleştirme için kullanılan bazı araçlardır. Bu araçlarla elde edilen bilgiler içerisinden istihbarat niteliği taşıyanlar, amaçlar doğrultusunda kullanılabilir. Bu amaçlar ticari olabileceği gibi, güvenlik amaçlı da olabilir. Kurumsal istihbarat yapılabildiği gibi devlet tarafından da istihbarat yapılabilmektedir.
Siber güvenlik alanı, çağımızın en önemli konularından birisi olmuştur. Siber istihbarat faaliyetleri ise siber güvenlik alanının bir parçası haline gelmiştir. Sosyal medya kullanımının yaygınlaşmasıyla birlikte, sosyal medya üzerinde siber istihbarat faaliyetlerine ağırlık verilmeye başlanmıştır. Sosyal medya istihbaratı, gelecekte de en önemli siber güvenlik unsurlarından bir tanesi olacaktır.
5. Kaynaklar
[1] Omand, S.D., Bartlett, J. & Miller, C.(2012). Introducing Social Media Intelligence (SOCMINT). Intelligence and National Security.
[2] Avcı, G. (2004). İstihbarat Teknikleri: Aktörleri - Örgütleri ve Açmazları. İstanbul: Timaş Yayınları.
[4] Tılısbık, N., & Akbal, Ö. (2006). İstihbarat ve Türkiye. Konya: Nüve Kültür Merkezi Yayınları.
[5] Özçoban, C. (2014). Uluslararası İlişkiler Ana Bilim Dalı Yüksek Lisans Tezi. 21. Yüzyılda Ulusal Güvenliğin Sağlanmasında Siber İstihbaratın Rolü. İstanbul, Türkiye: T.C. Harp Akademileri Stratejik Araştırmalar Enstitüsü.
[6] 30.03.2015 tarihinde Milli İstihbarat Teşkilatı: http://www.mit.gov.tr/gorev.html adresinden alındı.
[7] Taylor, S. A. (2007). The Role of Intelligence in National Security. New York: Contemporary Security Studies, Oxford University Press.
[8] Yılmaz, S. (2001). 21. Yüzyılda Güvenlik ve İstihbarat. İstanbul: Milenyum Yayınları.
[9] Polat, İ. (2006). Yüksek Lisans Tezi. 11 Eylül Terör Saldırıları ve Amerika Birleşik Devletleri’nin Afganistan Müdahalesi. Isparta, Türkiye: Süleyman Demirel Üniversitesi, Sosyal Bilimler Enstitüsü, Uluslararası İlişkiler Ana Bilim Dalı.
[10] Taylor, S. A., & Goldman, D. (2004). Intelligence Reform: Will More Agencies, Money and Personnel Help? Intelligence and National Security, 422.
[11] 30.03.2015 tarihinde ORGNET: http://orgnet.com/tnet.html adresinden alındı.
[12] Setty, K., & Bakhshi, R. (2013). What is Big Data and What Does It Have to do With It Audit? ISACA Journal, 23-25.
[13] Sağıroğlu, S., & Sinan, D. (2013). Big data: A review. 2013 International Conference on Collaboration Technologies and Systems (CTS), 42-47.
[14] Jacobs, A. (2009). The Pathologies of Big Data. Data – ACM Queue,, 1-12.
[15] Halaç, İ. R. (2014). Yüksek Lisans Tezi. Büyük veri analizinde dağıtık makine öğrenmesi algoritmalarının kullanılması. Elazığ, Türkiye: Fırat Üniversitesi Fen Bilimleri Enstitüsü.
[16] Zikopoulos, P. C., Eaton, C., deRoos, D., Deutsch, T., & Lapis, G. (2012). Understanding Big Data. IBM.
[17] Asadoorian, M. O., & Kantarelis, D. (2005). Essentials of Inferential Statistics. University Press of America, 2.
[18] Nelles, O. (2011). Nonlinear System Identification. Springer.
[19] Berners-Lee, T., Hendler, J., & Lassila, O. (2001). The Semantic Web. Scientific American, 284(5), 28-37., 28-37.
[20] Çetin, Y. (2014). Yüksek Lisans Tezi. Mapreduce Kullanarak RDFS Üzerinde Dağıtık Çıkarsama. Ankara, Türkiye: TOBB Ekonomi ve Teknoloji Üniversitesi Fen Bilimleri Enstitüsü.
[21] Dean, J., & Ghemawat, S. (2004). MapReduce: Simplied Data Processing on Large Clusters. Google Inc.
[22] White, T. (2012). Hadoop: The Definitive Guide. 3rd Edition, O'Reilly Media Yahoo Press.
[23] Gutermen, J. (2009). Release 2.0 Issue:11 Big Data. O'Reilly Media, Inc.
[24] Khalilov, M. C., & Gündebahar, M. (2014). Bankacılıkta Büyük Veri Uygulamaları: Bir İnceleme. Akademik Bilişim Konferansı 2014. Mersin: Akademik Bilişim.
[25] 10.02.2015 tarihinde internetlivestats: http://www.internetlivestats.com/twitter-statistics/#trend adresinden alındı.
[26] 30.03.2015 tarihinde NodeXL Home: http://nodexl.codeplex.com/ adresinden alındı.
[27] 30.03.2015 tarihinde R: http://www.revolutionanalytics.com/ adresinden alındı.
[28] İlter, H. 30.03.2015 tarihinde Dev Veri: http://devveri.com/hadoop-nedir adresinden alındı.
[29] 05.10.2015 tarihinde http://wiki.apache.org/hadoop/PoweredBy adresinden alındı.