BİLGİ TOPLAMA
Eğer bir sızma testi yapmak istiyorsanız sızmak istediğiniz sistem hakkında çeşitli bilgi toplama işlemleri yapılmanız gerekmektedir ki bu aşama bir sızma testinin en önemli aşamasıdır.
Bilgi toplama işlemi Aktif ve Pasif olmak üzere 2
başlıktan oluşmaktadır.
Aktif bilgi toplama işleminde hedefin saldırıdan haberinin olma
ihtimali vardır.Paket göndererek tarama vb. işlemleri yapılırken karşı tarafa paket gönderdimiz için hedefin sistemlerine
yakalanabiliriz.
Aktif Bilgi toplama aslında risklidir.O yüzden de işinizin bir parçası olarak , herhangi bir firmaya sızma testi yaparken de dahil olmak üzere gizlenmek önemlidir.Çünkü Sızma testi yapılacağı sistemin güvenliğini sağlayan kişiler tarafından bilinmez.Gerçek bir saldırgan gibi sistemin açıkları bulunup zarar vermeden sisteme girilmeye çalışılır.
Pasif tarama ise zararsızdır.Hedefin yüksek ihtimal haberi olmaz.Hedef
hakkında internet üzerinde bilgi toplama işlemi yapılır.Tabi bu tarz bilgi toplamaları da önlemek için firmalar çeşitli hizmetler satın alabilmektedirler.
- Google – Cloud ‘tan hizmet alındıktan sonra G-CLOUD üzerinden VPN kullanarak saldırıyı başlatmak tespit edilmeme açısından daha güvenlidir.Ancak yavaş çalışır.
- VPN kullanmak lokasyon ve internete çıkış IP adresi açısından bize gizlilik sağlayacaktır.
Şimdi hedefimiz hakkında bilgi toplama
yöntemlerine geçebiliriz.
Pasif Bilgi Toplama Yöntemleri
WHOIS
WHOIS ; web tabanlı, girilen domain hakkında bilgi alabileceğiniz bir websitesidir.Whois veritabanında hedefiniz ile alakalı önemli bilgiler barındırıyor olabilir.
https://www.whois.com.tr/
adresinden
bir domaine ait DNS bilgilerini (eğer mevcutsa) görebilirsiniz.
Aynı zamanda Kali Linux üzerinden whois siteadi komutuyla bilgi edinebilirsiniz.
DIG KOMUTU
Kali Linux’ta kullanılan dig komutuyla sızmaya
çalıştığınız sitenin DNS’i hakkında bilgi edinebilirsiniz.Özetle “dig” komutu “bu IP adresi hangi
domain adına
aittir” veya “bu domain adı hangi IP adresine aittir?” Şeklinde sorgulama
yapmaktadır.
DIG PARAMETRELERİ
·
A : IP adresi
sorgulaması yapar.
·
PTR : IP adresinden makine adını sorgular.
·
NS : DNS sunucularını
sorgular.
·
MX :
Gönderilen
e-postaları kabul eden sunucuları listeler.
·
ANY :
Tüm
sorgulama tiplerini getirir.
·
SOA :
TTL
süresi ,sorumlu kişi ,alanın seri numarası gibi bilgileri verir.
Dig komutunu sub-domainleri görüntülemek için
kullanmak ;
Örneğin; Turkcell için deneyecek olursak , " dig NS turkcell.com.tr " komutundan çıkan DNS NAMESERVER’ lardan birini kullanarak
aşağıdaki komutu uygulayabilirsiniz.
dig @ns1.turkcell.com.tr ns1.turkcell.com.tr.
axfr
axfr dediğimiz komut DNS Zone Transfer dediğimiz
özelliktir.Eğer axfr ‘ın konfigürasyonu doğru ayarlanmazsa ciddi açıklar
oluşabilir.Sub-domainler görüntülenebilir mesela. Burada onu kontrol ediyoruz.
; <<>>
DiG 9.11.5-P4-5.1+b1-Debian <<>> @ns1.turkcell.com.tr
ns1.turkcell.com.tr. axfr
; (1 server found)
;; global options:
+cmd
; Transfer failed.
Şeklinde bir çıktı alınırsa axfr’ın konfigürasyonu
doğru yapılmıştır.Eğer farklı bir sonuç alacak olursanız zaten subdomainleri
göreceksiniz.
GOOGLE ARAMA MOTORU OPERATÖRLERİ
Google bildiğiniz
üzere çok geniş kapsamlı her türlü bilgiyi barındıran bir arama motoru.Aslında
Google’ı kullanarak istediğimiz bilgiyi bulabiliriz.Ama doğru şekilde
yazarsak.Peki doğru şekilde yazıyor muyuz.İşte bu başlık altında bu konu ile
alakalı birkaç tüyo niteliğinde arama bilgileri vereceğim.Bunları kullanarak
sizde hedefiniz hakkında daha detaylı bilgiye sahip olabilirsiniz.
site
Arama motoruna site:siberportali.blogspot.com yazarsanız siberportalı ile sayfalar açılacaktır sadece.
Kullanım Amacı : Hedef site hakkında Google’da
tutulan bilgileri , subdomainleri veya dosyaları görebilmek.
filetype
Arama bölümüne filetype:pdf yazarsanız sonuç olarak sadece o dosya uzantısına sahip siteler getirilecektir.Mesela sızma testi yapıyorsunuz ve bilgi toplamak adına hedefimizin sitesinde yer alan metin dosyalarına(.txt) ulaşmak istiyorsunuz.
Bunun için ; site:hedefsite.com
filetype:txt yazarak istediğimiz sonuçlara
ulaşabiliriz.
Kullanım Amacı : Hedef sitedeki istediğimiz dosya
tiplerini görüntüleyebilmek.
related
Related operatörü aradığınız sitenin diğer sitelerle olan ilişkisidir aslında.Arama bölümüne ; related:hedefsite.com yazarsanız hedef site ile ilişkili websiteleri getirilecektir.
Kullanım amacı : Hedef sitenin diğer sitelerle
olan ilişkilerini görüntüleyebilmek.
intitle
İntitle operatörü Google search işleminde çıkan sitelerin başlıklarında yapılan aramadır.
intitle:aranılacak
kelime site:hedefsite.com filetype:pdf şeklinde
gelişmiş aramalar yapabilirsiniz.Hedef sitede Pdf türüne sahip dosyaları ara ancak google site başlığının içinde aradığım kelime de olsun.
Kullanım amacı :
Hedef site ile alakalı bir kelimeyi aratıp daha detaylı bilgi elde edebiliriz.
inurl
Url adresinde belirli bir kelimeye sahip sonuçları bulmamızı sağlar.
İnurl:kelimeadı
şeklinde
yapılan bir aramada içinde kelimeadı geçen url leri arayacaktır.
Kullanım amacı : Hedef siteden ele geçirilmiş bir
bilgiyi tüm internette aramak ve daha fazla bilgi elde edebilmek.
intext
İçeriğin herhangi bir yerinde geçen kelime aramasıdır.Site ile birlikte kulanılırsa o site içerisindeki aranılan kelimenin geçtiği her sonucu döndürecektir.
İntext:hedefkelime
site:hedefsite.com şeklinde yapılan bir arama
aranılan kelimeyi hedeflenen sitede bulacaktır.
Kullanım amacı : Hedef sitenin detayında daha
fazla bilgiye sahip olabilmek.
Google Arama operatörleri bundan çok daha fazla
ancak bilgi toplayabilmek için çok sayıda araç var o yüzden bu kadar operatör
Google araması için yeterli olacaktır.
Sizlere bazı websitelerinden bahsedeceğim.Bu websitelerini kullanarak bilgi toplayabilirsiniz.
- Archive.org en yaygın kullanılan website tarama motorlarından biridir.Çok geniş bir veritabanına sahiptir.Neredeyse her sitenin burada kaydı bulunur.Şuanda yayında olmayan websitelerinin dahi bilgilerini bulabilirsiniz.
- Shodan ‘da aynı archive.org gibi çok geniş bir veritabanına sahip bir websitesidir.Buraya üye olarak hedefiniz hakkında filtre parametleri de kullanarak detaylı bir inceleme yapabilirsiniz.
- SCANS , internet genelindeki tarama verilerinin tutulduğu depodur diyebiliriz.İnternet'teki ana bilgisayarları ve siteleri açıklayan araştırma veri kümelerinin genel bir arşividir.
- SKYMEM , Bir firmaya ait internet ortamında indexlenmiş mail adreslerini tarayabilmenizi sağlar.
- Virus Total , çoğu kişinin bildiğinin aksine sadece virüs dosyası taraması yapmıyor.Aramak istediğiniz domain adresini yazıyorsunuz ve sub-domainleri ,hosting firmasını ,hosting firmasının altında çalışan diğer siteler gibi birçok bilgiyi sadece üstüne tıklama gibi kolay bir şekilde tasarlanmış network dallanmalarını görebileceksiniz.Üye olup giriş yaparak bu sistemi kullanmanızı tavsiye ederim.Grafikleri gayet başarılı.
- IMMUNIWEB , Bilgi toplayabileceğiniz başka bir websitesi.
- SPYSE , Bilgi toplayabileceğiniz bir websitesi.
Aktif Bilgi Toplama Yöntemleri
NMAP
Nmap taraması yaparak hedefin açık portları, o portlarda hangi servislerin çalıştığı ve o servislerin zafiyetleri bulunabilir.
Nmap ile ilgili detaylı bilgi için bloğuma bakabilirsiniz.
Recon-ng Kali Linux üzerinde çalışan bir aggregator(toplayıcı) araçtır.Aracın ismi İngilizcedeki ‘reconnaissance’ kelimesinden gelmektedir.Bu kelimenin Türkçe karşılığı ‘keşif’ anlamına gelmektedir.Bu aracın olayı hedeflenen site ile ilgili sub-domainleri elde etmek.Bu araç kullanılarak hangi subdomainlerin aynı IP adresine sahip olduğunu görebiliyoruz ve bu sayede bir sub-domain’in güvenliği yüksek olsa dahi bu sub-domainle aynı sunucu üzerinde çalışan başka bir adrese saldırı düzenleyip başarılı bir şekilde sızarsak yüksek güvenlikli olan içeriye sızamadığımız siteye de girmiş oluruz.
https://github.com/lanmaster53/recon-ng adresinden recon’u indirip kurabilirsiniz.
Recon'un arayüzü ;
Help komutunu yazdığınızda kullanabileceğiniz komutları görebilirsiniz.
Yeni bir kullanıcı yaratmak için aşağıdaki komutu kullanabilirsiniz.
Kullanıcıları listelemek için workspaces list yazabilirsiniz.
Recon-ng aracının Api-key'lerini kullanarak çeşitli tarayıcılarla birlikte çalışma imkanı vardır.Bu api-key'leri buralara üye olarak sitelerden alabilirsiniz.
Ardından aldığınız bu api-keyi Recon'a eklemek için keys add shodan_api api-key şeklinde ekleyip ardından keys list diyerek eklenip eklenmediğini kontrol edebilirsiniz.Free api-key'ler tarama işlemi yapılamıyor bazen.Sitenin api-key'e verdiği özelliğe bağlı.
Recon’u kurduktan sonra ilk çalıştırdığınızda
yüksek ihtimalle modüller olmadığı için arama yapmak istediğinizde hata
verecektir.Bu yüzden marketplace install all komutunu
yazarak modülleri yüklemesini sağlayabilirsiniz.Recon aslında api-keyler ile
çalışan bir araçtır.Google , Shodan , Github , Twitter gibi Premium api-keyleri
bulup Recon’a eklerseniz bu uygulamaların veritabanlarını da kullanarak arama
yapabilirsiniz.Mesela Shodan gibi büyük bir veritabanını kullanabilirsiniz.
Aşağıdaki komut ile tarama yapmak için yeni bir domain ekliyoruz.
Show domains yazarak eklenip eklenmediğini görebilirsiniz.
Recon'u ilk çalıştırdığımızda yüklediğimiz modülleri kullanma vakti geldi.
Üst sürümünde load recon/ şeklinde çalışıyor ancak alt sürüme sahipseniz module load recon/ yazıp iki kere TAB tuşuna bastığınızda bu komutun devamında yazabileceğiniz modulleri görebilirsiniz.(TAB tuşu her komut için geçerlidir.)Biz burada domain'deki sub-domainleri tarayacağımız için domains-hosts/ seçeneğinin içine giriyoruz ve buradan bir module seçebiliriz.
Module olarak bing arama motorunu seçtim.Çünkü google da bazen captcha hatası verebiliyor.Modülü seçip run yazıyoruz ve hedefteki domain için tarama başlatıyor.Hepsi ayakta değil bu sub-domainlerin.Bazen yüzlerce hatta daha derine inerseniz binlerce sub-domain çıkabiliyor.Bunların bazıları test için açılmış sub-domainlerde olabilir.
Show hosts diyerek bulunan hostları görüntüleyelim.
Bunların hangilerinin ayakta olduğunu öğrenmek için resolve etmemiz gerekiyor onun içinde module load recon/hosts-hosts/resolve yazıp ardından run diyerek çalıştırdığımızda hosts olarak kayıtlı olan tüm sub-domainleri tarayıp hangilerinden cevap döndüğüne göre bize erişilebilir olan sub-domainleri getirecektir.
Buna benzer olarak sizlere alternatif olarak
önerebileceğim birkaç araç daha bulunmaktadır.Tercihi size bırakıyorum ancak
kullanımı ve api-key seçeneği yüzünden ben Recon’u tercih ediyorum.
Yaygın olarak kullanılan diğer
aggregator araçları;
DATASPLOITİndirme Linki : https://github.com/DataSploit/datasploit
Denemek isteyenler için ,kurulumu ve kullanımı
github’ta mevcuttur.
SPIDERFOOTİndirme Linki : https://github.com/smicallef/spiderfoot
Denemek isteyenler için ,kurulumu ve kullanımı
github’ta mevcuttur.
MALTEGOMaltego hali hazırda Kali Linux ile birlikte gelmektedir.Ancak kullanıcılar tarafından geliştirilmiş sürümlerini indirip kullanabilirsiniz. Örn;
İndirme Linki : https://github.com/allfro/sploitego
Denemek isteyenler için ,kurulumu ve kullanımı
github’ta mevcuttur.
SUBLIST3Rİndirme Linki : https://github.com/aboul3la/Sublist3r
Denemek isteyenler için ,kurulumu ve kullanımı
github’ta mevcuttur.
THE HARVESTERİndirme Linki : https://github.com/laramies/theHarvester
Denemek isteyenler için ,kurulumu ve kullanımı
github’ta mevcuttur.
0 Yorumlar