SIZMA TESTİ 1.AŞAMA


BİLGİ TOPLAMA

Eğer bir sızma testi yapmak istiyorsanız sızmak istediğiniz sistem hakkında çeşitli bilgi toplama işlemleri yapılmanız gerekmektedir ki bu aşama bir sızma testinin en önemli aşamasıdır.

Bilgi toplama işlemi Aktif ve Pasif olmak üzere 2 başlıktan oluşmaktadır.

Aktif bilgi toplama işleminde hedefin saldırıdan haberinin olma ihtimali vardır.Paket göndererek tarama vb. işlemleri yapılırken karşı tarafa paket gönderdimiz için hedefin sistemlerine yakalanabiliriz.

Aktif Bilgi toplama aslında risklidir.O yüzden de işinizin bir parçası olarak , herhangi bir firmaya sızma testi yaparken de dahil olmak üzere gizlenmek önemlidir.Çünkü Sızma testi yapılacağı sistemin güvenliğini sağlayan kişiler tarafından bilinmez.Gerçek bir saldırgan gibi sistemin açıkları bulunup zarar vermeden sisteme girilmeye çalışılır.

Pasif tarama ise zararsızdır.Hedefin yüksek ihtimal haberi olmaz.Hedef hakkında internet üzerinde bilgi toplama işlemi yapılır.Tabi bu tarz bilgi toplamaları da önlemek için firmalar çeşitli hizmetler satın alabilmektedirler.

Aktif Bilgi Toplarken Gizlenme Yöntemleri


  • Google – Cloud ‘tan hizmet alındıktan sonra G-CLOUD üzerinden VPN kullanarak saldırıyı başlatmak tespit edilmeme açısından daha güvenlidir.Ancak yavaş çalışır.
  • VPN kullanmak lokasyon ve internete çıkış IP adresi açısından bize gizlilik sağlayacaktır.
Şimdi hedefimiz hakkında bilgi toplama yöntemlerine geçebiliriz.


Pasif Bilgi Toplama Yöntemleri


WHOIS 

WHOIS ; web tabanlı, girilen domain hakkında bilgi alabileceğiniz bir websitesidir.Whois veritabanında hedefiniz ile alakalı önemli bilgiler barındırıyor olabilir.

https://www.whois.com.tr/ adresinden bir domaine ait DNS bilgilerini (eğer mevcutsa) görebilirsiniz.




Aynı zamanda Kali Linux üzerinden whois siteadi komutuyla bilgi edinebilirsiniz.


DIG KOMUTU 

Kali Linux’ta kullanılan dig komutuyla sızmaya çalıştığınız sitenin DNS’i hakkında bilgi edinebilirsiniz.Özetle “dig” komutu “bu IP adresi hangi 
domain adına aittir” veya “bu domain adı hangi IP adresine aittir?” Şeklinde sorgulama yapmaktadır.

DIG PARAMETRELERİ

·        A : IP adresi sorgulaması yapar.
·        PTR :  IP adresinden makine adını sorgular.
·        NS : DNS sunucularını sorgular.
·        MX : Gönderilen e-postaları kabul eden sunucuları listeler.
·        ANY : Tüm sorgulama tiplerini getirir.
·        SOA : TTL süresi ,sorumlu kişi ,alanın seri numarası gibi bilgileri verir.

Dig komutunu sub-domainleri görüntülemek için kullanmak ;

Örneğin; Turkcell için deneyecek olursak , " dig NS turkcell.com.tr " komutundan çıkan DNS NAMESERVER’ lardan birini kullanarak aşağıdaki komutu uygulayabilirsiniz.

dig @ns1.turkcell.com.tr ns1.turkcell.com.tr. axfr

axfr dediğimiz komut DNS Zone Transfer dediğimiz özelliktir.Eğer axfr ‘ın konfigürasyonu doğru ayarlanmazsa ciddi açıklar oluşabilir.Sub-domainler görüntülenebilir mesela. Burada onu kontrol ediyoruz.


; <<>> DiG 9.11.5-P4-5.1+b1-Debian <<>> @ns1.turkcell.com.tr ns1.turkcell.com.tr. axfr
; (1 server found)
;; global options: +cmd
; Transfer failed.

Şeklinde bir çıktı alınırsa axfr’ın konfigürasyonu doğru yapılmıştır.Eğer farklı bir sonuç alacak olursanız zaten subdomainleri göreceksiniz.

GOOGLE ARAMA MOTORU OPERATÖRLERİ


Google bildiğiniz üzere çok geniş kapsamlı her türlü bilgiyi barındıran bir arama motoru.Aslında Google’ı kullanarak istediğimiz bilgiyi bulabiliriz.Ama doğru şekilde yazarsak.Peki doğru şekilde yazıyor muyuz.İşte bu başlık altında bu konu ile alakalı birkaç tüyo niteliğinde arama bilgileri vereceğim.Bunları kullanarak sizde hedefiniz hakkında daha detaylı bilgiye sahip olabilirsiniz.


site 

Arama motoruna site:siberportali.blogspot.com yazarsanız siberportalı ile sayfalar açılacaktır sadece.

Kullanım Amacı : Hedef site hakkında Google’da tutulan bilgileri , subdomainleri veya dosyaları görebilmek.


filetype 

Arama bölümüne filetype:pdf yazarsanız sonuç olarak sadece o dosya uzantısına sahip siteler getirilecektir.Mesela sızma testi yapıyorsunuz ve bilgi toplamak adına hedefimizin sitesinde yer alan metin dosyalarına(.txt) ulaşmak istiyorsunuz.

Bunun için ; site:hedefsite.com filetype:txt yazarak istediğimiz sonuçlara ulaşabiliriz.

Kullanım Amacı : Hedef sitedeki istediğimiz dosya tiplerini görüntüleyebilmek.


related 

Related operatörü aradığınız sitenin diğer sitelerle olan ilişkisidir aslında.Arama bölümüne ; related:hedefsite.com yazarsanız hedef site ile ilişkili websiteleri getirilecektir.

Kullanım amacı : Hedef sitenin diğer sitelerle olan ilişkilerini görüntüleyebilmek.


intitle 

İntitle operatörü Google search işleminde çıkan sitelerin başlıklarında yapılan aramadır.

intitle:aranılacak kelime site:hedefsite.com filetype:pdf şeklinde gelişmiş aramalar yapabilirsiniz.Hedef sitede Pdf türüne sahip dosyaları ara ancak google site başlığının içinde aradığım kelime de olsun.

Kullanım amacı : Hedef site ile alakalı bir kelimeyi aratıp daha detaylı bilgi elde edebiliriz.


inurl 

Url adresinde belirli bir kelimeye sahip sonuçları bulmamızı sağlar.

İnurl:kelimeadı şeklinde yapılan bir aramada içinde kelimeadı geçen url leri arayacaktır.

Kullanım amacı : Hedef siteden ele geçirilmiş bir bilgiyi tüm internette aramak ve daha fazla bilgi elde edebilmek.


intext 

İçeriğin herhangi bir yerinde geçen kelime aramasıdır.Site ile birlikte kulanılırsa o site içerisindeki aranılan kelimenin geçtiği her sonucu döndürecektir.

İntext:hedefkelime site:hedefsite.com şeklinde yapılan bir arama aranılan kelimeyi hedeflenen sitede bulacaktır.
Kullanım amacı : Hedef sitenin detayında daha fazla bilgiye sahip olabilmek.

Google Arama operatörleri bundan çok daha fazla ancak bilgi toplayabilmek için çok sayıda araç var o yüzden bu kadar operatör Google araması için yeterli olacaktır.


Sizlere bazı websitelerinden bahsedeceğim.Bu websitelerini kullanarak bilgi toplayabilirsiniz. 

  • Archive.org en yaygın kullanılan website tarama motorlarından biridir.Çok geniş bir veritabanına sahiptir.Neredeyse her sitenin burada kaydı bulunur.Şuanda yayında olmayan websitelerinin dahi bilgilerini bulabilirsiniz.
  •  Shodan ‘da aynı archive.org gibi çok geniş bir veritabanına sahip bir websitesidir.Buraya üye olarak hedefiniz hakkında filtre parametleri de kullanarak detaylı bir inceleme yapabilirsiniz.
  • SCANS , internet genelindeki tarama verilerinin tutulduğu depodur diyebiliriz.İnternet'teki ana bilgisayarları ve siteleri açıklayan araştırma veri kümelerinin genel bir arşividir.
  • SKYMEM , Bir firmaya ait internet ortamında indexlenmiş mail adreslerini tarayabilmenizi sağlar.
  • Virus Total , çoğu kişinin bildiğinin aksine sadece virüs dosyası taraması yapmıyor.Aramak istediğiniz domain adresini yazıyorsunuz ve sub-domainleri ,hosting firmasını ,hosting firmasının altında çalışan diğer siteler gibi birçok bilgiyi sadece üstüne tıklama gibi kolay bir şekilde tasarlanmış network dallanmalarını görebileceksiniz.Üye olup giriş yaparak bu sistemi kullanmanızı tavsiye ederim.Grafikleri gayet başarılı.





  • IMMUNIWEB , Bilgi toplayabileceğiniz başka bir websitesi.
  • SPYSE , Bilgi toplayabileceğiniz bir websitesi.

Aktif Bilgi Toplama Yöntemleri


NMAP

Nmap taraması yaparak hedefin açık portları, o portlarda hangi servislerin çalıştığı ve o servislerin zafiyetleri bulunabilir.
Nmap ile ilgili detaylı bilgi için bloğuma bakabilirsiniz.

RECON-NG ARACI

Recon-ng Kali Linux üzerinde çalışan bir aggregator(toplayıcı) araçtır.Aracın ismi İngilizcedeki ‘reconnaissance’ kelimesinden gelmektedir.Bu kelimenin Türkçe karşılığı ‘keşif’ anlamına gelmektedir.Bu aracın olayı hedeflenen site ile ilgili sub-domainleri elde etmek.Bu araç kullanılarak hangi subdomainlerin aynı IP adresine sahip olduğunu görebiliyoruz ve bu sayede bir sub-domain’in güvenliği yüksek olsa dahi bu sub-domainle aynı sunucu üzerinde çalışan başka bir adrese saldırı düzenleyip başarılı bir şekilde sızarsak yüksek güvenlikli olan içeriye sızamadığımız siteye de girmiş oluruz.

https://github.com/lanmaster53/recon-ng adresinden recon’u indirip kurabilirsiniz.

Recon'un arayüzü ; 


Help komutunu yazdığınızda kullanabileceğiniz komutları görebilirsiniz.


Yeni bir kullanıcı yaratmak için aşağıdaki komutu kullanabilirsiniz.

Kullanıcıları listelemek için workspaces list yazabilirsiniz.



Recon-ng aracının Api-key'lerini kullanarak çeşitli tarayıcılarla birlikte çalışma imkanı vardır.Bu api-key'leri buralara üye olarak sitelerden alabilirsiniz.

Ardından aldığınız bu api-keyi Recon'a eklemek için keys add shodan_api api-key şeklinde ekleyip ardından keys list diyerek eklenip eklenmediğini kontrol edebilirsiniz.Free api-key'ler tarama işlemi yapılamıyor bazen.Sitenin api-key'e verdiği özelliğe bağlı.



Recon’u kurduktan sonra ilk çalıştırdığınızda yüksek ihtimalle modüller olmadığı için arama yapmak istediğinizde hata verecektir.Bu yüzden marketplace install all  komutunu yazarak modülleri yüklemesini sağlayabilirsiniz.Recon aslında api-keyler ile çalışan bir araçtır.Google , Shodan , Github , Twitter gibi Premium api-keyleri bulup Recon’a eklerseniz bu uygulamaların veritabanlarını da kullanarak arama yapabilirsiniz.Mesela Shodan gibi büyük bir veritabanını kullanabilirsiniz.

Aşağıdaki komut ile tarama yapmak için yeni bir domain ekliyoruz.


Show domains yazarak eklenip eklenmediğini görebilirsiniz.



Recon'u ilk çalıştırdığımızda yüklediğimiz modülleri kullanma vakti geldi.
Üst sürümünde load recon/ şeklinde çalışıyor ancak alt sürüme sahipseniz module load recon/ yazıp iki kere TAB tuşuna bastığınızda bu komutun devamında yazabileceğiniz modulleri görebilirsiniz.(TAB tuşu her komut için geçerlidir.)Biz burada domain'deki sub-domainleri tarayacağımız için domains-hosts/ seçeneğinin içine giriyoruz ve buradan bir module seçebiliriz.


Module olarak bing arama motorunu seçtim.Çünkü google da bazen captcha hatası verebiliyor.Modülü seçip run yazıyoruz ve hedefteki domain için tarama başlatıyor.Hepsi ayakta değil bu sub-domainlerin.Bazen yüzlerce hatta daha derine inerseniz binlerce sub-domain çıkabiliyor.Bunların bazıları test için açılmış sub-domainlerde olabilir.


Show hosts diyerek bulunan hostları görüntüleyelim.


Bunların hangilerinin ayakta olduğunu öğrenmek için resolve etmemiz gerekiyor onun içinde module load recon/hosts-hosts/resolve yazıp ardından run diyerek çalıştırdığımızda hosts olarak kayıtlı olan tüm sub-domainleri tarayıp hangilerinden cevap döndüğüne göre bize erişilebilir olan sub-domainleri getirecektir.

Buna benzer olarak sizlere alternatif olarak önerebileceğim birkaç araç daha bulunmaktadır.Tercihi size bırakıyorum ancak kullanımı ve api-key seçeneği yüzünden ben Recon’u tercih ediyorum.


Yaygın olarak kullanılan diğer aggregator araçları;

DATASPLOIT
Denemek isteyenler için ,kurulumu ve kullanımı github’ta mevcuttur.

SPIDERFOOT
Denemek isteyenler için ,kurulumu ve kullanımı github’ta mevcuttur.

MALTEGO

Maltego hali hazırda Kali Linux ile birlikte gelmektedir.Ancak kullanıcılar tarafından geliştirilmiş sürümlerini indirip kullanabilirsiniz. Örn;

Denemek isteyenler için ,kurulumu ve kullanımı github’ta mevcuttur.

SUBLIST3R
Denemek isteyenler için ,kurulumu ve kullanımı github’ta mevcuttur.

THE HARVESTER
Denemek isteyenler için ,kurulumu ve kullanımı github’ta mevcuttur.


REFERANSLAR




Yorum Gönder

0 Yorumlar