資訊收集流程

雪痕*發表於2020-08-18

前言

文章首發在freebuf,地址:資訊收集流程
我們在進行滲透的過程中,資訊收集可以說是很重要的一環,它直接影響你後續的測試,下面我就對資訊收集流程進行一個簡單的講解。

其他資訊收集

(1)判斷是否有cdn
通過站長工具的超級ping,看看全國各地訪問,ip是否一樣。
通過ca證照網站判斷。
通過子域名判斷,一些站長為了省錢,只在主站掛cdn
通過國外代理訪問網站,檢視其IP。
(2)判斷是否有waf
可以使用sqlmap,用來判斷網站是否有waf,也可以通過工具來判斷,比如wafwooof。
(3)第三方介面
這個可以通過站長工具,包括一下姓名,電話號,郵箱等。來進行收集,包括一些資產資訊,搜尋引擎,GitHub,查詢有沒有洩露的員工資訊等。

web資訊收集

(1)網站指令碼的判斷
可以通過域名的字尾資訊來進行判斷,如果有偽靜態,那就多發幾次請求,開啟除錯,檢視流量包。做這是為了更好的使用工具。
(2)web指紋識別
可以通過線上平臺。或者工具,可以使用whatweb。主要是用來檢視是否是知名cms,這樣思路會寬一下。
(3)中介軟體判斷
通過各種資訊要判斷出是什麼中介軟體,是apache還是nginx等等
(4)系統判斷
是Windows還是Linux,這個用大小寫判斷,Linux大小寫敏感,用這點判斷就行。
(5)網站對應資料庫
php一般用MySQL、aspx一般用SQL server、jsp一般是SQL server或者oracle、asp一般access(都是比較老的一些網站)

埠掃描

這個可以使用nmap工具來進行,因為它掃的比較全,不僅可以掃出開放的埠,也能知道對應的服務。
這裡能下手的地方就比較多了,如果對應的服務有漏洞,我們就可以利用。
第三方軟體,一般第三方軟體會佔用埠,如果第三方軟體有漏洞,我們也可以利用。
也有可能另外的埠是另一個站點,這樣測試的範圍就擴大了。

目錄掃描

(1)可以使用目錄掃描工具,比如御劍,WebPathBrute,nikto等(強烈建議掃描IP,因為IP對應的是根目錄,可能掃出來的東西會多一些!!!而你域名掃描的只是網站目錄)。awvs也可以用來爬目錄。
爬目錄是為了找可能存在的備份檔案(原始碼備份、資料庫備份),如果找到原始碼備份,我們可以下載下來,裡面可能有一些敏感資訊,原始碼都知道了,可以程式碼審計。
(2)找robots.txt檔案,裡面有敏感路徑,可能包含後臺路徑。

子域名收集

可以使用子域名收集工具,比如子域名挖掘機,也可以利用搜尋引擎,還有ca證照網站。
收集子域名是因為它可能和主站在一個網段,但它可能沒有主站保護的那麼好,可以從子域名下手。

C段查詢

可以藉助線上工具,比如:http://www.bug8.me/bing/bing.php
C段查詢的目的是,查詢這個網段的伺服器,如果我拿下一臺,就可以通過內網滲透,拿下你的伺服器。

相關文章