網站robots.txt探測工具Parsero

大學霸發表於2017-01-21
網站robots.txt探測工具Parsero

robots.txt檔案是網站根目錄下的一個文字檔案。robots.txt是搜尋引擎中訪問網站的時候要檢視的第一個檔案。當搜尋引擎訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt。如果存在,搜尋引擎就會按照該檔案中的內容來確定訪問的範圍;如果該檔案不存在,則會夠訪問網站上所有沒有被口令保護的所有頁面。

網站為了防止搜尋引擎訪問一些重要的頁面,會把其所在的目錄放入robots.txt檔案中。所以,探測該檔案,也可以獲取網站的重要資訊。Kali Linux提供一個小工具Parsero,可以探測指定網站的robots.txt檔案,並確認實際可訪問性。


PS:該工具需要使用者使用apt-get命令手動安裝。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29597077/viewspace-2132766/,如需轉載,請註明出處,否則將追究法律責任。

相關文章