码迷,mamicode.com
首页 > Web开发 > 详细

网站robots.txt探测工具Parsero

时间:2017-01-21 11:56:43      阅读:216      评论:0      收藏:0      [点我收藏+]

标签:重要   需要   kali   站点   检查   搜索   lin   使用   引擎   

网站robots.txt探测工具Parsero
 
robots.txt文件是网站根目录下的一个文本文件。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当搜索引擎访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt。如果存在,搜索引擎就会按照该文件中的内容来确定访问的范围;如果该文件不存在,则会够访问网站上所有没有被口令保护的所有页面。
 
网站为了防止搜索引擎访问一些重要的页面,会把其所在的目录放入robots.txt文件中。所以,探测该文件,也可以获取网站的重要信息。Kali Linux提供一个小工具Parsero,可以探测指定网站的robots.txt文件,并确认实际可访问性。
 
 
PS:该工具需要用户使用apt-get命令手动安装。

 

网站robots.txt探测工具Parsero

标签:重要   需要   kali   站点   检查   搜索   lin   使用   引擎   

原文地址:http://www.cnblogs.com/daxueba-ITdaren/p/6336702.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!