码迷,mamicode.com
首页 >  
搜索关键字:robots    ( 529个结果
站点流量异常追查文档
一,运维篇   1、CDN   2、robots   3、UA/IP   4、安全问题/管理不善     A、域名泛解析     B、网站被黑     C、网页被挂马     D、UGC站点被SPAMMER群发   二,特征页分析   1、分析流程图   2、查找特征页面   3、分析异常特征     A、排名无,流量无     B、部分排名无,流量损失较大  ...
分类:其他好文   时间:2015-01-14 11:08:31    阅读次数:193
UML基本架构建模--类的通用建模技术(三)
??   Modeling Nonsoftware Things 构建非软件事物模型   Sometimes, the things you model may never have an analog in software. For example, the people who send invoices and the robots that automatically pack...
分类:其他好文   时间:2015-01-12 10:55:13    阅读次数:204
POJ 2632-Crashing Robots(模拟)
Crashing Robots Time Limit: 1000MS   Memory Limit: 65536K Total Submissions: 8027   Accepted: 3485 Description In a modernized warehouse, robots are used to fetch the g...
分类:其他好文   时间:2015-01-10 18:17:40    阅读次数:102
poj 2632 Crashing Robots 模拟
题目链接: http://poj.org/problem?id=2632题目描述: 有一个B*A的厂库,分布了n个机器人,机器人编号1~n。我们知道刚开始时全部机器人的位置和朝向,我们可以按顺序操控机器人,没有两个机器人可以同时执行命令。如果机器人走到厂库边界,他将碰到墙,如果两个机器人走到同一.....
分类:其他好文   时间:2014-12-21 13:53:24    阅读次数:207
putty
PUTTY详解 http://www.wifi-robots.com/thread-915-1-1.html如何使用Putty远程(SSH)管理Linux VPShttp://www.vpser.net/other/putty-ssh-linux-vps.html PuTTY是一个Telnet、.....
分类:其他好文   时间:2014-12-18 20:21:51    阅读次数:236
(转载)robots.txt写法大全和robots.txt语法的作用
1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。robots.txt写法如下:User-agent: *Disallow:或者User-agent: *Allow: /2如果我们禁止所有搜索引擎访问网站的所有部分的话ro...
分类:其他好文   时间:2014-12-17 12:39:12    阅读次数:130
magento的robots文件编写和判断是否是一个导航分类页面
magento是网店系统,我们突出的是我们的产品,所以,有很多路径我们不想让搜索引擎索引到,所以我们需要用robots文件进行限制下面是麦神magento的robots.txt里面的内容,因为很多url重写和伪静态,所以,不要复制使用,这个格式是针对麦神Magento版本的User-agent: *...
分类:其他好文   时间:2014-12-16 11:24:17    阅读次数:188
robots.txt的详细写法
什么是robots.txt? 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问...
分类:其他好文   时间:2014-12-04 17:25:52    阅读次数:198
PHP 重写读取文件,适用多域名的情况!
如果一个网站同一套程序绑定了多个域名 www.a.com ,www.b.com,为了区分他们的robots.txt、 百度站长验证文件等,如 www.a.com/robos.txt 的内容来自于 /Virtual/www.a.com/robots.txt www.b.com/robots.txt 的内容来自于 /Virtual/www.b.com/robots.txt 的方法: Rewrite...
分类:Web程序   时间:2014-12-01 19:16:07    阅读次数:163
Robots.txt
搜索引擎都有自己的机器人(robots)沿着超链接访问网站,但是有些时候,网站的管理者和内容的提供者不想让你的robots抓取内容,所以ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是TheRobotsMETA标签。 当搜索引擎搜索到该站点的时候,会先去站点的根目录下...
分类:其他好文   时间:2014-11-25 17:50:26    阅读次数:192
529条   上一页 1 ... 44 45 46 47 48 ... 53 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!