D - Palindrome Time Limit:1000MS Memory Limit:65536KB 64bit IO Format:%I64d & %I64uSubmit Status Practice URAL 1297DescriptionThe “U.S. Robots” HQ has...
分类:
编程语言 时间:
2014-10-30 22:28:49
阅读次数:
295
POJ 1548 Robots
题目链接
题意:乍一看还以为是小白上那题dp,其实不是,就是求一共几个机器人可以覆盖所有路径
思路:最小路径覆盖问题,一个点如果在另一个点右下方,就建边,然后跑最小路径覆盖即可
代码:
#include
#include
#include
#include
using namespace std;
const int N = ...
分类:
其他好文 时间:
2014-10-30 19:20:32
阅读次数:
173
Crashing Robots
Time Limit: 1000MS
Memory Limit: 65536K
Total Submissions: 7880
Accepted: 3429
Description
In a modernized warehouse, robots are used to fetch the goo...
分类:
其他好文 时间:
2014-10-26 18:31:24
阅读次数:
243
什么是robots.txt? 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个...
分类:
其他好文 时间:
2014-10-06 20:38:32
阅读次数:
166
有时候会有一些站点内容,不希望被ROBOTS抓取而公开。为了解决这个问题,ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是The Robots META标签。 1,<meta name="Robots" contect="all|none|index|noin...
分类:
Web程序 时间:
2014-10-05 12:30:08
阅读次数:
434
wget很厉害,你如果想把某个网站上的一系列的文档,通常是api文档扒下来可用下列命令:wget -e robots=off -w 1 -x -np -p -m -k -t 1 -X/upload/ http://网址为了让这个命令行的各选项意义更加明确,它还可以写成:wget --execute ...
分类:
Web程序 时间:
2014-10-04 23:54:27
阅读次数:
334
禁止搜索引擎收录的方法(robots.txt)一、什么是robots.txt文件?搜索引擎通过一种程序robot(又称spider),自己主动訪问互联网上的网页并获取网页信息。您能够在您的站点中创建一个纯文本文件robots.txt,在这个文件里声明该站点中不想被robot訪问的部分,这样,该站点的...
分类:
其他好文 时间:
2014-10-04 13:00:46
阅读次数:
219
题意:在n*m的房间有num个机器,它们的坐标和方向已知,现给定一些指令及机器k执行的次数,
L代表机器方向向左旋转90°,R代表机器方向向右旋转90°,F表示前进,每次前进一米
若前进时机器i撞到机器j,输出“Robot i crashes into robot j ”
若机器走出了n*m的房间,输出“Robot i crashes into the wall ”
当出现上述情况,只需输出第一次出现上述的情况
若所有指令执行完,所有机器都没碰到上述情况,输出“OK”...
分类:
其他好文 时间:
2014-10-02 14:28:03
阅读次数:
150
meta主要为分HTTP标头信息(HTTP-EQUIV)和页面描述信息(NAME)。标头信息包括文档类型、字符集、语言等浏览器正确显示网页的信息及处理动作;网页描述如内容的关键字、摘要、作者和定义robots行为等,为搜索引擎索引提供信息。meta标签在head中定义,主要参数如下:http-equiv:将..
分类:
Web程序 时间:
2014-09-28 14:46:02
阅读次数:
195
自己网站的ROBOTS.TXT屏蔽的记录,以及一些代码和示例
分类:
其他好文 时间:
2014-09-27 18:54:40
阅读次数:
248