码迷,mamicode.com
首页 > Web开发 > 详细

大数据处理之道 (htmlparser 过滤器<二>)

时间:2014-12-25 18:28:39      阅读:325      评论:0      收藏:0      [点我收藏+]

标签:htmlparser filter   大数据爬取   403错误   user-agent   

一:起因

(1)最近用于任务需要一直在爬取网页HTML的内容,与类似于爬虫的HtmlParser接触的比较多,爬取无非就是过滤自己想要的信息,因此Filter是核心,当然String类中的matches(regex)函数和contains(str)函数也是非常有用的

(2)经常和爬虫打交道就会分析各式各样的网站设计以及布局:用的设计的非常有规律,如QQ空间,微博信息等爬取非常简单(当时要想翻页的话,就得模拟登陆了),有些静态网站也是比较容易爬取的;其他的就麻烦了,信息全部写在JS里面,你就会哭了,如邮箱内容爬取;

(3)如果爬取敏感信息,就需要会一点点正则表达式的语法了

(4)与HtmlParser 工具包类似还有HtmlClient,这里提供HtmlParser工具包的下载地址  和 官方在线API 

二:Filter过滤器的简介

顾名思义,Filter就是对于结果进行过滤,取得需要的内容。HTMLParserorg.htmlparser.filters包之内一共定义了16个不同的Filter,也可以分为几类。
(1)判断类Filter
TagNameFilter   ----- html标签指定指定过滤器
HasAttributeFilter  ------  属性和属性值指定过滤器
HasChildFilter ------ 是否包含子

HasParentFilter
HasSiblingFilter
IsEqualFilter
(2)逻辑运算Filter
AndFilter  ------ 同时满足两个或多个过滤条件的过滤器
NotFilter   ------  非
OrFilter    -------  或
XorFilter
(3)其他Filter
NodeClassFilter
StringFilter   -------  过滤敏感信息的过滤器
LinkStringFilter  --------- 过滤敏感链接信息的过滤器
LinkRegexFilter ------- 链接正则表达式过滤
RegexFilter  --------  html界面可显示的字符串正则表达式过滤

CssSelectorNodeFilter
(4)所有的Filter类都实现了org.htmlparser.NodeFilter接口。这个接口只有一个主要函数:
boolean accept (Node node);   
各个子类分别实现这个函数,用于判断输入的Node是否符合这个Filter的过滤条件,如果符合,返回true,否则返回false

三:遇到的问题

(1) 问题:java.io.IOException: Server returned HTTP response code: 403 for URL: http://

问题解释:当你使用java程序检索其他网站上的内容时,如果其服务器设置了禁止抓取,或者其访问需要权限;如果此时你去检索网页那么就会有异常该异常出现;如果是服务器需要访问权限,比如说你要登录才能访问的网页,那么你抓取不了的;如果是服务器端禁止抓取,那么这个你可以通过设置User-Agent来欺骗服务器

// 添加User-Agent 代理 connection.setRequestProperty("User-Agent", "Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)");
         // DigExt是IE5的“允许脱机阅读”模式时发出的特殊标记;comatible:兼容模式;Mozilla/4.0:火狐浏览器4.0版本
            URL url = new URL(htmlURL);// URL是java.net.*
            HttpURLConnection httpURLConnection = (HttpURLConnection)url.openConnection();//是java.net.*
            httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)");
            parser.setConnection(httpURLConnection);

(2)错误提示图片

技术分享

技术分享

什么是User Agent呢?User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。一些网站常常通过判断 UA 来给不同的操作系统、不同的浏览器发送不同的页面,因此可能造成某些页面无法在某个浏览器中正常显示,但通过伪装 UA 可以绕过检测。

(3)代码展示

  /**
     * 过滤页面中的标签信息
     * @param htmlURL        要解析的htmlURL页面
     * @param encoding    使用的字符编码
     * @param tagclass    
     * 要或取得页面标签,如要获取页面中的超链接 值为LinkTag.class,要获取页面中图片链接,值为ImageTag.class
     * 要传入的标签类为org.htmlparser.tags下的
     */
    public static void nodeFilterTagClass(String htmlURL,String encoding,Class tagclass){
        try {
            Parser parser = new Parser();
            // 添加 url代理,欺骗网页
            URL url = new URL(htmlURL);
            HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
            httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0(compatible; MSIE 5.0; Window NT; DigExt)");
            parser.setConnection(httpURLConnection);
            //parser.setURL(htmlURL);
            if(null==encoding){
                parser.setEncoding(parser.getEncoding());
            }else{
                parser.setEncoding(encoding);
            }
            //过滤页面中的链接标签
            NodeFilter filter = new NodeClassFilter(tagclass);
            NodeList list = parser.extractAllNodesThatMatch(filter);
            for(int i=0; i<list.size();i++){
                Node node = (Node)list.elementAt(i);
                System.out.println("link is :" + node.toHtml());
            }
            
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    public static void main(String[] args) {
    	// 爬取的url链接地址
        String htmlURL = "http://blog.csdn.net/u010700335";
        //获取页面中的<a href='xxx' [属性]>格式的链接
        nodeFilterTagClass(htmlURL, "UTF-8", LinkTag.class);
        //或取页面中的<img src='xxx' [属性='属性值']>格式的链接
        nodeFilterTagClass(htmlURL, "UTF-8", ImageTag.class);
        //或取页面<title>xxxx</title>标题
        nodeFilterTagClass(htmlURL, "UTF-8", TitleTag.class);
        //获取页面<div [属性='属性值']> xxx</div>
        nodeFilterTagClass(htmlURL, "UTF-8", Div.class);

}


大数据处理之道 (htmlparser 过滤器<二>)

标签:htmlparser filter   大数据爬取   403错误   user-agent   

原文地址:http://blog.csdn.net/u010700335/article/details/42147931

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!