HtmlParser的使用-爬虫学习(三)

时间:2021-03-15 01:38:02

  关于这个HtmlParser的学习资料,网上真的很匮乏,这个好用的东西不要浪费啊,所以我在这里隆重的介绍一下。

  HtmlParser是一个用来解析HTML文件的Java包,主要用于转换盒抽取两个方面。

  利用HtmlParser,你可以实现下面的内容的抽取:

  a.文本抽取  b.链接抽取  c.资源抽取。可以搜集到图像和声音文件等资源

  d.链接检查。保证链接是有用的  e.站点检查,可以查看页面不同版本之间的差异

  利用HtmlParser,你可以利用它的转换功能,主要体现在几个方面:

  a.URL重写。能够修正页面中的错误链接  b.广告清楚。清除页面中的广告内容和指向广告的链接

  c.将HTML页面转化成XML页面  d.HTML页面的清理

  

  我们开始学习了,我们先来看看这个包中的类的大体框架:

              HtmlParser的使用-爬虫学习(三)

  在org.htmlparser包下,有几个接口和类:

    Parser类:这个是HtmlParser的核心类,主要的完成对Html页面的分析工具,通过这个类我们可以得到这个页面的各种信息。

      Parser():无参数的构造方法。

      Parser(String resource):根据String参数构建对象,这个参数可以是URL或者本地文件的路径。

      Parser(URLConnection connection):根据一个URLConnection对象构建对象。

      createParser(String html, String charset):通过路径名创建对象,并且设置编码格式。

      elements():返回这个类的元素节点的迭代器,通过这个迭代器我们遍历页面的节点。

      setURL():设置这个Parser类要解析的页面的地址。

      parset():根据一个NodeFilter,也就是一个过滤器去获取过滤剩下的页面信息。

      visitAllNodeWith(NodeVisitor visitor):通过一个NodeVisitor去遍历所有的节点。

  小试牛刀(这个只是简单的使用,具体的类看下面的介绍):

    @Test
public void testVisitAllNodeWith() throws Exception {
Parser parser = new Parser();
parser.setURL("http://www.google.cn");
parser.setEncoding(parser.getEncoding());
NodeVisitor visitor = new NodeVisitor() {
public void visitTag(Tag tag) {
System.out.println("*************************");
System.out.println(tag.getTagName());
System.out.println("*************************");
}
};
parser.visitAllNodesWith(visitor); } @Test
public void testElements() throws Exception {
Parser parser = new Parser();
parser.setURL("http://www.google.cn");
parser.setEncoding(parser.getEncoding());
NodeIterator iterator = parser.elements();
while(iterator.hasMoreNodes()) {
Node node = iterator.nextNode();
System.out.println("*************************");
System.out.println(node.getText());
System.out.println("*************************");
}
}

    Node接口:这个接口就好像定义了一颗树来表示一个HTML页面,定义获取父子兄弟节点的方法,定义了节点到对应节点的html文本的方法,从上面的图中我们看到有AbstractNode这个类,这个是Node的实现类,起到形成树形结构的作用,在HTML页面中有三种类型的Node,RemarkNode代表html中的注释,TagNode代表标签节点,TextNode代表文本节点。

      getChildren():获取子节点,返回一个NodeList对象。

      getFirstChildren():获取第一个子节点,返回一个Node对象。

      getLastChildren():获取最后一个子节点,返回一个Node对象。

      getPreviousSibling():获取前一个兄弟节点。

      getNextSibling():获取后一个兄弟节点。

      getParent():获取父节点。

      getText():获得文本内容。

      toPlainTextString():获取纯文本信息。

      toHtml():获取Html信息。

      accept(NodeVisitor visitor):对这个node应用visitor。

为了方法大家观看,还是自己写一个Html,然后练练方法:

node.html

<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>Title Node</title>
</head>
<body>
<!-- remark -->
<h1>H1 Node</h1>
<div id="d1">
<div id="d2">
<a>Div Node</a>
</div>
</div>
</body>
</html>

测试方法:

    @Test
public void testNode() throws Exception {
Parser parser = new Parser();
parser.setURL("src/node.html");
parser.setEncoding(parser.getEncoding());
NodeIterator iterator = parser.elements();
while(iterator.hasMoreNodes()) {
Node node = iterator.nextNode();
System.out.println("*************************");
System.out.println("Text:" + node.getText());
System.out.println("PlainText:" + node.toPlainTextString());
System.out.println("ToHtml:" + node.toHtml());
System.out.println("*************************");
}
}

    Remark接口:这个接口代表了注释。实现类有RemarkNode,这个类代表了注释节点。

      getText():获取文本。

      setText():设置文本。

    Tag接口:这个接口就代表了Html页面的标签,实现类有TagNode,就是标签节点。

      getAttribute(String name):根据name拿到该标签的属性,当然有对应的setAttribute方法。

      getTagName():拿到这个标签的名字。

      toTagHtml():返回这个标签的html。

    Text接口:这个接口代表Html的文本,实现类有TextNode,就是文本节点。

      getText():拿到文本值。

      setText():设置文本值。

    NodeFilter接口:这个接口定义的是过滤器,通过各种各样的过滤器可以筛选出特定的节点,具体的应用看下面的org.htmlparser.filters包下的类的应用,

      accept(Node node):这个方法的返回值是boolean,方法的作用就是判断要不要保留这个节点。

  在org.htmlparser.visitors包下,有一个很重要的类NodeVisitor,下面讲解一下:

    NodeVisitor类:通过这个visitor我们可以遍历树的每一个节点,对于一个符合条件的节点,我们还可以进行适当的处理。

      visitRemarkNode(Remark remark):访问remark类型的节点,通过重写这个方法可以实现对这个remark类型节点的特定操作。

      visitStringNode(Text text):访问Text类型的节点,通过重写这个方法可以实现对这个Text类型节点的特定操作。

      visitTag(Tag tag):访问Tag类型的节点,通过重写这个方法可以实现对这个Tag类型节点的特定操作。

小试牛刀:

public class MyVisitor extends NodeVisitor{
public MyVisitor() {
} public void visitTag(Tag tag) {
if(tag.getTagName().equals("BODY"))
System.out.println("**********body**************");
System.out.println("TagName:" + tag.getTagName());
} public void visitStringNode(Text text) {
System.out.println("text" + text.getText());
} public static void main(String[] args) throws Exception{
Parser parser = new Parser("src/node.html");
MyVisitor visitor = new MyVisitor();
parser.visitAllNodesWith(visitor); }
}

  在org.htmlparset.filters包下,有着很多过滤器,每个过滤器类都有自己特定的作用:

    判断类Filter:

      TagNameFilter

      HasAttributeFilter

      HasChildFilter

      HasParentFilter

      HasSiblingFilter

      IsEqualFilter

    逻辑运算Filter:

      AndFilter

      NotFilter

      OrFilter

      XorFilter

    其他Filter:

      NodeClassFilter

      StringFilter

      LinkStringFilter

      LinkRegexFilter

      RegexFilter

      CssSelectorNodeFilter

下面是一个关于TagNameFilter的小试牛刀:

    @Test
public void testTagNameFilter() throws Exception{
Parser parser = new Parser("src/node.html");
NodeFilter filter = new TagNameFilter("DIV");
NodeList nodeList = parser.extractAllNodesThatMatch(filter);
if(nodeList != null) {
for(int i = 0; i < nodeList.size(); i++) {
Node node = nodeList.elementAt(i);
System.out.println("Text:" + node.getText());
System.out.println("****************************");
}
}
}

HtmlParser的使用-爬虫学习(三)的更多相关文章

  1. Python爬虫学习三------requests&plus;BeautifulSoup爬取简单网页

    第一次第一次用MarkDown来写博客,先试试效果吧! 昨天2018俄罗斯世界杯拉开了大幕,作为一个伪球迷,当然也得为世界杯做出一点贡献啦. 于是今天就编写了一个爬虫程序将腾讯新闻下世界杯专题的相关新 ...

  2. python爬虫学习&lpar;三&rpar;:使用re库爬取&quot&semi;淘宝商品&quot&semi;,并把结果写进txt文件

    第二个例子是使用requests库+re库爬取淘宝搜索商品页面的商品信息 (1)分析网页源码 打开淘宝,输入关键字“python”,然后搜索,显示如下搜索结果 从url连接中可以得到搜索商品的关键字是 ...

  3. day48-python爬虫学习三

    Python的urllib和urllib2模块都做与请求URL相关的操作,但他们提供不同的功能.他们两个最显着的差异如下: urllib2可以接受一个Request对象,并以此可以来设置一个URL的h ...

  4. Python爬虫学习:三、爬虫的基本操作流程

    本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:三.爬虫的基本操作与流程 一般我们使用Python爬虫都是希望实现一套完整的功能,如下: 1.爬虫目标数据.信息: 2.将 ...

  5. scrapy爬虫学习系列三:scrapy部署到scrapyhub上

    系列文章列表: scrapy爬虫学习系列一:scrapy爬虫环境的准备:      http://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_python_00 ...

  6. python爬虫学习&lpar;1&rpar; —— 从urllib说起

    0. 前言 如果你从来没有接触过爬虫,刚开始的时候可能会有些许吃力 因为我不会从头到尾把所有知识点都说一遍,很多文章主要是记录我自己写的一些爬虫 所以建议先学习一下cuiqingcai大神的 Pyth ...

  7. 爬虫学习之基于Scrapy的爬虫自动登录

    ###概述 在前面两篇(爬虫学习之基于Scrapy的网络爬虫和爬虫学习之简单的网络爬虫)文章中我们通过两个实际的案例,采用不同的方式进行了内容提取.我们对网络爬虫有了一个比较初级的认识,只要发起请求获 ...

  8. Python爬虫学习:二、爬虫的初步尝试

    我使用的编辑器是IDLE,版本为Python2.7.11,Windows平台. 本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:二.爬虫的初步尝试 1.尝试抓取指定网页 ...

  9. 《Python爬虫学习系列教程》学习笔记

    http://cuiqingcai.com/1052.html 大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多.学习过程中我把一些学习的笔记总结下来,还记录了一些自己 ...

随机推荐

  1. Hibernate4&period;0之HibernateSessionFactory源码详解

    import org.hibernate.HibernateException; import org.hibernate.Session; import org.hibernate.cfg.Conf ...

  2. 【转载】实时监听输入框值变化的完美方案:oninput &amp&semi; onpropertychange

    oninput 是 HTML5 的标准事件,对于检测 textarea, input:text, input:password 和 input:search 这几个元素通过用户界面发生的内容变化非常有 ...

  3. ubuntu下的时间设定(硬件时间,系统时间,本地时间)

    问题的来由是在这里: 在cron里设定任务是在凌晨6点执行,检查日志时发现时间总是不对,是在22点左右的时间执行的.研究发现,任务是在本地时间的6点执行了,但不知为什么syslog中的时间都是为utc ...

  4. android第二天(项目的组成结构)

    1:src文件夹分析: helloWorld----src(源码文件夹) MainActivity:主界面类----gen(自动生成的源码文件夹) R.java:对应res文件夹 下面又包含三个内部类 ...

  5. SpringMVC集成AOP错误:java lang classnotfoundexception org aspectj lang joinpoint

    记录自己出现的问题,Spring AOP 使用测试类测试没问题,在SpringMVC启动服务器时出现java lang classnotfoundexception org aspectj lang ...

  6. Android--拦截系统BroadcastReceiver

    前言 上一篇博客,讲了BroadcastReceiver的一些基础内容,如何注册以及发送一个广播,那是基础,不清楚的可以先看看:Android--BroadcastReceiver.但是在实际开发当中 ...

  7. OTZ&percnt;&percnt;&percnt;子谦。大佬

    又上了节课...俩题 计算系数    组合数问题... 要不是大佬指点就只能阶乘暴力算了 (主要还是我忘了杨辉三角) 杨辉三角与组合数C有着千丝万缕的联系,在计算,使用方面相当方便. 先说计算系数 计 ...

  8. &num;学号 20175201张驰 《Java程序设计》第2周学习总结

    教材学习内容总结: 一.第二章: 1:标识符与关键字 2:基本数据类型:四种整数类型(byte.short.int.long).两种浮点数类型(float.double).一种字符类型(char).一 ...

  9. unity打包安卓应用及生成签名

    首先,先进行安卓应用的打包.File->build Settings 弹出界面后选择Android,注意,这里如果黄色区域内容与我这个不一致,说明电脑上没有安装studio(安卓开发环境),具体 ...

  10. Methods to reduce the number of pipeline stages

    Several techniques have been proposed to reduce the number of pipeline stages. We categorize them in ...