Java 从互联网上爬邮箱代码示例

时间:2022-05-08 21:56:39

网页爬虫:其实就是一个程序用于在互联网中获取符合指定规则的数据。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
package day05;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URL;
import java.util.ArrayList;
import java.util.List;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class SpiderDemo {
  public static void main(String[] args) throws IOException {
    List<String> list = getMailByWeb();
    for (String mail : list) {
      System.out.println(mail);
    }
  }
  public static List<String> getMailByWeb() throws IOException {
    URL url = new URL("http://www.itheima.com/aboutt/1376.html");
    BufferedReader input = new BufferedReader(new InputStreamReader(url.openStream()));
    String regex = "\\w+@\\w+(\\.\\w+)+";
    Pattern p = Pattern.compile(regex);
    List<String> list = new ArrayList<String>();
    String line = null;
    while ((line = input.readLine()) != null) {
      Matcher m = p.matcher(line);
      while (m.find()) {
        list.add(m.group());
      }
    }
    return list;
  }
}

总结

 Jsoup解析html方法,通常被人称之为爬虫技术。(个人认为可能是返回的数据,只有一小部分是我们需要的,造成了数据的冗余,和网络延迟)。

以上就是本文关于Java 从互联网上爬邮箱代码示例的全部内容,希望对大家有所帮助。有什么问题可以随时留言,小编会及时回复大家。

原文链接:http://blog.csdn.net/u012796139/article/details/50603961