网络爬虫 kamike.collect

时间:2023-03-09 09:32:18
网络爬虫 kamike.collect

Another Simple Crawler 又一个网络爬虫,可以支持代理服务器的FQ爬取。

1.数据存在mysql当中。

2.使用时,先修改web-inf/config.ini的数据链接相关信息,主要是数据库名和用户名和密码

3.然后访问http://127.0.0.1/fetch/install 链接,自动创建数据库表

4.修改src\java\cn\exinhua\fetch中的RestServlet.java文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
   FetchInst.getInstance().running=true;
   Fetch fetch = new Fetch();
   fetch.setUrl("http://www.washingtonpost.com/");
    fetch.setDepth(3);
    RegexRule regexRule = new RegexRule();
    regexRule.addNegative(".*#.*");
    regexRule.addNegative(".*png.*");
    regexRule.addNegative(".*jpg.*");
    regexRule.addNegative(".*gif.*");
    regexRule.addNegative(".*js.*");
    regexRule.addNegative(".*css.*");
    regexRule.addPositive(".*php.*");
    regexRule.addPositive(".*html.*");
    regexRule.addPositive(".*htm.*");
    Fetcher fetcher = new Fetcher(fetch);
    fetcher.setProxyAuth(true);
    fetcher.setRegexRule(regexRule);
    List<Fetcher> fetchers = new ArrayList<>();
    fetchers.add(fetcher);
    FetchUtils.start(fetchers);
    将其配置为需要的参数,然后访问http://127.0.0.1/fetch/fetch启动爬取
    代理的配置在Fetch.java文件中:
    protected int status;
protected boolean resumable = false;
protected RegexRule regexRule = new RegexRule();
protected ArrayList<String> seeds = new ArrayList<String>();
protected Fetch fetch;
protected String proxyUrl="127.0.0.1";
protected int proxyPort=4444;
protected String proxyUsername="hkg";
protected String proxyPassword="dennis";
protected boolean proxyAuth=false;

5.访问http://127.0.0.1/fetch/suspend可以停止爬取

hubinix / kamike.collect

Watch2 Fork3

Another Simple Crawler — More...

master分支代码最近更新:2015-03-30

下载zip