JAVA实现一个简单的爬虫

时间:2021-08-29 00:11:47

网络爬虫是一种自动获取网页内容的程序,是搜索引擎的重要组成部分。

用java打造属于自己的爬虫

网络上的图片太多 一个一个的保存实在太浪费时间

基于此 就使用了java做了一个小工具

功能是文件的复制 以及 网络上图片的下载

首先是封装一个IOUtlis类方法,用于实现文件的复制和文件传输流的关闭

package hh;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.io.Reader;
import java.io.Writer;
import java.net.*;
public class IOUtils
{
//buff缓冲区

public static void closeQuietly(FileOutputStream outpustream)
{
if(outpustream!=null)
{


try
{
outpustream.close();
}


catch (IOException e)
{
// TODO 自动生成的 catch 块
//e.printStackTrace();
}



}


}
public static void closeQuietly(FileInputStream inStream)
{
if(inStream!=null)
{


try
{
inStream.close();
}


catch (IOException e)
{
// TODO 自动生成的 catch 块
//e.printStackTrace();
}



}


}
public static void closeQuietly(Reader reader)
{
if(reader!=null)
{
try
{
reader.close();

}
catch(IOException e )
{
//

}


}


}

public static void copy(InputStream instream,OutputStream outputstream,int buff) throws IOException
{
byte[] buffer=new byte[buff];
int len;//计算读入的数据
if(instream==null)
{
throw new IllegalArgumentException("INPUTSTREAM不能为空");

}
if(outputstream==null)
{
throw new IllegalArgumentException("outputstream不能为空");

}
if(buff<=0)
{

throw new IllegalArgumentException("outputstream不能为空");


}
while((len=instream.read(buffer))>0)
{
//不知道怎么处理异常就让调用者处理
outputstream.write(buffer,0,len);

}

}

public static void copy(InputStream instream,OutputStream outputstream) throws IOException
{

copy(instream,outputstream,1024);
}

 copy这个方法实现了文件的复制功能,closequietly将文件流安静的关闭

方案一

文件的复制,目的是将E盘的1.txt文件复制到W盘的2.txt文件里 最后不要忘了关闭文件的输入输出流

不然可能导致复制失败

package hh;

import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;

public class test {

public static void main(String[] args)
{
long startMS=System.currentTimeMillis();

FileInputStream fis=null;
FileOutputStream fos=null;


try
{
fis=new FileInputStream("E:\\1.txt");
fos=new FileOutputStream("W:\\2.txt");
IOUtils.copy(fis,fos,1024);
long endMS=System.currentTimeMillis();
System.out.println("拷贝完成 耗时"+(endMS-startMS));

} catch (FileNotFoundException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
finally
{
try {
fos.close();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
try {
fis.close();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}

}



}

  方案二

   调用了java.net.*;这个包 使用url类将图片地址比如下图画圈部分当做一个文件的输入流来使用,再使用copy方法将图片复制到本地。最后我发现该网站所有的图片都有一个特定的图片递增规则(可以考虑使用正则表达式)这样就可以通过变量来完成网站里所有的图片的下载

 

JAVA实现一个简单的爬虫

 

package hh;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.*;
public class abc {


public static void main(String []args)
{
InputStream inpustream=null;
FileOutputStream outputstream=null;

try {
long start=System.currentTimeMillis();
int i=0;
for(i=1;i<550;i++)
{
URL url=new URL("http://www.bokee.com//topic/images/%E6%9C%AA%E6%A0%87%E9%A2%98-2("+i+").jpg");
inpustream=url.openStream();

// http://www.bokee.com//topic/images/%E6%9C%AA%E6%A0%87%E9%A2%98-1(530).jpg
// <img src="/_upload/article/images/66/b6/810dfe294d62aa81fba5ca1baef9/57c958b6-72e8-4331-a431-24b06039b649.jpg">
// <img src="/_upload/article/images/99/a1/416529614b32ba6a2f824bbbafae/04b85865-f1b9-4128-b33f-04eff1e81c5a.jpg">
outputstream=new FileOutputStream("W://main//"+i+".png");
IOUtils.copy(inpustream, outputstream);
}
long end=System.currentTimeMillis();

System.out.println("下载成功,耗时"+(start-end)+"毫秒");
}

catch (MalformedURLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}





}

  

 成果如下,最终满足了自己的需求,节省了时间。

JAVA实现一个简单的爬虫