资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

Java如何实现爬虫-创新互联

这篇文章主要介绍了Java如何实现爬虫,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

为克拉玛依区等地区用户提供了全套网页设计制作服务,及克拉玛依区网站建设行业解决方案。主营业务为做网站、网站设计、克拉玛依区网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!

一、代码

爬虫的实质就是打开网页源代码进行匹配查找,然后获取查找到的结果。

打开网页:

URL url = new URL("/tupian/20230522/6896901.html 获取
* 将正则规则进行对象的封装。
* Pattern p = Pattern.compile("a*b");
* //通过正则对象的matcher方法字符串相关联。获取要对字符串操作的匹配器对象Matcher .
* Matcher m = p.matcher("aaaaab");
* //通过Matcher匹配器对象的方法对字符串进行操作。
* boolean b = m.matches();
*/

import java.io.BufferedReader;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URL;
import java.util.ArrayList;
import java.util.List;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
 
public class Spider {
 
    public static void main(String[] args) throws IOException {
//        List list = getMails();
//        for(String mail : list){
//            System.out.println(mail);
//        }
    
        List list = getMailsByWeb();
        for(String mail : list){
            System.out.println(mail);
        }
    }
 
    public static List  getMailsByWeb() throws IOException{
        //1,读取源文件。
        //URL url = new URL("http://192.168.1.100:8080/myweb/mail.html");
        //URL url = new URL("http://localhost:8080/SecondWeb/index.jsp");
        URL url = new URL("/tupian/20230522/6896901.html
 
        BufferedReader bufr = new BufferedReader(new InputStreamReader(url.openStream()));
 
 
        //2,对读取的数据进行规则的匹配。从中获取符合规则的数据.
        String mail_regex = "\\w+@\\w+(\\.\\w+)+";
 
        List list = new ArrayList();
 
        Pattern p = Pattern.compile(mail_regex);
        String line = null;
 
        while((line=bufr.readLine())!=null){
 
            Matcher m = p.matcher(line);
            while(m.find()){
                //3,将符合规则的数据存储到集合中。
                list.add(m.group());
            }
 
        }
        return list;
    }
 
    public static List  getMails() throws IOException{
        //1,读取源文件。
        BufferedReader bufr = new BufferedReader(new FileReader("c:\\mail.html"));
 
 
        //2,对读取的数据进行规则的匹配。从中获取符合规则的数据.
        String mail_regex = "\\w+@\\w+(\\.\\w+)+";
 
        List list = new ArrayList();
 
        Pattern p = Pattern.compile(mail_regex);
        String line = null;
 
        while((line=bufr.readLine())!=null){
 
            Matcher m = p.matcher(line);
            while(m.find()){
                //3,将符合规则的数据存储到集合中。
                list.add(m.group());
            }
 
        }
        return list;
    }
}

二、运行结果

abc1@sina.com.cn1@1.1

感谢你能够认真阅读完这篇文章,希望小编分享的“Java如何实现爬虫”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联-成都网站建设公司行业资讯频道,更多相关知识等着你来学习!


当前名称:Java如何实现爬虫-创新互联
文章网址:http://www.cdkjz.cn/article/pigos.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220