Java 爬虫是一种利用 Java 语言编写的网络爬虫,主要用于从互联网上获取数据。在 Java 中,常用的爬虫框架有 Jsoup、HttpClient、Selenium 等。
其中 Jsoup 是一种解析 HTML 文档的 Java 库,可以方便地进行 HTML 解析和内容提取。HttpClient 是 Apache 组织开发的 Java HTTP 客户端库,可以模拟 HTTP 请求和响应。Selenium 是一个自动化测试工具,可以模拟用户在浏览器中的操作,对于需要进行登录等操作的网站比较有用。
使用 Java 爬虫需要注意一些法律和道德规范,如不得爬取他人的隐私数据、不得对网站造成过大的负担等。同时,也需要注意反爬虫机制,如设置 User-Agent、使用代理 IP 等方式来规避被封禁的风险。
xxl-crawler是某位大佬开源的一个java爬虫,熟悉java语言的用起来可以非常顺手。
0x01:新建工程,并在pom.xml文件引入
<dependency>
<groupId>com.xuxueli</groupId>
<artifactId>xxl-crawler</artifactId>
<version>1.2.2</version>
</dependency>
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.11.2</version>
</dependency>
0x02:编写页面数据对象
在此推荐两款工具,可以直观迅速的获取页面元素的Jquery cssQuery表达式。
Chrome DevTools:首先定位元素位置,然后从Element选中选中元素,点击右键选择“Copy + Copy selector”即可;
Chrome DevTools使用如图
Jquery Selector Helper(Chrome插件):首先定位元素位置,然后从Element右侧打开Selector界面,然后定位元素即可;
package com.spider.page.vo;
import com.xuxueli.crawler.annotation.PageFieldSelect;
import com.xuxueli.crawler.annotation.PageSelect;
import com.xuxueli.crawler.conf.XxlCrawlerConf.SelectType;
@PageSelect(cssQuery = "body > div.container > div > div > table > tbody > tr")
public class GzGemasComCnPageMainVo {
@PageFieldSelect(cssQuery = "td:nth-child(1)")
private String code;
@PageFieldSelect(cssQuery = "td:nth-child(2)")
private String title;
@PageFieldSelect(cssQuery = "td:nth-child(3)")
private String status;
@PageFieldSelect(cssQuery = "td:nth-child(4)")
private String date;
@PageFieldSelect(cssQuery = "td:nth-child(2) > a", selectType=SelectType.ATTR, selectVal="onclick")
private String url;
public String getCode() {
return code;
}
public void setCode(String code) {
this.code = code;
}
public String getTitle() {
return title;
}
public void setTitle(String title) {
this.title = title;
}
public String getStatus() {
return status;
}
public void setStatus(String status) {
this.status = status;
}
public String getDate() {
return date;
}
public void setDate(String date) {
this.date = date;
}
public String getUrl() {
return url;
}
public void setUrl(String url) {
this.url = url;
}
}
0x03:创建爬虫爬取数据
XxlCrawler crawler = new XxlCrawler.Builder()
.setUrls("http://gz.gemas.com.cn/portal/article/proList.shtml?proType=guquan&typeGz=G3T3&proSource=&pageIndex=1")
.setAllowSpread(false) //允许扩散爬取,将会以现有URL为起点扩散爬取整站
.setThreadCount(1)
.setPageParser(new PageParser<GzGemasComCnPageMainVo>() {
@Override
public void parse(Document html, Element pageVoElement, GzGemasComCnPageMainVo gzGemasComCnPageVo) {
// 解析封装 PageVo 对象
String pageUrl = html.baseUri();
logger.info("pageUrl: " + pageUrl);
logger.info("Code: " + gzGemasComCnPageVo.getCode() + ", Title: " + gzGemasComCnPageVo.getTitle()
+ ", sdate: " + gzGemasComCnPageVo.getDate() + ", url: " + gzGemasComCnPageVo.getUrl()
+ ", status: " + gzGemasComCnPageVo.getStatus());
}
})
.build();
crawler.start(true);
标签:非常,Java,String,爬虫,cssQuery,public,crawler
From: https://www.cnblogs.com/q-q56731526/p/17384012.html