上一篇:Java網路爬蟲實操(3)
本篇文章繼續圍繞NetDiscovery框架中pipeline的用法,結合另一個專門爬圖片的框架PicCrawler,實現圖片的批量下載和資訊的儲存。順便介紹一下Vert.X框架中的mongo基礎操作。
1) 目標任務
- 找一個有很多美女圖片的網址
- 解析出要下載的圖片連結,放到一個list中
- 把list傳到圖片爬蟲框架,幾行程式碼搞定
- 把需要的資訊儲存到mongodb
//參考以前的文章,本篇要新增的依賴包
implementation 'io.vertx:vertx-mongo-client:3.5.0'
implementation 'com.cv4j.piccrawler:crawler:1.0.0'
複製程式碼
2) 解析網頁
package com.sinkinka.parser;
import com.cv4j.netdiscovery.core.domain.Page;
import com.cv4j.netdiscovery.core.domain.ResultItems;
import com.cv4j.netdiscovery.core.parser.Parser;
import com.cv4j.netdiscovery.core.parser.selector.Selectable;
import java.util.ArrayList;
import java.util.List;
public class GirlParser implements Parser {
@Override
public void process(Page page) {
String xpath = "//div[@class='contLeftA']/ul[@class='artCont cl']/li";
List<Selectable> liList = page.getHtml().xpath(xpath).nodes();
List<String> imgUrlList = new ArrayList<>();
for(Selectable li : liList) {
String imageUrl = li.xpath("//img/@src").get();
imgUrlList.add(imageUrl);
}
ResultItems resultItems = page.getResultItems();
resultItems.put("needDownloadImage", imgUrlList);
}
}
複製程式碼
3) 下載圖片
package com.sinkinka.pipeline;
import com.cv4j.netdiscovery.core.domain.ResultItems;
import com.cv4j.netdiscovery.core.pipeline.Pipeline;
import com.cv4j.piccrawler.PicCrawlerClient;
import com.cv4j.piccrawler.download.strategy.FileGenType;
import com.cv4j.piccrawler.download.strategy.FileStrategy;
import java.util.List;
public class SaveGirlImage implements Pipeline {
@Override
public void process(ResultItems resultItems) {
// 1.下載圖片
List<String> urls = resultItems.get("needDownloadImage");
PicCrawlerClient.get()
.timeOut(5000)
.fileStrategy(new FileStrategy() {
@Override
public String filePath() {
return "temp";//儲存圖片的資料夾
}
@Override
public String picFormat() {
return "jpg";//儲存圖片的格式
}
@Override
public FileGenType genType() {
return FileGenType.AUTO_INCREMENT;//儲存圖片的檔名生成規則
}
})
.build()
.autoReferer() //自動設定refer
.downloadPics(urls); //最關鍵的一行程式碼,把list扔進去就可以了
//2. 設定資訊給下一個pipeline SaveGirlImageLog使用
resultItems.put("savecount", urls.size());
}
}
複製程式碼
4) 儲存資訊
package com.sinkinka.pipeline;
import com.cv4j.netdiscovery.core.domain.ResultItems;
import com.cv4j.netdiscovery.core.pipeline.Pipeline;
import io.vertx.core.AsyncResult;
import io.vertx.core.Handler;
import io.vertx.core.json.JsonObject;
import io.vertx.ext.mongo.MongoClient;
import java.util.Date;
public class SaveGirlImageLog implements Pipeline {
private MongoClient mongoClient; //基於vertx的物件
private String collectionName;
public SaveGirlImageLog(MongoClient mongoClient, String collectionName){
this.mongoClient = mongoClient;
this.collectionName = collectionName;
}
@Override
public void process(ResultItems resultItems) {
//設定要儲存的資料
JsonObject jsonObject = new JsonObject();
jsonObject.put("savecount", Integer.parseInt(resultItems.get("savecount").toString()));
jsonObject.put("savetime", new Date().getTime());
//1:儲存到mongo資料庫裡
mongoClient.save(collectionName, jsonObject, new Handler<AsyncResult<String>>() {
@Override
public void handle(AsyncResult<String> response) {
if (response.succeeded()) {
System.out.println("save success, new id=" + response.result());
} else {
System.out.println("save failure");
response.cause().printStackTrace();
}
}
});
//2:另一種lambda表示式的寫法
// mongoClient.save(collectionName, jsonObject, response -> {
// if (response.succeeded()) {
// System.out.println("save success, new id=" + response.result());
// } else {
// System.out.println("save failure");
// response.cause().printStackTrace();
// }
// });
}
}
複製程式碼
5) 執行程式
- 一個parser類GirlParser
- 兩個pipeline類SaveGirlImage、SaveGirlImageLog
- Vert.X的MongoClient,非同步非阻塞的方法
package com.sinkinka;
import com.cv4j.netdiscovery.core.Spider;
import com.sinkinka.parser.GirlParser;
import com.sinkinka.pipeline.SaveGirlImage;
import com.sinkinka.pipeline.SaveGirlImageLog;
import io.vertx.core.Vertx;
import io.vertx.core.json.JsonObject;
import io.vertx.ext.mongo.MongoClient;
public class GirlSpider {
public static void main(String[] args) {
String url = "http://www.woyaogexing.com/touxiang/nv/2018/586210.html";
//建立一個vertx的mongoClient,SaveLog
MongoClient mongoClient = MongoClient.createShared(Vertx.vertx(), getDatabaseConfig());
Spider.create()
.name("getGirlImage")
.url(url)
.parser(new GirlParser())
.pipeline(new SaveGirlImage())
.pipeline(new SaveGirlImageLog(mongoClient, "SaveLog"))
.run();
}
public static JsonObject getDatabaseConfig() {
JsonObject jsonObject = new JsonObject();
jsonObject.put("connection_string", "mongodb://127.0.0.1:27017");
jsonObject.put("db_name", "test");
// jsonObject.put("username", "");
// jsonObject.put("password", "");
return jsonObject;
}
}
複製程式碼
6) 基於Vert.X的mongo操作
本篇的mongo操作使用的類是:io.vertx.ext.mongo.MongoClient Vert.X的MongoClient提供的方法都是非同步非阻塞的,非常靈活:
建議大家去了解一下增刪改查,都有一個Handler<AsyncResult<[Type]>> 參考:http://vertx.io/docs/vertx-mongo-client/java/7) 總結
利用框架我們能快捷的實現一個圖片爬蟲程式,本地有開發環境的話,幾分鐘就能搞定。以上例子僅僅是拋磚引玉,大家自由發揮其中的使用場景吧。
圖片爬蟲框架PicCrawler還有很多強大的用法,大家有興趣可以去github上詳細瞭解吧。
下一篇:Java網路爬蟲實操(5)