基於RxJava2實現的簡單圖片爬蟲

Tony沈哲發表於2017-10-28

今年十月份以來,跟朋友嘗試匯入一些圖片到tensorflow來生成模型,這就需要大量的圖片。剛開始我只寫了一個簡單的HttpClient程式來抓取圖片,後來為了通用性索性寫一個簡單的圖片爬蟲程式。它可以用於抓取單張圖片、多張圖片、某個網頁下的所有圖片、多個網頁下的所有圖片。

github地址:https://github.com/fengzhizi715/PicCrawler

這個爬蟲使用了HttpClient、RxJava2以及Java 8的一些特性。它支援一些簡單的定製,比如定製User-Agent、Referer、Cookies等。

一.下載安裝:

對於Java專案如果使用gradle構建,由於預設不是使用jcenter,需要在相應module的build.gradle中配置

repositories {
    mavenCentral()
    jcenter()
}

Gradle:

compile 'com.cv4j.piccrawler:crawler:0.2.1'

Maven:

<dependency>
  <groupId>com.cv4j.piccrawler</groupId>
  <artifactId>crawler</artifactId>
  <version>0.2.1</version>
  <type>pom</type>
</dependency>

二.使用方法:

2.1 下載單張圖片

  1. 普通方式
        String url = "..."; // 圖片的地址
        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .repeat(200) // 重複200次
                .build()
                .downloadPic(url);

在這裡,timeOut()表示網路請求的超時時間。fileStrategy()表示存放的目錄、檔案使用的格式、生成的檔案時使用何種策略。repeat()表示對該圖片請求重複的次數。

PicCrawler支援多種檔案的生成策略,比如隨機生成檔名、從1開始自增長地生成檔名、生成指定的檔名等等。

下圖顯示了使用該程式對某驗證碼的圖片下載200次。


2613397-d19d4b16c9878ab3.png
下載200張驗證碼的圖片.png
  1. 使用RxJava的方式下載
        String url = "..."; // 圖片的地址
        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .repeat(200)
                .build()
                .downloadPicUseRx(url);
  1. 使用RxJava,下載之後的圖片還能做後續的處理
        String url = "..."; // 圖片的地址

        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .repeat(200)
                .build()
                .downloadPicToFlowable(url)
                .subscribe(new Consumer<File>() {
                    @Override
                    public void accept(File file) throws Exception {
                        // do something
                    }
                });

在Consumer中,可以對檔案做一些後續的處理。

2.2 下載多張圖片

        List<String> urls = ...; // 多張圖片地址的集合
        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .build()
                .downloadPics(urls);

2.3 下載某個網頁的全部圖片

        String url = "http://www.jianshu.com/u/4f2c483c12d8"; // 針對某一網址
        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .build()
                .downloadWebPageImages(url);

使用上面的程式,對我簡書主頁上的圖片進行抓取。


2613397-27fcca57bd0cbd51.png
簡書的主頁.png

2.4 下載多個網頁的全部圖片

        List<String> urls = new ArrayList<>(); // 多個網頁的集合

        urls.add("http://www.jianshu.com/u/4f2c483c12d8");
        urls.add("https://toutiao.io/");

        CrawlerClient.get()
                .timeOut(6000)
                .fileStrategy(new FileStrategy() {

                    @Override
                    public String filePath() {
                        return "temp";
                    }

                    @Override
                    public String picFormat() {
                        return "png";
                    }

                    @Override
                    public FileGenType genType() {

                        return FileGenType.AUTO_INCREMENT;
                    }
                })
                .build()
                .downloadWebPageImages(urls);

下載個人簡書主頁上的圖以及開發者頭條的圖片。


2613397-ba62dd2ed33a2a6a.png
多個網址的圖片下載.png

三. 部分原始碼解析

3.1 下載某個網頁的全部圖片

downloadWebPageImages()方法表示下載某個url的全部圖片。

    /**
     * 下載整個網頁的全部圖片
     * @param url
     */
    public void downloadWebPageImages(String url) {

        Flowable.just(url)
                .map(s->httpManager.createHttpWithGet(s))
                .map(response->parseHtmlToImages(response))
                .subscribe(urls -> downloadPics(urls),
                        throwable-> System.out.println(throwable.getMessage()));
    }

downloadWebPageImages()分成三步:建立網路請求、解析出當前頁面中包含的圖片路徑、下載這些圖片。

第一步,建立網路請求使用了HttpClient。

    public CloseableHttpResponse createHttpWithGet(String url) {

        // 獲取客戶端連線物件
        CloseableHttpClient httpClient = getHttpClient();
        // 建立Get請求物件
        HttpGet httpGet = new HttpGet(url);

        if (Preconditions.isNotBlank(httpParam)) {

            Map<String,String> header = httpParam.getHeader();

            if (Preconditions.isNotBlank(header)) {
                for (String key : header.keySet()) {
                    httpGet.setHeader(key,header.get(key));
                }
            }
        }

        CloseableHttpResponse response = null;

        // 執行請求
        try {
            response = httpClient.execute(httpGet);
        } catch (IOException e) {
            e.printStackTrace();
        }

        return response;
    }

第二步,將返回的response轉換成String型別,使用jsoup將帶有圖片的連結全部過濾出來。

jsoup 是一款Java 的HTML解析器,可直接解析某個URL地址、HTML文字內容。它提供了一套非常省力的API,可通過DOM,CSS以及類似於jQuery的操作方法來取出和運算元據。

private List<String> parseHtmlToImages(CloseableHttpResponse response) {

        // 獲取響應實體
        HttpEntity entity = response.getEntity();

        InputStream is = null;
        String html = null;

        try {
            is = entity.getContent();
            html = IOUtils.inputStream2String(is);
        } catch (IOException e) {
            e.printStackTrace();
        }

        Document doc = Jsoup.parse(html);

        Elements media = doc.select("[src]");
        List<String> urls = new ArrayList<>();

        if (Preconditions.isNotBlank(media)) {

            for (Element src : media) {
                if (src.tagName().equals("img")) {

                    if (Preconditions.isNotBlank(src.attr("abs:src"))) { // 圖片的絕對路徑不為空

                        String picUrl = src.attr("abs:src");
                        log.info(picUrl);
                        urls.add(picUrl);
                    } else if (Preconditions.isNotBlank(src.attr("src"))){ // 圖片的相對路徑不為空

                        String picUrl = src.attr("src").replace("//","");
                        picUrl = "http://"+Utils.tryToEscapeUrl(picUrl);
                        log.info(picUrl);
                        urls.add(picUrl);
                    }
                }
            }
        }

        if (response != null) {
            try {
                EntityUtils.consume(response.getEntity());
                response.close();
            } catch (IOException e) {
                System.err.println("釋放連結錯誤");
                e.printStackTrace();
            }
        }

        return urls;
    }

第三步,下載這些圖片使用了Java 8的CompletableFuture。CompletableFuture是Java 8新增的用於非同步處理的類,而且CompletableFuture的效能也好於傳統的Future。

    /**
     * 下載多張圖片
     * @param urls
     */
    public void downloadPics(List<String> urls) {

        if (Preconditions.isNotBlank(urls)) {
            urls.stream().parallel().forEach(url->{

                try {
                    CompletableFuture.runAsync(() -> downloadPic(url)).get();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                } catch (ExecutionException e) {
                    e.printStackTrace();
                }
            });
        }
    }

3.2 下載多個網頁的全部圖片

downloadWebPageImages()方法還支援傳List集合,表示多個網頁的地址。

    /**
     * 下載多個網頁的全部圖片
     * @param urls
     */
    public void downloadWebPageImages(List<String> urls) {

        if (Preconditions.isNotBlank(urls)) {

            Flowable.fromIterable(urls)
                    .parallel()
                    .map(url->httpManager.createHttpWithGet(url))
                    .map(response->parseHtmlToImages(response))
                    .sequential()
                    .subscribe(list -> downloadPics(list),
                            throwable-> System.out.println(throwable.getMessage()));
        }
    }

在這裡其實用到了ParallelFlowable,因為parallel()可以把Flowable轉成ParallelFlowable。

總結

PicCrawler 是一個簡單的圖片爬蟲,目前基本可以滿足我的需求。未來要是有新的需求,我會不斷新增功能。

在做PicCrawler時,其實還做了一個ProxyPool用於獲取可用代理池的庫,它也是基於RxJava2實現的。

相關文章