通過代理抓取網頁code方法 proxy httpurlconnection
非常簡單,非常容易用--可以可連線
package com.wanju.project001.zonghe.common.util.wjgate;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.InetSocketAddress;
import java.net.Proxy;
import java.net.URL;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class WJWrapProxyTool {
/**
* 通過代理方式來聯網的
* @param url
* @param encode
* @param proxy
* @return
*/
public static String getHtmlContent(URL url, String encode,String proxyflg) {
StringBuffer contentBuffer = new StringBuffer();
int responseCode = -1;
HttpURLConnection con = null;
try {
Proxy proxy = new Proxy(java.net.Proxy.Type.HTTP,new InetSocketAddress("sswwdwdddssxxxxx", 8080));
// con = (HttpURLConnection) url.openConnection();//原來連線方式
con = (HttpURLConnection) url.openConnection(proxy);
con.setRequestProperty("User-Agent", "Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)");// IE�����������
con.setConnectTimeout(60000);
con.setReadTimeout(60000);
// �����ҳ������Ϣ��
responseCode = con.getResponseCode();
if (responseCode == -1) {
System.out.println(url.toString() + " : connection is failure...");
con.disconnect();
return null;
}
if (responseCode >= 400) // ����ʧ��
{
System.out.println("����ʧ��:get response code: " + responseCode);
con.disconnect();
return null;
}
InputStream inStr = con.getInputStream();
InputStreamReader istreamReader = new InputStreamReader(inStr, encode);
BufferedReader buffStr = new BufferedReader(istreamReader);
String str = null;
while ((str = buffStr.readLine()) != null)
contentBuffer.append(str);
inStr.close();
} catch (IOException e) {
e.printStackTrace();
contentBuffer = null;
System.out.println("error: " + url.toString());
} finally {
con.disconnect();
}
return contentBuffer.toString();
}
//返回所有
public static String getHtmlContent(String url, String encode) {
if (!url.toLowerCase().startsWith("http://")) {
url = "http://" + url;
}
try {
URL rUrl = new URL(url);
return getHtmlContent(rUrl, encode,"proxy");
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
public static void main(String[] args) {
String content = getHtmlContent("http://www.baidu.com", "gbk");
System.out.println("content length"+content);
}
}
相關文章
- Python爬蟲使用代理proxy抓取網頁Python爬蟲網頁
- 使用代理抓取網頁的原因網頁
- Python通過代理多執行緒抓取圖片Python執行緒
- 爬取網頁後的抓取資料_3種抓取網頁資料方法網頁
- 網頁抓取與IPIDEA代理IP的關係網頁Idea
- 網頁抓取選擇代理應該考慮什麼?網頁
- 為什麼需要用代理進行網頁抓取?網頁
- 藉助代理IP進行網頁抓取的終極指南網頁
- 使用 `open-uri.with_proxy` 方法開啟網頁網頁
- Proxy代理資料攔截方法
- 前端跨域方法之proxy(代理)前端跨域
- CentOS7 通過代理上網CentOS
- 如何抓取網頁資訊?網頁
- python抓取網頁Python網頁
- Perl 6 網頁抓取網頁
- 使用代理進行抓取網頁的主要原因是什麼?網頁
- 通過shell抓取html資料HTML
- 代理模式(Proxy)模式
- 配置proxy代理
- wget 網頁爬蟲,網頁抓取工具wget網頁爬蟲
- Linux企業級專案實踐之網路爬蟲(9)——通過URL抓取網頁內容Linux爬蟲網頁
- 通過JAVA的API可以順利的抓取網路上的大部分指定的網頁內容JavaAPI網頁
- 網頁資料抓取之噹噹網網頁
- 代理(Proxy)的解析
- 代理模式(Proxy Pattern)模式
- 批量抓取網頁pdf檔案網頁
- 抓取網頁中的原始碼.網頁原始碼
- 從網頁上抓取資料網頁
- 用scrapy進行網頁抓取網頁
- .Net Core下通過Proxy 模式 使用 WCF模式
- Java抓取網頁資料(原網頁+Javascript返回資料)網頁JavaScript
- 爬蟲抓取網頁資料原理爬蟲網頁
- scrapy抓取ajax請求的網頁網頁
- C#抓取網頁HTML內容C#網頁HTML
- java抓取網頁的郵件地址Java網頁
- 透明代理Transparent Proxy
- Java Proxy動態代理Java
- 代理(Proxy)和反射(Reflection)反射