Python開發環境詳細配置Anaconda+請求庫+解析庫+資料庫+儲存庫+web庫+爬蟲框架+部署庫---Windows篇
首先是一些連結
Python官網
Python官網下載地址
第三方庫
官方文件
中文教程
了不起的Python
安裝方式有兩種
首選anaconda安裝,它整合了Python的科學計算環境和常用庫,後面環境配置更加簡便
另一種是下載安裝包標準安裝,百度有步驟,很簡單
1.Anaconda安裝
下載連結
下載3.6版本的就可以了
然後下一步
這個可以讓anaconda的Python3.6作為系統認可的Python3.6
pycharm等軟體可以直接使用anaconda的Python3.6
然後執行圖形介面
在anaconda安裝路徑中新增Python3(就是複製Python)
新增系統變數
高階系統設定–>環境變數–>系統變數path編輯
新增anaconda路徑,新增anaconda/scripts路徑
2.請求庫的安裝
1.requests庫的安裝
若是anaconda安裝,這些庫已經存在
2.selenium庫的安裝
3.Chromedriver的安裝
首先下載Chrome瀏覽器
幫助,關於Google Chrome,記住版本號
開啟Chromedriver官網,下載
官網
下載速度問題可以去找映象站
下載完成後,將其可執行檔案新增到環境變數中,
或直接複製到python的scripts資料夾中
開啟埠後,在程式碼中可以正常呼叫
4.GeckoDriver庫的安裝
同上,這個庫對應的火狐瀏覽器的驅動
首先正確安裝火狐瀏覽器,記住版本號
同理,將其複製到python/scripts目錄下
驗證使用
5.PhantomJS無介面的瀏覽器安裝
PhantomJS是一個無介面的,可指令碼程式設計的WebKit瀏覽器引擎,它原生支援多種Web標準,DOM操作,CSS選擇器,JSON,Canvas,SVG。
依然將其複製到python的scripts目錄下
命令列可以直接呼叫
selenium 不好好支援 phantomJS了,以後用到再看能否正常爬取
6.aiohttp庫的安裝
requests庫是一個阻塞式HTTP請求庫,當我們發出一個請求後,程式會一直等待伺服器響應,直到得到響應後,程式才會進行下一步處理。其實,這個過程比較耗費時間。如果程式可以在這個等待過程中做一些其他的事情,如進行請求的排程,響應的處理,那麼爬取效率一定會大大提高。
aioHTTP就是一個這樣的提供非同步web服務的庫
aiohttp的非同步操作藉助於 async/await 的關鍵字的寫法變得更加簡潔,架構更加清晰。使用非同步請求庫進行資料抓取時,會大大提高效率。
另外,官方還推薦了兩個庫,一個是字元編碼檢測庫,cchardet
另一個是加速DNS的解析庫,aiodns.
測試
3.解析庫的安裝
1.lxml庫的安裝
anaconda自帶,否則,pip安裝即可
2.beautifulsoup庫的安裝
沒有的話pip安裝即可
3.pyquery庫的安裝
4.tesserocr庫的安裝–OCR識別驗證碼
識別這張圖片
識別中文目前會亂碼,可能沒有語料庫
pip 安裝出錯了,於是百度,採用conda安裝,成功
測試
4.資料庫的安裝
1.MYSQL資料庫的安裝
較為簡單的方法是下載phpstudy
裡面整合了MySQL資料庫,開啟關閉管理都很方便
且整合PHPmyadmin網頁管理
2.MongoDB資料庫的安裝
將bin目錄放到系統變數中
3.Redis資料庫的安裝
安裝Redis 桌面管理工具
5.儲存庫的安裝
1.pymysql
2.pymongo
3.redis-py
4.redis-dump的安裝
Redis-dump是一個用於Redis資料庫匯入匯出的工具,是基於ruby實現的
第一步,安裝ruby
ruby下載地址
翻牆下載吧孩子們
各憑本事
6.web庫的安裝
1.flask安裝
anaconda自帶,但是例子呼叫有錯誤,用時再搞
2.tornado安裝
依然
7.APP爬取庫的相關安裝
這部分用到再進行安裝吧
8.爬蟲框架的安裝
1.pyspider框架的安裝
執行
可以直接瀏覽器開啟
2.Scrapy框架的安裝
3.scrapy-splash
pass
4.scrapy-redis
9.部署相關庫的安裝
1.docker
安裝失敗,還是Linux用吧
2.scrapyd安裝
3.scrapyd-client安裝
相關文章
- 【資料庫】資料庫儲存過程(一)資料庫儲存過程
- 【MySQL資料庫】認識資料庫+環境搭建--------Windows系統MySql資料庫Windows
- 【爬蟲】第二章-基本請求庫爬蟲
- Python3爬蟲資料入資料庫---把爬取到的資料存到資料庫,帶資料庫去重功能Python爬蟲資料庫
- 明解資料庫------資料庫儲存演變史資料庫
- #第9篇分享:python資料儲存-MySQL資料庫PythonMySql資料庫
- 用【庫存】看懂雲開發資料庫事務資料庫
- Python爬蟲之BeautifulSoup庫Python爬蟲
- Python爬蟲之selenium庫使用詳解Python爬蟲
- python爬蟲常用庫之urllib詳解Python爬蟲
- python爬蟲常用庫之requests詳解Python爬蟲
- python爬蟲常用庫之BeautifulSoup詳解Python爬蟲
- 儲存資料到MySql資料庫——我用scrapy寫爬蟲(二)MySql資料庫爬蟲
- python環境連結Oracle資料庫PythonOracle資料庫
- gitlab資料庫儲存位置Gitlab資料庫
- 資料庫儲存過程資料庫儲存過程
- python爬蟲庫技術分享Python爬蟲
- 爬蟲解析庫:XPath 輕鬆上手爬蟲
- 雲資料庫RDS儲存能力進化解析!資料庫
- Windows環境下,.lib匯入庫 詳解Windows
- 爬蟲之requests庫爬蟲
- Linux 環境下安裝 Nexus 私服儲存庫Linux
- 【Python3網路爬蟲開發實戰】5-資料儲存-2-關係型資料庫儲存-1 MySQL儲存Python爬蟲資料庫MySql
- 報表資料分庫儲存
- MySQL資料庫操作、儲存引擎MySql資料庫儲存引擎
- MySql資料庫——儲存過程MySql資料庫儲存過程
- 4.爬蟲 requests庫講解 GET請求 POST請求 響應爬蟲
- 資料庫配置資料庫
- 初涉MySQL資料庫部署解析MySql資料庫
- 爬蟲中網路請求的那些事之urllib庫爬蟲
- SpringCloudConfig環境庫SpringGCCloud
- openGauss資料庫JDBC環境連線配置(Eclipse)資料庫JDBCEclipse
- python爬蟲 之 BeautifulSoup庫入門Python爬蟲
- Python爬蟲神器requests庫的使用Python爬蟲
- Python GDAL庫在Anaconda環境中的配置Python
- 【Python3網路爬蟲開發實戰】5-資料儲存-3-非關係型資料庫儲存-1 MongoDB儲存Python爬蟲資料庫MongoDB
- 【Python3網路爬蟲開發實戰】5-資料儲存-3-非關係型資料庫儲存-2 Redis儲存Python爬蟲資料庫Redis
- Flutter持久化儲存之資料庫儲存Flutter持久化資料庫