TensorFlow 2.0 程式碼實戰專欄開篇

磐創AI發表於2020-04-06

TensorFlow 2.0 程式碼實戰專欄開篇

作者 |  Aymeric Damien

編輯 | 奇予紀

出品 | 磐創AI團隊

原專案 |  

 寫在前面的話

TensorFlow是谷歌2015年開源的通用高效能運算庫。最初主要是為構建神經網路(NNs)提供高效能的API。然而,隨著時間的推移和機器學習(ML)社群的興起,TensorFlow已經發展為一個完整的機器學習生態系統。

TensorFlow雖是深度學習領域最廣泛使用的框架,但是對比PyTorch這一動態圖框架,採用靜態圖(Graph模式)的TensorFlow確實是難用。好在最近TensorFlow支援了eager模式,對標PyTorch的動態執行機制。更進一步地,Google推出了全新的版本TensorFlow 2.0,2.0版本相比1.0版本不是簡單地更新,而是一次重大升級。

簡單地來說,TensorFlow 2.0預設採用eager執行模式,而且重整了很多混亂的模組。毫無疑問,2.0版本將會逐漸替換1.0版本,所以很有必要趁早入手TensorFlow 2.0。

本系列將對aymericdamien使用tensorflow2.0編寫的示例註釋進行翻譯,以便大家快速上手。翻譯過程中難免有疏漏,如發現錯誤,希望大家指出,謝謝支援。

github專案地址

tree/master/tensorflow_v2

0. 前言

  • 機器學習介紹

  • MNIST 資料集介紹

1. 介紹

  • Hello World。一個非常簡單的示例,學習如何使用TensorFlow 2.0列印“ hello world”。

  • 基礎操作。一個包含TensorFlow 2.0基礎操作的簡單示例。

2. 基礎模型

  • 線性迴歸。使用TensorFlow 2.0實現線性迴歸。

  • 邏輯迴歸。使用TensorFlow 2.0實現邏輯迴歸。

  • Word2Vec (Word Embedding)。使用TensorFlow 2.0從Wikipedia資料構建一個Word Embedding 模型(Word2Vec)。

3. 神經網路

監督方式

  • 簡單神經網路。使用TensorFlow 2.0的“layers”和“model”API構建一個簡單的神經網路來對MNIST數字資料集進行分類。

  • 簡單神經網路(低階)。一個原始的簡單神經網路實現來對MNIST數字資料集進行分類。

  • 卷積神經網路。使用TensorFlow 2.0的“layers”和“model”API構建卷積神經網路對MNIST數字資料集進行分類。

  • 卷積神經網路(低階)。原始卷積神經網路的實現來對MNIST數字資料集進行分類。

  • 遞迴神經網路(LSTM)。使用TensorFlow 2.0“layers”和“model”API,構建遞迴神經網路(LSTM)對MNIST數字資料集進行分類。

  • 雙向遞迴神經網路(LSTM)。使用TensorFlow 2.0“layers”和“model”API,構建雙向遞迴神經網路(LSTM)對MNIST數字資料集進行分類。

  • 動態遞迴神經網路(LSTM)。使用TensorFlow 2.0“layers”和“model”API,構建一個遞迴神經網路(LSTM),對可變長度序列進行動態計算分類。

無監督方式

  • 自編碼器。構建一個自編碼器,將一個影像編碼到一個較低的維度,並重新構建它。
  • 深度卷積生成對抗網路(DCGAN)。構建深度卷積生成對抗網路(DCGAN)以從噪聲生成影像。

4. 工具

  • 儲存和載入模型。使用TensorFlow 2.0儲存和載入模型。
  • 構建自定義層和模組。學習如何構建自己的層/模組,並將它們整合到TensorFlow 2.0模型中。

5. 資料管理

  • 載入和解析資料。使用TensorFlow 2.0構建高效的資料管道(Numpy陣列、影像、CSV檔案、自定義資料等)。

  • 構建和載入TFRecords。將資料轉換為TFRecords格式,並使用TensorFlow 2.0載入它們。

  • 影像變換(即影像增強)。使用TensorFlow 2.0應用各種影像增強技術,生成用於訓練的失真影像。

安裝

要安裝TensorFlow 2.0,只需執行:

pip install tensorflow==2.0.0

或者(如果你需要GPU版本):

pip install tensorflow_gpu==2.0.0

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31555081/viewspace-2663533/,如需轉載,請註明出處,否則將追究法律責任。

相關文章