pytorch和tensorflow的愛恨情仇之基本資料型別

西西嘛呦發表於2020-10-02

自己一直以來都是使用的pytorch,最近打算好好的看下tensorflow,新開一個系列:pytorch和tensorflow的愛恨情仇(相愛相殺。。。)

無論學習什麼框架或者是什麼程式語言,最基礎的就是其基本的資料型別了,接下來我們就一一看看吧。

pytorch版本:0.4.1,準備之後換成1.x版本的。

tensorflow版本:1.15.0,雖然目前tensorflow已經出到2.x版本了,但據說2.x版本的還存在一些bug,就使用目前的1.x版本的了。

1、python基本資料型別

數字型:整型、浮點型、布林型、複數型。

非數字型:字串、列表、元組、字典。

使用type可以檢視變數的型別:type(變數名)

2、numpy中的資料型別

名稱描述
bool_ 布林型資料型別(True 或者 False)
int_ 預設的整數型別(類似於 C 語言中的 long,int32 或 int64)
intc 與 C 的 int 型別一樣,一般是 int32 或 int 64
intp 用於索引的整數型別(類似於 C 的 ssize_t,一般情況下仍然是 int32 或 int64)
int8 位元組(-128 to 127)
int16 整數(-32768 to 32767)
int32 整數(-2147483648 to 2147483647)
int64 整數(-9223372036854775808 to 9223372036854775807)
uint8 無符號整數(0 to 255)
uint16 無符號整數(0 to 65535)
uint32 無符號整數(0 to 4294967295)
uint64 無符號整數(0 to 18446744073709551615)
float_ float64 型別的簡寫
float16 半精度浮點數,包括:1 個符號位,5 個指數位,10 個尾數位
float32 單精度浮點數,包括:1 個符號位,8 個指數位,23 個尾數位
float64 雙精度浮點數,包括:1 個符號位,11 個指數位,52 個尾數位
complex_ complex128 型別的簡寫,即 128 位複數
complex64 複數,表示雙 32 位浮點數(實數部分和虛數部分)
complex128 複數,表示雙 64 位浮點數(實數部分和虛數部分)

numpy 的數值型別實際上是 dtype 物件的例項,並對應唯一的字元,包括 np.bool_,np.int32,np.float32,等等。

這裡簡要的看下例子,一般情況下我們是這麼定義一個陣列的:

當然,我們也可以使用如下方式定義:先指定陣列中元素的型別,再建立陣列

為什麼我們要這麼定義呢,這麼定義不是沒有第一種簡便嗎?這是因為,通過這種方式,我們可以定義自己的資料型別:

這裡的i1指代的是int8,

每個內建型別都有一個唯一定義它的字元程式碼,如下:

字元對應型別
b 布林型
i (有符號) 整型
u 無符號整型 integer
f 浮點型
c 複數浮點型
m timedelta(時間間隔)
M datetime(日期時間)
O (Python) 物件
S, a (byte-)字串
U Unicode
V 原始資料 (void)

於是乎,請看以下例子:

說到資料型別,就不得不涉及到資料型別之間的轉換,自然而然首先想到的是通過修改dtype的型別來修改資料的型別,但是這存在一些問題,請看以下例子:

>>> a=np.array([1.1, 1.2])
>>> a.dtype
dtype('float64')
>>> a.dtype=np.int16
>>> a.dtype
dtype('int16') 
>>> a
array([-26214, -26215, -26215,  16369,  13107,  13107,  13107,  16371], dtype=int16)
#原來float64相當於4個int16的位寬,這樣強制轉換後會將他們直接拆開成4個數,
#因此原來的兩個float64成了8個int16

我們要使用astype來修改資料型別,看一下例子:

>>> a=np.array([1.1, 1.2])
>>> a.dtype
dtype('float64')
>>> a.astype(np.int16)
array([1, 1], dtype=int16)
>>> a.dtype
dtype('float64') #a的資料型別並沒有變
>>> a=a.astype(np.int16) #賦值操作後a的資料型別變化
>>> a.dtype
dtype('int16')
>>> a
array([1, 1], dtype=int16)

 參考:

https://www.runoob.com/numpy/numpy-dtype.html

https://blog.csdn.net/miao20091395/article/details/79276721

3、pytorch中的資料型別

看以下例子:預設使用的資料型別是torch.float32

當然,你也可以指定生成張量的類別,通過以下方式:

在多數情況下,我們都會使用pytorch自帶的函式建立張量,看以下例子:

通過以下兩種方式可以檢視張量的資料型別:

接下來還是要看下資料型別之間的轉換,主要有三點:張量之間的資料型別的轉換、張量和numpy陣列之間的轉換、cuda張量和cpu張量的轉換

(1) 不同張量之間的型別轉換

直接使用(.型別)即可:

我們還可以使用type()來進行轉換:

我們同樣可以使用type_as()將某個張量的資料型別轉換為另一個張量的相同的資料型別:

(2)張量和numpy之間的轉換

將numpy陣列轉換為張量:使用from_numpy()

將張量轉換為numoy陣列:使用.numpy()

(3) cuda型別和cpu型別之間的轉換

cpu型別轉換成cuda型別:

a.cuda()或者a.to(device):這裡的device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

cuda型別轉換為cpu型別:

a.cpu()

這裡需要提一句的是,要先將cuda型別轉換為cpu型別,才能進一步將該型別轉換為numpy型別。

3、tensorflow基本資料型別

定義一個張量:

使用tf.constant建立一個常量,注意:常量是不進行梯度更新的。

(1)張量之間的型別轉換:可以使用tf.to_型別()或者tf.cast(),不過前者將要被移除,最好使用tf.cast()

(2) 張量和numpy之間的型別轉換

numpy轉張量:使用tf.convert_to_tensor()

張量轉numpy:由Session.runeval返回的任何張量都是NumPy陣列。

(3)tensorflow好像不存在什麼gpu張量和cpu張量型別

 

如果有什麼錯誤還請指出,有什麼遺漏的還請補充,會進行相應的修改。

相關文章