資訊熵(夏農熵)
應用:
解決了對資訊的量化度量問題,一條資訊的資訊量大小和它的不確定性有直接的關係。
我們要搞清楚一件非常非常不確定的事,或是我們一無所知的事情,就需要了解大量的資訊。相反,如果我們對某件事已經有了較多的瞭解,我們不需要太多的資訊就能把它搞清楚。所以,從這個角度,我們可以認為,資訊量的度量就等於不確定性的多少。
原理:
變數的不確定性越大,熵也就越大,把它搞清楚所需要的資訊量也就越大。
以世界盃賽為例,賽後我問一個知道比賽結果的觀眾“哪支球隊是冠軍”? 他不願意直接告訴我, 而要讓我猜,並且我每猜一次,他要收一元錢才肯告訴我是否猜對了,那麼我需要付給他多少錢才能知道誰是冠軍呢? 我可以把球隊編上號,從 1 到 32, 然後提問: “冠軍的球隊在 1-16 號中嗎?” 假如他告訴我猜對了, 我會接著問: “冠軍在 1-8 號中嗎?” 假如他告訴我猜錯了, 我自然知道冠軍隊在 9-16 中。 這樣最多隻需要五次, 我就能知道哪支球隊是冠軍。所以,誰是世界盃冠軍這條訊息的資訊量只值五塊錢。
夏農不是用錢,而是用 “位元”(bit)”這個概念來度量資訊量。 一個位元是一位二進位制數,計算機中的一個位元組是八個位元。在上面的例子中,這條訊息的資訊量是五位元。
計算例項
相關文章
- 資訊熵概念隨筆——資訊熵、資訊的熵熵
- 熵、資訊量、資訊熵、交叉熵-個人小結熵
- ML-熵、條件熵、資訊增益熵
- 資訊熵,交叉熵與KL散度熵
- 歸一化(softmax)、資訊熵、交叉熵熵
- [機器學習]資訊&熵&資訊增益機器學習熵
- 白話資訊熵熵
- 一文總結條件熵、交叉熵、相對熵、互資訊熵
- 近似熵-樣本熵-多尺度熵熵
- 資訊理論之從熵、驚奇到交叉熵、KL散度和互資訊熵
- 熵、聯和熵與條件熵、交叉熵與相對熵是什麼呢?詳細解讀這裡有!熵
- Python | 資訊熵 Information EntropyPython熵ORM
- 理解"熵"熵
- 【機器學習基礎】熵、KL散度、交叉熵機器學習熵
- 資訊熵相關知識總結熵
- 最大熵模型熵模型
- 熵、交叉熵及似然函式的關係熵函式
- 交叉熵、相對熵及KL散度通俗理解熵
- Consul的反熵熵
- 資訊化基礎的最小熵值的散點聚集熵
- 交叉熵損失CrossEntropyLoss熵ROS
- 最大熵模型原理小結熵模型
- 熵不起得隨機數熵隨機
- 關於交叉熵的個人理解熵
- 熵:宇宙的終極規則熵
- 熵的社會學意義熵
- 如何理解用資訊熵來表示最短的平均編碼長度熵
- 《機器學習實戰》第3章決策樹程式清單3-1 計算給定資料集的夏農熵calcShannonEnt()執行過程機器學習熵None
- 程式設計世界的熵增原理程式設計熵
- 談談交叉熵損失函式熵函式
- Tensorflow-交叉熵&過擬合熵
- 大資料與熵:臨界分析大資料熵
- 人以負熵為食——讀《資訊簡史》有點小感覺熵
- 機器學習筆記之資訊熵、資訊增益和決策樹(ID3演算法)機器學習筆記熵演算法
- 基於條件熵的特徵選擇熵特徵
- 《機器學習_05_線性模型_最大熵模型》機器學習模型熵
- 中國傳統白酒:如何避免品牌熵增?熵
- 決策樹詳解,從熵說起熵