資訊熵(夏農熵)
應用:
解決了對資訊的量化度量問題,一條資訊的資訊量大小和它的不確定性有直接的關係。
我們要搞清楚一件非常非常不確定的事,或是我們一無所知的事情,就需要了解大量的資訊。相反,如果我們對某件事已經有了較多的瞭解,我們不需要太多的資訊就能把它搞清楚。所以,從這個角度,我們可以認為,資訊量的度量就等於不確定性的多少。
原理:
變數的不確定性越大,熵也就越大,把它搞清楚所需要的資訊量也就越大。
以世界盃賽為例,賽後我問一個知道比賽結果的觀眾“哪支球隊是冠軍”? 他不願意直接告訴我, 而要讓我猜,並且我每猜一次,他要收一元錢才肯告訴我是否猜對了,那麼我需要付給他多少錢才能知道誰是冠軍呢? 我可以把球隊編上號,從 1 到 32, 然後提問: “冠軍的球隊在 1-16 號中嗎?” 假如他告訴我猜對了, 我會接著問: “冠軍在 1-8 號中嗎?” 假如他告訴我猜錯了, 我自然知道冠軍隊在 9-16 中。 這樣最多隻需要五次, 我就能知道哪支球隊是冠軍。所以,誰是世界盃冠軍這條訊息的資訊量只值五塊錢。
夏農不是用錢,而是用 “位元”(bit)”這個概念來度量資訊量。 一個位元是一位二進位制數,計算機中的一個位元組是八個位元。在上面的例子中,這條訊息的資訊量是五位元。
計算例項
相關文章
- 夏農熵-互資訊-entropy熵
- 資訊熵概念隨筆——資訊熵、資訊的熵熵
- 熵、資訊量、資訊熵、交叉熵-個人小結熵
- ML-熵、條件熵、資訊增益熵
- 資訊熵,交叉熵與KL散度熵
- Python | 資訊熵 Information EntropyPython熵ORM
- 近似熵-樣本熵-多尺度熵熵
- 熵,交叉熵,Focalloss熵
- 資訊理論之從熵、驚奇到交叉熵、KL散度和互資訊熵
- 熵、聯和熵與條件熵、交叉熵與相對熵是什麼呢?詳細解讀這裡有!熵
- 資訊熵相關知識總結熵
- 最大熵模型熵模型
- 熵增定律熵
- 熵、交叉熵及似然函式的關係熵函式
- 【機器學習基礎】熵、KL散度、交叉熵機器學習熵
- Consul的反熵熵
- 從夏農資訊量到KL散度
- 2024熵密杯wp熵
- 重新理解熵編碼熵
- 交叉熵損失CrossEntropyLoss熵ROS
- [熵值] 解題報告熵
- 0815鮮花——熵增定律熵
- 熵不起得隨機數熵隨機
- Tensorflow-交叉熵&過擬合熵
- 程式設計世界的熵增原理程式設計熵
- 談談交叉熵損失函式熵函式
- 關於交叉熵的個人理解熵
- 大系統觀:1.3無序就是熵增熵
- 基於條件熵的特徵選擇熵特徵
- 最大熵模型詳解與Python實現熵模型Python
- 決策樹詳解,從熵說起熵
- 熵編碼(四)-算術編碼(二)熵
- 夏農第二定律
- 01 決策樹 - 數學理論概述 - 熵熵
- 今日面試題分享:什麼是最大熵面試題熵
- 圖示Softmax及交叉熵損失函式熵函式
- ETV全球熵系統技術開發方案熵
- 中國傳統白酒:如何避免品牌熵增?熵