用神經網路測量訓練集的半衰期
神經網路的衰變假設:被概率密度表達的粒子A和B彼此互為粒子和環境,在相互作用中被彼此微擾產生衰變,衰變產物是A的B組分和B的A組分,網路的分類準確率是兩個粒子分類準確率的和pave=Σpr。
做一個網路分類mnist的0和2,得到一組資料
f2[0] | f2[1] | 迭代次數n | 平均準確率p-ave | p10-1 | p10-0 | p01-1 | p01-0 | δ | 耗時ms/次 | 耗時ms/199次 | 耗時 min/199 | 最大值p-max | 平均值標準差 |
0.00512 | 0.99488 | 17090.6 | 0.98302 | 0.98707 | 0.01293 | 0.97917 | 0.02083 | 1.00E-04 | 136.92 | 27247 | 0.45412 | 0.98608 | 0.00149 |
Mnist的測試集裡0有980個,2有1032個,這個網路(1,0)位的分類準確率p10-1為0.987073,(0,1)位的分類準確率p01-1是0.979174,因此網路的平均分類準確率pave是
因此這組資料符合關係
現在將兩個訓練集0和2粒子化,讓他們互為粒子和環境,計算各自的半衰期T
首先讓2做環境讓0做粒子
N=17090,
P10-1=0.98707,
代入得到在2的環境中,粒子0的半衰期T是910432,
再讓0做環境讓2做粒子
N=17090,
P01-1=0.97917,
得到在0環境中粒子2的半衰期T是562859.
相關文章
- 3.3 神經網路的訓練神經網路
- 訓練自己的Android TensorFlow神經網路Android神經網路
- 如何應對訓練的神經網路不工作?神經網路
- 使用tf.estimator.Estimator訓練神經網路神經網路
- 在Python中使用OpenCV訓練神經網路來檢測手勢!PythonOpenCV神經網路
- umich cv-5-1 神經網路訓練1神經網路
- umich cv-5-2 神經網路訓練2神經網路
- Batch Normalization: 如何更快地訓練深度神經網路BATORM神經網路
- 從零開始:教你如何訓練神經網路神經網路
- 訓練神經網路時如何確定batch size?神經網路BAT
- 機器學習之訓練神經網路:最佳做法機器學習神經網路
- 【python實現卷積神經網路】開始訓練Python卷積神經網路
- 神經網路訓練的三個基本概念Epoch, Batch, Iteration神經網路BAT
- ICLR 2024 Oral|用巧妙的「傳送」技巧,讓神經網路的訓練更加高效ICLR神經網路
- 如何入門Pytorch之四:搭建神經網路訓練MNISTPyTorch神經網路
- 面向統一的AI神經網路架構和預訓練方法AI神經網路架構
- 深度學習與CV教程(6) | 神經網路訓練技巧 (上)深度學習神經網路
- 迴圈神經網路之embedding,padding,模型構建與訓練神經網路padding模型
- 神經網路之反向傳播訓練(8行程式碼)神經網路反向傳播行程
- 關於訓練神經網路的諸多技巧Tricks(完全總結版)神經網路
- 零基礎入門深度學習(一):用numpy實現神經網路訓練深度學習神經網路
- 使用人工神經網路訓練手寫數字識別模型神經網路模型
- composer:2-4倍加速神經網路訓練的演算法庫神經網路演算法
- 深度神經網路的分散式訓練概述:常用方法和技巧全面總結神經網路分散式
- 簡單的神經網路測試神經網路
- matlab練習程式(神經網路識別mnist手寫資料集)Matlab神經網路
- 想免費用谷歌資源訓練神經網路?Colab 詳細使用教程 —— Jinkey 原創谷歌神經網路
- 送你9個快速使用Pytorch訓練解決神經網路的技巧(附程式碼)PyTorch神經網路
- 谷歌力作:神經網路訓練中的Batch依賴性很煩?那就消了它!谷歌神經網路BAT
- 訓練集、驗證集、測試集
- 迴圈神經網路設計同樣可以使用預訓練詞“嵌入”神經網路
- 谷歌開源Neural Tangents:簡單快速訓練無限寬度神經網路谷歌神經網路
- 神經網路:numpy實現神經網路框架神經網路框架
- 動手學深度學習第十四課:實現、訓練和應用迴圈神經網路深度學習神經網路
- 劃分訓練集與測試集
- torch神經網路溫度預測神經網路
- 機器學習(四):4層BP神經網路(只用numpy不調包)用於訓練鳶尾花資料集|準確率96%機器學習神經網路
- 神經網路神經網路