作為最早關注人工智慧技術的媒體,機器之心在編譯國外技術部落格、論文、專家觀點等內容上已經積累了超過兩年多的經驗。期間,從無到有,機器之心的編譯團隊一直在積累專業詞彙。雖然有很多的文章因為專業性我們沒能盡善盡美的編譯為中文呈現給大家,但我們一直在進步、一直在積累、一直在提高自己的專業性。
兩年來,機器之心編譯團隊整理過翻譯詞彙對照表「紅寶書」,編輯個人也整理過類似的詞典。而我們也從機器之心讀者留言中發現,有些人工智慧專業詞彙沒有統一的翻譯標準,這可能是因地區、跨專業等等原因造成的。舉個例子,DeepMind 的一篇論文中有個詞彙為 differentiable boundary tree,當時機器之心的翻譯為可微分界樹,但後來有讀者表示這樣的譯法如果不保留英文很難明白表達的意思且建議翻譯為可微分邊界樹。
因此,我們想把機器之心內部積累的人工智慧專業詞彙中英對照表開放給大家,希望為大家寫論文、中文部落格、閱讀文章提供幫助。同時,這也是一份開放的表單,希望越來越多的人能夠提供增添、修改建議,為人工智慧的傳播助力。
專案地址:https://github.com/jiqizhixin/Artificial-Intelligence-Terminology
組織形式
讀者在此專案中,可透過以上表盤檢視自己想要了解的專業詞彙。在單個首字母中,表格的組織形式為:英文/縮寫、漢語、來源&擴充套件。
來源&擴充套件是對該詞彙的註解,內容為機器之心往期的相關文章。例如下圖所示的「演算法」,我們關聯到的三篇文章是《迴歸、分類與聚類:三大方向剖解機器學習演算法的優缺點》和《機器學習演算法附速查表》和《深度學習演算法全景圖:從理論證明其正確性》。因此,我們希望不僅能提供相對應的術語,同時還希望能為讀者提供每一個術語的來源和概念上的擴充套件。但由於這一部分工作量較大,我們還將與讀者共同推進這一部分擴充套件的程式。
準確度
本專案中所有英文專業詞彙對照的中文都來自機器之心編譯的文章和系列機器學習教科書(如周志華的《機器學習》和李航的《統計學習方法》等),我們力求在提供準確翻譯的同時保留最常用的形式。同時,為了保證詞彙翻譯的準確性,我們將此專案向讀者開源,並希望能與讀者共同迭代術語的準確度。除此之外,我們還將為每一個詞彙提供來源與擴充套件進一步提升詞彙的置信度。
機器之心術語編譯標準
因為該專案很多術語都是機器之心平常編譯文章所積累的,所以我們首先需要向讀者說明機器之心術語編譯的標準。
1. 常見術語的編譯標準
機器之心常見術語的編譯首先會確保術語的正確性,其次再考慮術語的傳播廣度。例如常見術語。logistic regression,首先機器之心會保證該術語的準確度。我們常見 logistic regression 會翻譯為邏輯迴歸,但中文「邏輯」與 logistic 的含義還是有些差別,因此我們並不太傾向於採用這種譯法。在準確度的基礎上,我們會考慮術語的傳播廣度。例如有學者建議可以將 logistic regression 譯為對數機率迴歸,但鑑於該譯法的傳播度不廣,看到中文並不會馬上檢索到對應英文和概念,所以我們最終在常見術語編譯標準下將 logistic regression 譯為 logistical 迴歸。機器之心在對常見術語編譯時並不會保留英文,也不會做進一步說明。
2. 非常見術語的編譯標準
機器之心在編譯技術文章或論文時,常常會遇到非常見的術語。因為像論文那樣的文章是在特定領域下為解決特定問題而規範化書寫的,所以就會存在較多的非常見的術語。而機器之心在編譯非常見術語時,唯一的標準就是準確性,通常我們也會保留英文。因為非常見術語通常是數學、神經科學和物理學等領域上的專業術語,機器之心會盡可能地借鑑其他領域內的譯法和意義而確定如何編譯。例如 fixed-point theorem,在參考數學的情況下,我們會更傾向於譯為不動點定理,fixed-point 譯為不動點而不是定點。
3. 歧義術語的編譯標準
還有很多術語其實是有歧義的,而對於這一類詞,機器之心的編譯標準會根據語義進行確定,因此也會有一些誤差。例如 bias 在描述神經網路層級單元時可以譯為偏置項。而在描述訓練誤差和與叉驗證誤差間的關係或學習曲線時,bias 可以譯為偏差。這樣的例子還有很多,比如 Stationary 在馬爾可夫模型中可譯為穩態分佈(Stationary distribution),在最最佳化問題中可譯為駐點(Stationary point),而在涉及博弈論或對抗性訓練時,其又可能表達為靜態。
以上是機器之心大概編譯術語的標準,雖然我們在常用術語的編譯上錯誤率相對較少,但在非常見術語和歧義術語上仍然會出現一些錯誤。尤其是在非常見術語的編譯上,沒有特定的背景知識很容易在編譯上出現誤差。因此我們希望能與讀者共同加強術語的編譯質量。
詞彙更新
本詞彙庫目前擁有的專業詞彙共計 500 個,主要為機器學習基礎概念和術語,同時也是該專案的基本詞彙。機器之心將繼續完善術語的收錄和擴充套件閱讀的構建。詞彙更新主要分為兩個階段,第一階段機器之心將繼續完善基礎詞彙的構建,即透過權威教科書或其它有公信力的資料抽取常見術語。第二階段機器之心將持續性地把編譯論文或其他資料所出現的非常見術語更新到詞彙表中。
讀者的反饋意見和更新建議將貫穿整個階段,並且我們將在專案致謝頁中展示對該專案起積極作用的讀者。因為我們希望術語的更新更具準確度和置信度,所以我們希望讀者能附上該術語的來源地址與擴充套件地址。因此,我們能更客觀地更新詞彙,並附上可信的來源與擴充套件。
Letter A:
Accumulated error backpropagation | 累積誤差逆傳播 |
Activation Function | 啟用函式 |
Adaptive Resonance Theory/ART | 自適應諧振理論 |
Addictive model | 加性學習 |
Adversarial Networks | 對抗網路 |
Affine Layer | 仿射層 |
Affinity matrix | 親和矩陣 |
Agent | 代理 / 智慧體 |
Algorithm | 演算法 |
Alpha-beta pruning | α-β剪枝 |
Anomaly detection | 異常檢測 |
Approximation | 近似 |
Area Under ROC Curve/AUC | Roc 曲線下面積 |
Artificial General Intelligence/AGI | 通用人工智慧 |
Artificial Intelligence/AI | 人工智慧 |
Association analysis | 關聯分析 |
Attention mechanism | 注意力機制 |
Attribute conditional independence assumption | 屬性條件獨立性假設 |
Attribute space | 屬性空間 |
Attribute value | 屬性值 |
Autoencoder | 自編碼器 |
Automatic speech recognition | 自動語音識別 |
Automatic summarization | 自動摘要 |
Average gradient | 平均梯度 |
Average-Pooling | 平均池化 |
Letter B:
Backpropagation Through Time | 透過時間的反向傳播 |
Backpropagation/BP | 反向傳播 |
Base learner | 基學習器 |
Base learning algorithm | 基學習演算法 |
Batch Normalization/BN | 批次歸一化 |
Bayes decision rule | 貝葉斯判定準則 |
Bayes Model Averaging/BMA | 貝葉斯模型平均 |
Bayes optimal classifier | 貝葉斯最優分類器 |
Bayesian decision theory | 貝葉斯決策論 |
Bayesian network | 貝葉斯網路 |
Between-class scatter matrix | 類間散度矩陣 |
Bias | 偏置 / 偏差 |
Bias-variance decomposition | 偏差-方差分解 |
Bias-Variance Dilemma | 偏差 - 方差困境 |
Bi-directional Long-Short Term Memory/Bi-LSTM | 雙向長短期記憶 |
Binary classification | 二分類 |
Binomial test | 二項檢驗 |
Bi-partition | 二分法 |
Boltzmann machine | 玻爾茲曼機 |
Bootstrap sampling | 自助取樣法/可重複取樣/有放回取樣 |
Bootstrapping | 自助法 |
Break-Event Point/BEP | 平衡點 |
Letter C:
Calibration | 校準 |
Cascade-Correlation | 級聯相關 |
Categorical attribute | 離散屬性 |
Class-conditional probability | 類條件機率 |
Classification and regression tree/CART | 分類與迴歸樹 |
Classifier | 分類器 |
Class-imbalance | 類別不平衡 |
Closed -form | 閉式 |
Cluster | 簇/類/叢集 |
Cluster analysis | 聚類分析 |
Clustering | 聚類 |
Clustering ensemble | 聚類整合 |
Co-adapting | 共適應 |
Coding matrix | 編碼矩陣 |
COLT | 國際學習理論會議 |
Committee-based learning | 基於委員會的學習 |
Competitive learning | 競爭型學習 |
Component learner | 元件學習器 |
Comprehensibility | 可解釋性 |
Computation Cost | 計算成本 |
Computational Linguistics | 計算語言學 |
Computer vision | 計算機視覺 |
Concept drift | 概念漂移 |
Concept Learning System /CLS | 概念學習系統 |
Conditional entropy | 條件熵 |
Conditional mutual information | 條件互資訊 |
Conditional Probability Table/CPT | 條件機率表 |
Conditional random field/CRF | 條件隨機場 |
Conditional risk | 條件風險 |
Confidence | 置信度 |
Confusion matrix | 混淆矩陣 |
Connection weight | 連線權 |
Connectionism | 連結主義 |
Consistency | 一致性/相合性 |
Contingency table | 列聯表 |
Continuous attribute | 連續屬性 |
Convergence | 收斂 |
Conversational agent | 會話智慧體 |
Convex quadratic programming | 凸二次規劃 |
Convexity | 凸性 |
Convolutional neural network/CNN | 卷積神經網路 |
Co-occurrence | 同現 |
Correlation coefficient | 相關係數 |
Cosine similarity | 餘弦相似度 |
Cost curve | 成本曲線 |
Cost Function | 成本函式 |
Cost matrix | 成本矩陣 |
Cost-sensitive | 成本敏感 |
Cross entropy | 交叉熵 |
Cross validation | 交叉驗證 |
Crowdsourcing | 眾包 |
Curse of dimensionality | 維數災難 |
Cut point | 截斷點 |
Cutting plane algorithm | 割平面法 |
Letter D:
Data mining | 資料探勘 |
Data set | 資料集 |
Decision Boundary | 決策邊界 |
Decision stump | 決策樹樁 |
Decision tree | 決策樹/判定樹 |
Deduction | 演繹 |
Deep Belief Network | 深度信念網路 |
Deep Convolutional Generative Adversarial Network/DCGAN | 深度卷積生成對抗網路 |
Deep learning | 深度學習 |
Deep neural network/DNN | 深度神經網路 |
Deep Q-Learning | 深度 Q 學習 |
Deep Q-Network | 深度 Q 網路 |
Density estimation | 密度估計 |
Density-based clustering | 密度聚類 |
Differentiable neural computer | 可微分神經計算機 |
Dimensionality reduction algorithm | 降維演算法 |
Directed edge | 有向邊 |
Disagreement measure | 不合度量 |
Discriminative model | 判別模型 |
Discriminator | 判別器 |
Distance measure | 距離度量 |
Distance metric learning | 距離度量學習 |
Distribution | 分佈 |
Divergence | 散度 |
Diversity measure | 多樣性度量/差異性度量 |
Domain adaption | 領域自適應 |
Downsampling | 下采樣 |
D-separation (Directed separation) | 有向分離 |
Dual problem | 對偶問題 |
Dummy node | 啞結點 |
Dynamic Fusion | 動態融合 |
Dynamic programming | 動態規劃 |
Letter E:
Eigenvalue decomposition | 特徵值分解 |
Embedding | 嵌入 |
Emotional analysis | 情緒分析 |
Empirical conditional entropy | 經驗條件熵 |
Empirical entropy | 經驗熵 |
Empirical error | 經驗誤差 |
Empirical risk | 經驗風險 |
End-to-End | 端到端 |
Energy-based model | 基於能量的模型 |
Ensemble learning | 整合學習 |
Ensemble pruning | 整合修剪 |
Error Correcting Output Codes/ECOC | 糾錯輸出碼 |
Error rate | 錯誤率 |
Error-ambiguity decomposition | 誤差-分歧分解 |
Euclidean distance | 歐氏距離 |
Evolutionary computation | 演化計算 |
Expectation-Maximization | 期望最大化 |
Expected loss | 期望損失 |
Exploding Gradient Problem | 梯度爆炸問題 |
Exponential loss function | 指數損失函式 |
Extreme Learning Machine/ELM | 超限學習機 |
Letter F:
Factorization | 因子分解 |
False negative | 假負類 |
False positive | 假正類 |
False Positive Rate/FPR | 假正例率 |
Feature engineering | 特徵工程 |
Feature selection | 特徵選擇 |
Feature vector | 特徵向量 |
Featured Learning | 特徵學習 |
Feedforward Neural Networks/FNN | 前饋神經網路 |
Fine-tuning | 微調 |
Flipping output | 翻轉法 |
Fluctuation | 震盪 |
Forward stagewise algorithm | 前向分步演算法 |
Frequentist | 頻率主義學派 |
Full-rank matrix | 滿秩矩陣 |
Functional neuron | 功能神經元 |
Letter G:
Gain ratio | 增益率 |
Game theory | 博弈論 |
Gaussian kernel function | 高斯核函式 |
Gaussian Mixture Model | 高斯混合模型 |
General Problem Solving | 通用問題求解 |
Generalization | 泛化 |
Generalization error | 泛化誤差 |
Generalization error bound | 泛化誤差上界 |
Generalized Lagrange function | 廣義拉格朗日函式 |
Generalized linear model | 廣義線性模型 |
Generalized Rayleigh quotient | 廣義瑞利商 |
Generative Adversarial Networks/GAN | 生成對抗網路 |
Generative Model | 生成模型 |
Generator | 生成器 |
Genetic Algorithm/GA | 遺傳演算法 |
Gibbs sampling | 吉布斯取樣 |
Gini index | 基尼指數 |
Global minimum | 全域性最小 |
Global Optimization | 全域性最佳化 |
Gradient boosting | 梯度提升 |
Gradient Descent | 梯度下降 |
Graph theory | 圖論 |
Ground-truth | 真相/真實 |
Letter H:
Hard margin | 硬間隔 |
Hard voting | 硬投票 |
Harmonic mean | 調和平均 |
Hesse matrix | 海塞矩陣 |
Hidden dynamic model | 隱動態模型 |
Hidden layer | 隱藏層 |
Hidden Markov Model/HMM | 隱馬爾可夫模型 |
Hierarchical clustering | 層次聚類 |
Hilbert space | 希爾伯特空間 |
Hinge loss function | 合頁損失函式 |
Hold-out | 留出法 |
Homogeneous | 同質 |
Hybrid computing | 混合計算 |
Hyperparameter | 超引數 |
Hypothesis | 假設 |
Hypothesis test | 假設驗證 |
Letter I:
ICML | 國際機器學習會議 |
Improved iterative scaling/IIS | 改進的迭代尺度法 |
Incremental learning | 增量學習 |
Independent and identically distributed/i.i.d. | 獨立同分布 |
Independent Component Analysis/ICA | 獨立成分分析 |
Indicator function | 指示函式 |
Individual learner | 個體學習器 |
Induction | 歸納 |
Inductive bias | 歸納偏好 |
Inductive learning | 歸納學習 |
Inductive Logic Programming/ILP | 歸納邏輯程式設計 |
Information entropy | 資訊熵 |
Information gain | 資訊增益 |
Input layer | 輸入層 |
Insensitive loss | 不敏感損失 |
Inter-cluster similarity | 簇間相似度 |
International Conference for Machine Learning/ICML | 國際機器學習大會 |
Intra-cluster similarity | 簇內相似度 |
Intrinsic value | 固有值 |
Isometric Mapping/Isomap | 等度量對映 |
Isotonic regression | 等分迴歸 |
Iterative Dichotomiser | 迭代二分器 |
Letter K:
Kernel method | 核方法 |
Kernel trick | 核技巧 |
Kernelized Linear Discriminant Analysis/KLDA | 核線性判別分析 |
K-fold cross validation | k 折交叉驗證/k 倍交叉驗證 |
K-Means Clustering | K - 均值聚類 |
K-Nearest Neighbours Algorithm/KNN | K近鄰演算法 |
Knowledge base | 知識庫 |
Knowledge Representation | 知識表徵 |
Letter L:
Label space | 標記空間 |
Lagrange duality | 拉格朗日對偶性 |
Lagrange multiplier | 拉格朗日乘子 |
Laplace smoothing | 拉普拉斯平滑 |
Laplacian correction | 拉普拉斯修正 |
Latent Dirichlet Allocation | 隱狄利克雷分佈 |
Latent semantic analysis | 潛在語義分析 |
Latent variable | 隱變數 |
Lazy learning | 懶惰學習 |
Learner | 學習器 |
Learning by analogy | 類比學習 |
Learning rate | 學習率 |
Learning Vector Quantization/LVQ | 學習向量量化 |
Least squares regression tree | 最小二乘迴歸樹 |
Leave-One-Out/LOO | 留一法 |
linear chain conditional random field | 線性鏈條件隨機場 |
Linear Discriminant Analysis/LDA | 線性判別分析 |
Linear model | 線性模型 |
Linear Regression | 線性迴歸 |
Link function | 聯絡函式 |
Local Markov property | 區域性馬爾可夫性 |
Local minimum | 區域性最小 |
Log likelihood | 對數似然 |
Log odds/logit | 對數機率 |
Logistic Regression | Logistic 迴歸 |
Log-likelihood | 對數似然 |
Log-linear regression | 對數線性迴歸 |
Long-Short Term Memory/LSTM | 長短期記憶 |
Loss function | 損失函式 |
Letter M:
Machine translation/MT | 機器翻譯 |
Macron-P | 宏查準率 |
Macron-R | 宏查全率 |
Majority voting | 絕對多數投票法 |
Manifold assumption | 流形假設 |
Manifold learning | 流形學習 |
Margin theory | 間隔理論 |
Marginal distribution | 邊際分佈 |
Marginal independence | 邊際獨立性 |
Marginalization | 邊際化 |
Markov Chain Monte Carlo/MCMC | 馬爾可夫鏈蒙特卡羅方法 |
Markov Random Field | 馬爾可夫隨機場 |
Maximal clique | 最大團 |
Maximum Likelihood Estimation/MLE | 極大似然估計/極大似然法 |
Maximum margin | 最大間隔 |
Maximum weighted spanning tree | 最大帶權生成樹 |
Max-Pooling | 最大池化 |
Mean squared error | 均方誤差 |
Meta-learner | 元學習器 |
Metric learning | 度量學習 |
Micro-P | 微查準率 |
Micro-R | 微查全率 |
Minimal Description Length/MDL | 最小描述長度 |
Minimax game | 極小極大博弈 |
Misclassification cost | 誤分類成本 |
Mixture of experts | 混合專家 |
Momentum | 動量 |
Moral graph | 道德圖/端正圖 |
Multi-class classification | 多分類 |
Multi-document summarization | 多文件摘要 |
Multi-layer feedforward neural networks | 多層前饋神經網路 |
Multilayer Perceptron/MLP | 多層感知器 |
Multimodal learning | 多模態學習 |
Multiple Dimensional Scaling | 多維縮放 |
Multiple linear regression | 多元線性迴歸 |
Multi-response Linear Regression /MLR | 多響應線性迴歸 |
Mutual information | 互資訊 |
Letter N:
Naive bayes | 樸素貝葉斯 |
Naive Bayes Classifier | 樸素貝葉斯分類器 |
Named entity recognition | 命名實體識別 |
Nash equilibrium | 納什均衡 |
Natural language generation/NLG | 自然語言生成 |
Natural language processing | 自然語言處理 |
Negative class | 負類 |
Negative correlation | 負相關法 |
Negative Log Likelihood | 負對數似然 |
Neighbourhood Component Analysis/NCA | 近鄰成分分析 |
Neural Machine Translation | 神經機器翻譯 |
Neural Turing Machine | 神經圖靈機 |
Newton method | 牛頓法 |
NIPS | 國際神經資訊處理系統會議 |
No Free Lunch Theorem/NFL | 沒有免費的午餐定理 |
Noise-contrastive estimation | 噪音對比估計 |
Nominal attribute | 列名屬性 |
Non-convex optimization | 非凸最佳化 |
Nonlinear model | 非線性模型 |
Non-metric distance | 非度量距離 |
Non-negative matrix factorization | 非負矩陣分解 |
Non-ordinal attribute | 無序屬性 |
Non-Saturating Game | 非飽和博弈 |
Norm | 範數 |
Normalization | 歸一化 |
Nuclear norm | 核範數 |
Numerical attribute | 數值屬性 |
Letter O:
Objective function | 目標函式 |
Oblique decision tree | 斜決策樹 |
Occam's razor | 奧卡姆剃刀 |
Odds | 機率 |
Off-Policy | 離策略 |
One shot learning | 一次性學習 |
One-Dependent Estimator/ODE | 獨依賴估計 |
On-Policy | 在策略 |
Ordinal attribute | 有序屬性 |
Out-of-bag estimate | 包外估計 |
Output layer | 輸出層 |
Output smearing | 輸出調製法 |
Overfitting | 過擬合/過配 |
Oversampling | 過取樣 |
Letter P:
Paired t-test | 成對 t 檢驗 |
Pairwise | 成對型 |
Pairwise Markov property | 成對馬爾可夫性 |
Parameter | 引數 |
Parameter estimation | 引數估計 |
Parameter tuning | 調參 |
Parse tree | 解析樹 |
Particle Swarm Optimization/PSO | 粒子群最佳化演算法 |
Part-of-speech tagging | 詞性標註 |
Perceptron | 感知機 |
Performance measure | 效能度量 |
Plug and Play Generative Network | 即插即用生成網路 |
Plurality voting | 相對多數投票法 |
Polarity detection | 極性檢測 |
Polynomial kernel function | 多項式核函式 |
Pooling | 池化 |
Positive class | 正類 |
Positive definite matrix | 正定矩陣 |
Post-hoc test | 後續檢驗 |
Post-pruning | 後剪枝 |
potential function | 勢函式 |
Precision | 查準率/準確率 |
Prepruning | 預剪枝 |
Principal component analysis/PCA | 主成分分析 |
Principle of multiple explanations | 多釋原則 |
Prior | 先驗 |
Probability Graphical Model | 機率圖模型 |
Proximal Gradient Descent/PGD | 近端梯度下降 |
Pruning | 剪枝 |
Pseudo-label | 偽標記 |
Letter Q:
Quantized Neural Network | 量子化神經網路 |
Quantum computer | 量子計算機 |
Quantum Computing | 量子計算 |
Quasi Newton method | 擬牛頓法 |
Letter R:
Radial Basis Function/RBF | 徑向基函式 |
Random Forest Algorithm | 隨機森林演算法 |
Random walk | 隨機漫步 |
Recall | 查全率/召回率 |
Receiver Operating Characteristic/ROC | 受試者工作特徵 |
Rectified Linear Unit/ReLU | 線性修正單元 |
Recurrent Neural Network | 迴圈神經網路 |
Recursive neural network | 遞迴神經網路 |
Reference model | 參考模型 |
Regression | 迴歸 |
Regularization | 正則化 |
Reinforcement learning/RL | 強化學習 |
Representation learning | 表徵學習 |
Representer theorem | 表示定理 |
reproducing kernel Hilbert space/RKHS | 再生核希爾伯特空間 |
Re-sampling | 重取樣法 |
Rescaling | 再縮放 |
Residual Mapping | 殘差對映 |
Residual Network | 殘差網路 |
Restricted Boltzmann Machine/RBM | 受限玻爾茲曼機 |
Restricted Isometry Property/RIP | 限定等距性 |
Re-weighting | 重賦權法 |
Robustness | 穩健性/魯棒性 |
Root node | 根結點 |
Rule Engine | 規則引擎 |
Rule learning | 規則學習 |
Letter S:
Saddle point | 鞍點 |
Sample space | 樣本空間 |
Sampling | 取樣 |
Score function | 評分函式 |
Self-Driving | 自動駕駛 |
Self-Organizing Map/SOM | 自組織對映 |
Semi-naive Bayes classifiers | 半樸素貝葉斯分類器 |
Semi-Supervised Learning | 半監督學習 |
semi-Supervised Support Vector Machine | 半監督支援向量機 |
Sentiment analysis | 情感分析 |
Separating hyperplane | 分離超平面 |
Sigmoid function | Sigmoid 函式 |
Similarity measure | 相似度度量 |
Simulated annealing | 模擬退火 |
Simultaneous localization and mapping | 同步定位與地圖構建 |
Singular Value Decomposition | 奇異值分解 |
Slack variables | 鬆弛變數 |
Smoothing | 平滑 |
Soft margin | 軟間隔 |
Soft margin maximization | 軟間隔最大化 |
Soft voting | 軟投票 |
Sparse representation | 稀疏表徵 |
Sparsity | 稀疏性 |
Specialization | 特化 |
Spectral Clustering | 譜聚類 |
Speech Recognition | 語音識別 |
Splitting variable | 切分變數 |
Squashing function | 擠壓函式 |
Stability-plasticity dilemma | 可塑性-穩定性困境 |
Statistical learning | 統計學習 |
Status feature function | 狀態特徵函 |
Stochastic gradient descent | 隨機梯度下降 |
Stratified sampling | 分層取樣 |
Structural risk | 結構風險 |
Structural risk minimization/SRM | 結構風險最小化 |
Subspace | 子空間 |
Supervised learning | 監督學習/有導師學習 |
support vector expansion | 支援向量展式 |
Support Vector Machine/SVM | 支援向量機 |
Surrogat loss | 替代損失 |
Surrogate function | 替代函式 |
Symbolic learning | 符號學習 |
Symbolism | 符號主義 |
Synset | 同義詞集 |
Letter T:
T-Distribution Stochastic Neighbour Embedding/t-SNE | T - 分佈隨機近鄰嵌入 |
Tensor | 張量 |
Tensor Processing Units/TPU | 張量處理單元 |
The least square method | 最小二乘法 |
Threshold | 閾值 |
Threshold logic unit | 閾值邏輯單元 |
Threshold-moving | 閾值移動 |
Time Step | 時間步驟 |
Tokenization | 標記化 |
Training error | 訓練誤差 |
Training instance | 訓練示例/訓練例 |
Transductive learning | 直推學習 |
Transfer learning | 遷移學習 |
Treebank | 樹庫 |
Tria-by-error | 試錯法 |
True negative | 真負類 |
True positive | 真正類 |
True Positive Rate/TPR | 真正例率 |
Turing Machine | 圖靈機 |
Twice-learning | 二次學習 |
Letter U:
Underfitting | 欠擬合/欠配 |
Undersampling | 欠取樣 |
Understandability | 可理解性 |
Unequal cost | 非均等代價 |
Unit-step function | 單位階躍函式 |
Univariate decision tree | 單變數決策樹 |
Unsupervised learning | 無監督學習/無導師學習 |
Unsupervised layer-wise training | 無監督逐層訓練 |
Upsampling | 上取樣 |
Letter V:
Vanishing Gradient Problem | 梯度消失問題 |
Variational inference | 變分推斷 |
VC Theory | VC維理論 |
Version space | 版本空間 |
Viterbi algorithm | 維特比演算法 |
Von Neumann architecture | 馮 · 諾伊曼架構 |
Letter W:
Wasserstein GAN/WGAN | Wasserstein生成對抗網路 |
Weak learner | 弱學習器 |
Weight | 權重 |
Weight sharing | 權共享 |
Weighted voting | 加權投票法 |
Within-class scatter matrix | 類內散度矩陣 |
Word embedding | 詞嵌入 |
Word sense disambiguation | 詞義消歧 |
Letter Z:
Zero-data learning | 零資料學習 |
Zero-shot learning | 零次學習 |