常見AI面試題及答案

haimianjie2012發表於2019-02-20

考察資料科學家深度學習水平的30道題

特徵工程

離散、連續特徵一般怎麼處理(onehot、歸一化、why、方法 等);

特徵變換、構造/衍生新特徵(woe、iv、統計量 等);

特徵篩選(離散、連續、多重共線性 等);

取樣(除了隨機呢?);

缺失值處理(離散、連續)...

機器學習

常用loss、正則、sgd、l-bfgs、auc公式及優缺點、資料不平衡時的調參...

booting:gbdt的loss、分裂節點依據、防過擬合;

xgb的loss選擇、泰勒展開、正則(gbdt能加麼)、並行、vs lightGBM;

lambdaMart的loss--如何直接優化metric(如NDCG)--學習/train過程;

svm的優化目標、軟間隔、調參;

lr;rf;

深度學習

dnn為什麼要“deep”、deep後帶來的資訊傳遞/梯度傳遞問題及其優化策略(可以從網路結構、activation、normalization等方面闡述);

卷積層學習過程(前後向)及引數數量估計;

polling作用、優缺點、why用的越來越少;

rnn長依賴問題、梯度問題;

lstm的input output forget gate作用於哪、gru的update gate呢?

常用loss(分類、迴歸)、activation、optimizer(從一階矩估計到二階)、加了BN後做predict均值方差從哪來、常用的attention舉例

強化學習

什麼問題適合RL/MLE的缺陷、trail-and-error search、policy-based vs value-based、on-policy vs off-policy等

q learning中q值得更新(其實很好記:當前q值 += 學習率*(環境reward+ 新狀態下最大的q值*衰減值)、為什麼要乘衰減值);

DQN使用network代替q_table的初衷、兩個network(結構一致、引數交替更新)、儲存記憶 off-policy;

policy gradients如何學習/擬合目標( -log(prob)*vt 像不像交叉熵...)、按概率選action vs epsilon-greedy;

Actor-Critic中的actor與critic、優缺點、收斂問題、DDPG、

以上這些都是考察基本功的、基本都是書上的知識點

NLP

詞法/序列標註相關:hmm、crf、lstm、lstm+crf(細節:對於轉移特徵、轉移概率 hmm crf lstm+crf分別是怎麼學的?)

句法:有了依存關係 如何確定主謂賓、舉幾個例子

word2vector:層次softmax、負取樣、 vs GloVe

topic相關:lsa(可以引到svd、基於mse的fm);lda why引入共軛先驗分佈、調參(針對兩個先驗);

+DL:cnn filter的設計、seq2seq+attention的padding問題(對padding的字元如何做attention、如何忽略、用tensorflow/pytorch大致寫一下)、tree lstm...

任務相關:beam search做生成、dialog中對回覆做lable smooth 提高回覆多樣性...

相關文章