2021南大855(人工智慧)考研計劃一覽

李豪呀發表於2020-04-11

0 寫在前面

2021年是NJU人工智慧學院研究生第三年招生。
南京大學855 人工智慧全日制研究生
理想分數:初試,滿分500,目標400分,其中數學140,專業課120,英語80,政治60。複試,滿分300,目標200。

需要交流直接私信,午飯、晚飯和睡前會看。

2020/6/20-2020/9:暑期目標:維持數學和專業課的狀態(保持每天都在看書和做題,遇到不熟的知識點立刻鞏固),英語全方面提升(口語、聽力、閱讀、翻譯、作文)。
2020/9/9:數學大綱小改

參考資料:

  1. 人工智慧學院19考研經驗貼Wiki
  2. 人工智慧學院20考研經驗貼Wiki
  3. 21南大人工智慧考研 QQ群:686411297
  4. 南大人院官網

1 計劃一覽表

時間僅個人記錄,不是參考複習時間。

1.1 考研複習基礎階段(11月1日-5月6日)

基礎階段著重於基礎,要能做到拿到題目知道考的哪一塊知識點並且能給出一些思路(除政治外)

1.1.1 考研數學

時間任務備註進度
11.17-11.27張宇高數36講這部分基礎較好並且大一大二各刷過一邊,用較快速度過。結束
11.17-11.27張宇閉關修煉配合強化班使用結束
1.6-3.10,4.22-5.6張宇1000題第一輪打基礎過程中最重要的題包,考研基本上就只刷這個題了,會刷2遍,掌握的題直接劃去。一輪結束

1.1.2 考研專業課

時間任務備註進度
11.17-12.15《C++ primer plus》+菜鳥教程掌握C++基本語法,遇到再學結束
12.18-1.2,3.25-4.11資料結構,演算法設計與分析兩輪基本概念都瞭解,剩下的通過刷題來鞏固結束
12.25-12.30人工智慧,aima書和部落格,粗略看一遍即可結束
2.1-2.6西瓜書二刷在準備考研之前就已經讀過一遍,不過不了解考試重點,還是先鞏固一下基礎結束

1.1.3 考研英語

時間任務備註
1.7-4.20綠皮書詞彙一天一個list,注意複習結束

1.1.4 其它

時間任務備註
1月6日-3月25日復現資料競賽topline,包括但不限於迴歸、分類、CV、NLP花了許多時間依然沒有拿到好成績,希望考上研有更好的資源去學習和參加競賽吧,結束。

1.2 考研複習強化階段(5月7日-9月9日)

強化階段著重於,要做到有吃透題目,也就是拿到題目知道考什麼、用什麼方法、回憶類似的題型的實力。
2020/7/9:這裡我必須分享一種我覺得超有效率的學習方法,基本思想是大事化小,小事化了,即(在足夠自信的基礎上)對於已經掌握的知識點(或是已經學會的單詞等等)直接劃去,這樣做我覺得一可以明確自己的薄弱點,二在學習過程中會有大大的成就感。另外考慮到遺忘,所以我在遇到不會的題或者其他東西的時候就會記下來,然後學完之後繼續劃去。因此我喜歡看電子版的書,刷電子版的題,因為可以省筆油,而且劃得快。

1.2.1 考研數學

時間任務備註進度
5.26-8.27實戰數一(模擬卷+真題)當作考試來做結束
6.26-7.9數一真題練習題通常難度是在真題之上的,這個任務目標是適應難度,抓住複習重點。我分成四個部分,1微分(極限,一元微分,多元微分,微分方程),2積分(一元積分,重積分,解析幾何),3(無窮級數,證明題,概率論),4(線性代數)結束
5.7-5.20張宇1000題第二輪第二輪就是把沒劃去的題逐漸劃去,若做模擬卷時做錯了題就從相應的題取消劃去操作,建立自己的題庫(典型題、錯題、難題)結束
6.20-8.27保持狀態茆詩鬆和張宇結束

1.2.2 考研專業課

時間任務備註進度
8.6-8.21每天leetcode題解學習結束
5.7-6.5845,855,408相關真題都做一遍自建題庫,不夠的話去王道天勤牛客。855結束、845結束、ai習題整理完畢、408結束
6.20-8.27保持狀態每天都得看殷/黃/aima/西瓜書結束

1.2.3 考研英語

時間任務備註進度
5.7-9.9建立生詞本,每天覆習結束
5.7-6.27張劍閱讀理解精讀結束
8.25-9.9專項訓練結束

1.2.4 考研政治

政治基礎較差,提前花點時間補基礎。

時間任務備註進度
7.15-7.26徐濤《核心考案》+強化班結束
7-27-8.20《1000題》,真題,思維導圖結束後也要保持狀態結束

1.3 考研複習衝刺階段(9月10日-12月27日)

1.3.1 考研數學

時間任務備註進度
9.10大綱透析結束
9.15-9.16最後一輪系統複習高數結束
9.19-12.27刷完世界上所有的卷子儘量當作考試來做

1.3.2 考研政治

時間任務備註進度
9.10大綱透析結束
9.10-9.11最後一輪複習結束
9.19-12.27刷完世界上所有的卷子儘量當作考試來做

1.3.3 考研英語

時間任務備註進度
9.11大綱透析結束
9.11-12.27刷完世界上所有的卷子儘量當作考試來做

1.3.4 考研專業課

時間任務備註進度
9.13-9.15最後一輪系統複習資料結構結束
9.19-12.27刷完世界上所有的卷子儘量當作考試來做

1.3.5 其它

時間任務備註
9月19日英語六級考試

2 資料

2.1 考研科目

2.1.1 初試

  1. 101 思想政治理論

試卷題型分值分佈

  • 單選: 16 ∗ 1 ′ = 1 6 ′ 16*1'=16' 161=16
  • 多選: 17 ∗ 2 ′ = 3 4 ′ 17*2'=34' 172=34
  • 案例分析: 5 ∗ 1 0 ′ = 5 0 ′ 5*10'=50' 510=50

我用的書:

  • (看完了)徐濤 核心考案
  • (完)徐濤刷題
  • (完)徐濤真題
  • 肖四肖八
  1. 201 英語一

試卷範圍分值分佈

  • 完型: 20 ∗ 0. 5 ′ = 1 0 ′ 20*0.5'=10' 200.5=10
  • 閱讀: 4 ∗ 5 ∗ 2 ′ = 4 0 ′ 4*5*2'=40' 452=40
  • 新閱讀: 5 ∗ 2 ′ = 1 0 ′ 5*2'=10' 52=10
  • 翻譯: 5 ∗ 2 ′ = 1 0 ′ 5*2'=10' 52=10
  • 小作文(應用文寫作): 1 0 ′ 10' 10
  • 大作文: 2 0 ′ 20' 20

我用的書

  • (看完了)詞彙:綠皮書
  • (做完了)閱讀:張劍黃皮書
  • (完)作文:張劍寫作高分突破
  • (ing)真題
  1. 301 數學一

試卷範圍分值分佈:

  • 高數: 90 90 90,6個單選,4個填空,4個簡答
  • 線代: 3 3 ′ 33' 33,2個單選,1個填空,1個簡答
  • 概率論: 3 3 ′ 33' 33,2個單選,1個填空,1個簡答

試卷題型分值分佈

  • 單選: 10 ∗ 5 ′ = 5 0 ′ 10*5'=50' 105=50
  • 填空: 6 ∗ 5 ′ = 3 0 ′ 6*5'=30' 65=30
  • 簡答:6題共 7 0 ′ 70' 70

我用的書

  • (看完了)張宇36講
  • (看完了)張宇1000題
  • (看完了)張宇閉關修煉
  • (看完了)真題
  1. 855 資料結構、演算法、人工智慧、 概率統計

試卷題型分值分佈

  • 單選: 40 ∗ 2 ′ = 8 0 ′ 40*2'=80' 402=80
  • 簡答:8題共 7 0 ′ 70' 70

參考用書

  • (看完了)人工智慧:一種現代的方法(第3版)(影印版) (英語) 平裝,拉塞爾(Stuart J.Russell), 諾維格(Peter Norvig) 有譯版,通常叫這本書為aima。以aima的書為主,輔助mooc 。 以去年的經驗,西瓜書前10章+aima的搜尋、學習部分也足夠應對考試,邏輯需要了解些基本概念
  • (看完了)《機器學習》周志華,也叫西瓜書
  • (看完了)《資料結構(用物件導向方法與C++描述)》(第二版),殷人昆等,清華大學出版社;一定要帶上配套習題和解析
  • (這本我沒看,看黃宇那本就可以了)計算機演算法——設計與分析導論 (影印版,Computer Algorithms: Introduction to Design and Analysis, 3rd Edition),Sara Baase, Allen Van Gelder 編著,高等教育出版
  • (看完了)《演算法設計與分析》 黃宇
  • 《演算法導論》第三版。輔助學習,不是考試重點。
  • (看完了)《概率論與數理統計》,高祖新、陳華均(編),南京大學出版社 推薦 浙大第四版或者南大本科用的概率論 (傅冬生)。我用的是茆詩鬆的。

2.1.2 複試

  1. 3701 筆試:離散數學

參考用書:

  • 離散數學 屈婉玲第二版 (有配套習題解析) 配合<離散數學及其應用>
    離散重點可以參考cs大里的資料。
    離散全是證明,重點邏輯 集合 群 圖(其實都是重點)
  1. 3702 筆試:機器學習

參考用書:

  • 機器學習 周志華
  1. 3703 C++程式設計上機考試
  • C++語言基礎這裡就不給建議了,學個基礎就行了。比如可以在《C++ primer plus》第六版(這本是我用的,發現裡面太多無關知識了,就當作字典粗略看一下就行了)、菜鳥教程等地方學習。

  • 難度:<=PAT甲,小於等於Leetcode Medium,題面純英文
    南大喜歡考bfs dfs dp這些,著重注意一下
    想追求更好分數的可以刷一下牛客網或者leetcode

  • 編譯器:C++ Vs2013 Dev
    Java eclipse

  1. 3704 綜合面試
  • 面試是全英語?面試哪幾個方面進行準備
    英文自我介紹並回答2個左右的問題。

準備的話,如果做過專案準備專案,沒做過專案把基礎打好,尤其是數學和機器學習相關的。

2.2 歷年招生情況

2.2.1 2019年(第一年招生)

擬招收總人數其中擬接收推免生人數擬錄取人數
352835
報名人數錄取人數其中免試人數
963528

實際考研預錄取情況
有10個同學進入複試最終選了分數前七的。
在這裡插入圖片描述

2.2.2 2020年(第二年招生)

學校招生安排

擬招收總人數其中擬接收推免生人數擬錄取人數
453510

擴招後招生安排

擬招收總人數其中擬接收推免生人數擬錄取人數
603525

進入複試的初試成績(30人)
在這裡插入圖片描述

擬錄取(25人),可以看出初試排名靠前全部錄取,排名靠後也可逆襲
在這裡插入圖片描述

2.2.3 2021年(第三年招生)

學校招生安排

擬招收總人數其中擬接收推免生人數擬錄取人數
55待定待定

2.3 專業課真題回憶

真題回憶參考歷年考生的回憶和總結,並給出我的參考答案。

2.3.1 2019年

2.3.1.1 選擇題

大致上四科比例基本一致,難度不大

2.3.1.2 大題

資料結構10分 演算法26分 AI 14分 概率論20分

  1. (AI)一道問過擬合的原因和解決方案,
    在訓練充足後,學習器的擬合能力已經非常強,此時訓練誤差仍在逐漸減少,甚至擬合了訓練資料中的噪聲和訓練樣例中沒有代表性的特徵,導致這時候方差逐漸主導了泛化誤差,使得測試誤差逐漸增大,發生過擬合。
    解決方法:簡化模型(減少模型引數)、正則化、增加訓練樣本、Early Stopping、ensemble(整合學習演算法也可以有效的減輕過擬合。Bagging通過平均多個模型的結果,來降低模型的方差。Boosting不僅能夠減小偏差,還能減小方差)。
  2. (AI)一題naive bayes的獨立性假設的解釋,一道貝葉斯預製函式 說明作用
    每個屬性獨立地對類別產生影響
  3. (資料結構)寫中序二叉樹遞迴 畫二叉樹
  4. (演算法)一道時間複雜度估計
  5. (演算法)dp(最長公共子序列),字元距離演算法優化16分
    用二維陣列c[i][j]記錄串x1x2⋯xi與y1y2⋯yj的LCS長度,則可得到狀態轉移方程
    在這裡插入圖片描述
    在這裡插入圖片描述
  6. (演算法)一道希爾排序,寫完整個過程。
  7. (數理統計)一道多維變數的數一典型例題:密度函式定義,邊緣分佈,獨立性,z=x+y。
  8. (數理統計)統計量(均值方差等),假設檢驗(雙邊t檢驗,佔分值較高)。

2.3.2 2020年

2.3.2.1 選擇題

  1. (AI)bfs和dfs哪個空間更少,以及迭代加深搜尋
  2. (資料結構)k路歸併最好情況下時間複雜度 O(nlogkn)
  3. (AI)迭代加深的深度優先遍歷,時間複雜度更近似於dfs/bfs,空間複雜度更近似於dfs/bfs
  4. (AI)α-β剪枝的說法錯誤的是,A,一種加速方法 B,針對minimax決策樹 C,能夠加快搜尋 D,能夠節省儲存空間 BCD都是對的,A不知道在說什麼所以選A
  5. (AI)命題邏輯和一階邏輯的關係
  6. (AI)具有無限VC維度的是 1,神經網路 2決策樹 3,聚類演算法 4,樸素貝葉斯
  7. (AI)被譽為人工智慧之父的是誰 西瓜書P22,約翰·麥卡錫
  8. (演算法)問哪一個是貪婪演算法 A 01揹包問題,B迪傑斯特拉演算法, C快排,D弗洛伊德。(B)
  9. (資料結構)哈夫曼樹度為m 有葉子結點n個 問其非葉子結點的數目。殷書P240

這題表示哈夫曼樹的節點 的度要麼是0要麼是m
設度不為0(即非葉結點)的個數為X
則總的結點數為:X+n
除葉結點外,對於度為m的每個結點都有m個分支,而度為0的結點是沒有分支的,所以從分支的情況來看
總的結點數位:X*m + 1(這裡的1為根結點)
兩者相等,所以答案是 (n-1) / (m-1)

  1. (資料結構)二叉中序線索樹 問一個有左子女非終端節點的前驅是哪個節點?殷書P213,左子樹中序下的最後一個節點(子樹中最右下的節點)

  2. (資料結構)設F是一個森林,B是由F轉換得到的二叉樹,F中有n個非終端結點,B中右指標域為空的結點有? 殷書P225,殷書練習冊5.42(13)(答案為A) A . n + 1 B . n C . n − 1 D . n + 2 A. n+1 \quad B. n \quad C. n-1 \quad D. n+2 A.n1B.nC.n1D.n+2

  3. (演算法)基本有序的元素適合的演算法 沒有選項,氣泡排序?

  4. (演算法)採用遞迴方式對順序表進行快速排序,下列關於遞迴次數的敘述中,正確的是(D
    A遞迴次數與初始資料的排列次序無關
    B每次劃分後,先處理較長的分割槽可以減少遞迴次數
    C每次劃分後,先處理較短的分割槽可以減少遞迴次數
    D遞迴次數與每次劃分後得到的分割槽處理順序無關

  5. (數理統計)事件獨立互斥

  6. (演算法)dp理論相關的一道 題目忘了

2.3.2.2 大題

  1. (演算法)上n節樓梯,只能蹦一層,兩層。問有多少種蹦法,分析“計算”複雜度
    f(1)=1,f(2)=2,f(n)=f(n-1)+f(n-2)
    O(2^n)

  2. (資料結構)avl平衡樹插入節點畫轉換後的樹
    在這裡插入圖片描述

  3. (演算法)迴圈連結串列填程式碼,約瑟夫問題,(殷書P68)

  4. (資料結構)哈夫曼,給出了哈弗曼編碼,A1 E01 S000 T001,根據01序列還原字串,畫出哈夫曼樹。(殷書P244)

  5. (AI)井字棋的最大最小值以及最佳策略,最大最小搜尋樹畫圖,書上例題
    在這裡插入圖片描述
    以書上例題作為題設(最後一句話忽略)
    在這裡插入圖片描述
    則答案如下圖所示
    在這裡插入圖片描述
    當然是走右邊那條路了。

  6. (AI)過擬合分析,給了一個神經網路訓練和測試誤差圖,訓練誤差逐漸減小,測試誤差先減小後開始回升,由此判斷是什麼現象,分析其中原因,給解決方法
    在這裡插入圖片描述
    在迭代初期,神經網路(學習器)的擬合效果不夠強,訓練誤差和測試誤差都比較大,此時偏差主導誤差,發生欠擬合。隨著迭代的進行(隨著訓練的加深),神經網路(學習器)擬合效果逐漸增強,訓練誤差和測試誤差逐漸減小。但在迭代的後期(訓練充足後),神經網路(學習器)的擬合能力已經非常強,此時訓練誤差仍在逐漸減少,甚至到最後訓練誤差為0,即完全擬合訓練集,甚至擬合了訓練資料中的噪聲和訓練樣例中沒有代表性的特徵,導致這時候方差逐漸主導了泛化誤差,使得測試誤差逐漸增大(回升),此時發生過擬合。
    解決辦法:簡化模型(減少神經網路的層數或減少部分層的神經元數量)、正則化、增加訓練樣本、Dropout、Early Stopping、ensemble(整合學習演算法也可以有效的減輕過擬合。Bagging通過平均多個模型的結果,來降低模型的方差。Boosting不僅能夠減小偏差,還能減小方差)。

  7. (概率論)求概率密度,分四小問,一求引數,二求邊緣密度函式,三求是否相互獨立,四求z=x+y概率密度;

  8. (概率論)矩估計和極大似然估計

2.4 導師和實驗室等資料

LAMDA官網
LAMDA招生說明

3 可能有用的資料

相關文章