程式設計和數學基礎不佳如何入門人工智慧?
程式設計和數學基礎不佳如何入門人工智慧?
https://mp.weixin.qq.com/s/x862NJ3iHS5pGVXhd-uf3w
一、人工智慧的發展現狀
1.1 概念
根據維基百科的解釋,人工智慧是被機器展示的智力,與人類和其他動物的自然智慧相反,在電腦科學中 AI 研究被定義為 “代理人軟體程式”:任何能夠感受周圍環境並且能最大化它成功機會的裝置。
1.2 重大事件
- 2016 年 3 月,AlphaGo 與當時世界排名第四、職業九段棋手李世石,進行圍棋人機大戰,以 4:1 總比分獲勝。
- 2016 年 10 月,美國白宮釋出了《為未來人工智慧做好準備》和《美國國家人工智慧研究與發展策略規劃》兩份重磅報告,詳細闡述了美國未來的人工智慧發展規劃以及人工智慧給政府工作帶來的挑戰與機遇。
VentureBeat 對這兩份報告進行了總結,得出了 7 個淺顯易懂的要點:
1. 人工智慧應當被用於造福人類;
2. 政府應該擁抱人工智慧;
3. 需要對自動汽車和無人機進行管制;
4. 要讓所有孩子都跟上技術的發展;
5. 使用人工智慧補充而非取代人類工作者;
6. 消除資料中的偏見或不要使用有偏見的資料;
7. 考慮安全和全球影響。
- 2016 年雙十一,魯班首次服務雙十一,製作了 1.7 億章商品展示廣告,提升商品點選率 100%。如果全靠設計師人手來完成,假設每張圖需要耗時 20 分鐘,滿打滿算需要 100 個設計師連續做 300 年。
2017 年,魯班的設計水平顯著提升,目前已經學習百萬級的設計師創意內容,擁有演變出上億級的設計能力。此外,魯班已經實現一天製作 4000 萬張海報能力,沒有一張會完全一樣。
- 2017 年 5 月,AlphaGo Master 戰勝世界冠軍柯潔。
- 2017 年 10 月 18 日,DeepMind 團隊公佈了最強版本 AlphaGo, 代號 AlphaGo Zero。
- 2017 年 10 月 25 日,在沙特舉行的未來投資計劃大會上,沙烏地阿拉伯授予美國漢森機器人公司生產的 “女性” 機器人索菲亞公民身份。
作為世界上首個獲得公民身份的機器人,索菲亞當天說,“她” 希望用人工智慧 “幫助人類過上更好的生活”,同時對支援 “AI 威脅論” 的馬斯克說 “人不犯我,我不犯人”!
會後,馬斯克在推特上說:“把電影《教父》輸入了人工智慧系統,還能有什麼比這個更糟的?” 教父是好萊塢經典電影,劇情充滿了背叛和謀殺。
索菲亞被授予公民身份後所產生的倫理問題也是人們不得不考慮的
近幾年人工智慧領域的大新聞太多,這裡不一一列舉
二、人工智慧、深度學習、機器學習、增強學習之間的關係是怎樣的
如圖所示,人工智慧是一個大類,包括專家系統、知識表示、機器學習等等,其中機器學習是目前最火也是發展最好的一個分支,機器學習中又包括監督學習、非監督學習、深度學習,增強學習等等。
監督學習 ,就是人們常說的分類,透過已有的訓練樣本(即已知資料以及其對應的輸出)去訓練得到一個最優模型(這個模型屬於某個函式的集合,最優則表示在某個評價準則下是最佳的)。
再利用這個模型將所有的輸入對映為相應的輸出,對輸出進行簡單的判斷從而實現分類的目的,也就具有了對未知資料進行分類的能力。
舉例來說,我們上幼兒園的時候經常做的一個活動叫 看圖識字 ,如上圖所示,老師會給我們看很多圖片,下面配了文字,時間長了之後,我們大腦中會形成抽象的概念,兩個犄角,一條短尾巴,胖胖的(特徵)…
這樣的動物是牛;圓的,黃的,發光的,掛在天上的 … 是太陽;人長這樣。等再看到類似的東西時我們便能認出來,即使跟以前看到的不完全一樣,但是符合在我們大腦中形成的概念,如下圖所示。
非監督學學習 則是另一種研究的比較多的學習方法,它與監督學習的不同之處,在於我們事先沒有任何訓練樣本,而需要直接對資料進行建模。
舉個例子,如圖所示,在沒有任何提示(無訓練集)的情況下,需要把下列六個圖形分成兩類,你會怎麼分呢,當然是第一排一類,第二排一類,因為第一排形狀更接近,第二排形狀更接近。
非監督學習就是在實現不知道資料集分類的情況下在資料中尋找特徵。
深度學習 是基於機器學習延伸出來的一個新的領域,由以人大腦結構為啟發的神經網路演算法為起源加之模型結構深度的增加發展,並伴隨大資料和計算能力的提高而產生的一系列新的演算法。
深度學習概念由著名科學家 Geoffrey Hinton 等人在 2006 年和 2007 年在《Sciences》等上發表的文章被提出和興起。
深度學習,作為機器學習中延伸出來的一個領域,被應用在影像處理與計算機視覺,自然語言處理以及語音識別等領域。
自 2006 年至今,學術界和工業界合作在深度學習方面的研究與應用在以上領域取得了突破性的進展。以 ImageNet 為資料庫的經典影像中的物體識別競賽為例,擊敗了所有傳統演算法,取得了前所未有的精確度。
增強學習 也是機器學習一個重要的分支,是透過觀察來學習做成如何的動作。每個動作都會對環境有所影響,學習物件根據觀察到的周圍環境的反饋來做出判斷。
三、數學基礎有多重要
對於數學基礎知識,需要高中數學知識加上高數、線性代數、統計學、機率論,即使掌握的不是很完善,但是至少要知道概念,在用到的時候知道去哪查。
如果基礎不好,可以先看看吳軍的《數學之美》,講的比較通俗易懂。也可以邊做邊學,實踐是檢驗真理的唯一標準,畢竟大多數人還是以工程實踐為主,如果你想做研究理論的科學家,並不適合看本文。
四、入門級機器學習演算法
4.1 決策樹
判定樹是一個類似於流程圖的樹結構:其中,每個內部結點表示在一個屬性上的測試,每個分支代表一個屬性輸出,而每個樹葉結點代表類或類分佈。樹的最頂層是根結點。
例:現有一個資料集,表示一些的人的年齡、收入、是否是學生、信用、是否會買電腦。年齡有年輕,中年,老年三種;收入有高中低;信用有一般和很好。資料及儲存在 AllElectronics.csv 中。
現在在有一個新的人(資料),要判斷這個人是否會買電腦。
allElectronicsData = open(r'D:\deeplearning\AllElectronics.csv', 'rb')
reader = csv.reader(allElectronicsData)
headers = reader.next()
print(headers)
featureList = []
labelList = [] #最後一列
for row in reader:
#print(row)
labelList.append(row[len(row)-1]) #在元祖末尾新增元素
rowDict = {}
for i in range(1,len(row)-1):
rowDict[headers[i]] = row[i]
featureList.append(rowDict)
print(featureList)
print(labelList)
vec = DictVectorizer()
dummyX = vec.fit_transform(featureList).toarray()
print("dummyX:" + str(dummyX))
print(vec.get_feature_names())
lb = preprocessing.LabelBinarizer()
dummyY = lb.fit_transform(labelList)
print("dummyY:" + str(dummyY))
clf = tree.DecisionTreeClassifier(criterion='entropy')
clf = clf.fit(dummyX,dummyY)
print("clf: "+ str(clf))
with open("allElectronicInformationGainDri.dot",'w') as f:
f = tree.export_graphviz(clf,feature_names=vec.get_feature_names(),out_file = f) #在當前工作目錄生成 .dot 檔案
oneRowX = dummyX[0, :]
print("oneRowx: " + str(oneRowX))
newRowX = oneRowX
newRowX[0] = 1
newRowX[2] = 0
print("newRowX: " + str(newRowX))
predictedY = clf.predict(newRowX)
print("predictedY:" + str(predictedY))
4.2 最臨近取樣
最臨近取樣就是把已有資料分成幾類,對新輸入的資料計算與已知資料的距離,距離哪一個近,就把新資料分到哪一類,例如下圖所示的電影分類,對於最後一行未知電影型別的電影,根據打鬥次數和接吻次數,距離浪漫型更近,應該被歸類為浪漫型電影。
例:irisdata.txt 實在網上下載的鳶尾屬植物資料集,根據資料集合,對新的資料進行分類。
# coding:utf-8
#不呼叫庫,自己實現 knn 演算法
import csv #讀取 CSV 檔案用的模組,讀取資料用的
import random #隨機數計算
import math #數學計算
import operator
from bokeh.util.session_id import random
from boto.beanstalk import response
from dask.array.learn import predict
# 裝載資料集 filename:資料集檔名 split:以資料集中某個位置為結點,把資料集分為 trainingSet 和 testSet
def loadDataSet(filename, split, trainingSet=[], testSet=[]):
with open(filename, 'rb') as csvfile:
lines = csv.reader(csvfile) #把所有行存入 lines
dataset = list(lines) #把資料轉換為 list 格式
for x in range(len(dataset)-1):
for y in range(4):
dataset[x][y] = float(dataset[x][y])
if random.random() < split: #如果隨機值小於 split
trainingSet.append(dataset[x]) #則加到 trainingSet
else:
testSet.append(dataset[x])
#歐幾里德距離 :座標差的平方的和再開根號 還有曼哈頓距離
def euclideanDistance(instance1, instance2, length):
distance = 0
for x in range(length):
distance += pow((instance1[x] -instance2[x]), 2)
return math.sqrt(distance)
#返回距離 testInstance 最近 trainingSet 的 K 個鄰居
def getNeighbours(trainingSet, testInstance, k):
distances = []
length =len(testInstance) - 1
for x in range(len(trainingSet)):
dist = euclideanDistance(testInstance, trainingSet[x], length) #每一個訓練集資料和例項資料之間的距離
distances.append((trainingSet[x],dist))
distances.sort(key=operator.itemgetter(1)) #sort 排序為從小到大
#取前 k 個最近的 neighbors
neighbors = []
for x in range(k):
neighbors.append(distances[x][0])
return neighbors
#根據少數服從多數的原則判斷要預測例項屬於哪一類。計算 testInstance 到 trainingSet 距離最近的個數,返回最多的那一類
def getResponse(neighbors):
classVotes = {}
for x in range(len(neighbors)):
response = neighbors[x][-1]
if response in classVotes:
classVotes[response] += 1
else:
classVotes[response] = 1
sortedVotes = sorted(classVotes.iteritems(), key=operator.itemgetter(1), reverse=True)
return sortedVotes[0][0]
#獲取預測的準確率 testSet:測試資料集 predictions:用程式碼預測的類別集合
def getAccuracy(testSet, predictions):
correct = 0
for x in range(len(testSet)):
if testSet[x][-1] == predictions[x]: #-1 表示陣列的最後一個值。
correct += 1
return(correct/float(len(testSet))) * 100.0
def main():
trainingSet=[]
testSet=[]
split = 0.67 #三分之二為訓練集 , 三分之一為資料集
loadDataSet(r'C:\Users\ning\workspace\KNNdata\irisdata.txt', split, trainingSet, testSet)
print 'Train Set: ' + repr(len(trainingSet)) #repr 轉化為字串
print 'Test Set: ' + repr(len(testSet))
predictions = []
k = 3
for x in range(len(testSet)):
neighbors = getNeighbours(trainingSet, testSet[x], k)
result = getResponse(neighbors)
predictions.append(result)
print("> predicted=" + repr(result) + ', actual=' + repr(testSet[x][-1]))
accuarcy = getAccuracy(testSet, predictions)
print('Accuracy: ' + repr(accuarcy) + '%')
main()
4.3 支援向量機
支援向量機(SVM)是從線性可分情況下的最優分類面發展而來。最優分類面就是要求分類線不但能將兩類正確分開 (訓練錯誤率為 0), 且使分類間隔最大。
SVM 考慮尋找一個滿足分類要求的超平面 , 並且使訓練集中的點距離分類面儘可能的遠 , 也就是尋找一個分類面使它兩側的空白區域 (margin) 最大。
這兩類樣本中離分類面最近的點且平行於最優分類面的超平面上 H1,H2 的訓練樣本就叫做支援向量。
例:使用 sklearn 庫實現 svm 演算法, 俗稱調庫,實際上調庫是一個很簡單的過程,初級階段甚至都不需要知道原理。
# coding:utf-8
from sklearn import svm
X = [[2,0], [1,1], [2,3]]
y = [0,0,1]
clf = svm.SVC(kernel = 'linear')
clf.fit(X,y) #?透過 .fit 函式已經可以算出支援向量機的所有引數並儲存在 clf 中
print clf
# get support vectors
print clf.support_vectors_
#get index of support vectors
print clf.support_
#get number of support vectors for each class
print clf.n_support_
#predict data , 引數是二維陣列
print clf.predict([[2, 0], [10,10]])
五、書單推薦
- 《數學之美》吳軍
- 《機器學習》 周志華
- 《漫談人工智慧》 集智俱樂部
- 《機器學習實戰》 Peter Harrington
- 《TensorFlow 技術解析與實戰》 李嘉璇
- 《統計學習方法》 李航
六、學習人工智慧的誤區—人工智慧又是一個泡沫?
人工智慧很大程度上被一些科技巨頭公司誇大了,為了拿到資本的錢,這也在情理之中,但是普通大眾一定要有自己的鑑別能力,客觀地分析自己到底是否適合做這一行。
縱觀網際網路發展史,人工智慧這種發展態勢並不是首例,像 2014 年爆紅的 O2O 模式,那時候不懂點 O2O 都不敢說自己是網際網路圈的人。
到現在,一批又一批的創業大軍倒下去,當然也會留下像亞馬遜、阿里巴巴這樣的巨頭,每個行業都有它的金字塔。
我上大二的時候可以說 3D 列印、VR 技術處在風口浪尖,各種 3D 列印創業公司、VR 創業公司層出不窮,大四就已經開始倒了一家又一家,包括我也做過 3D 列印方面的專案,實際上做的東西也不過時改進一些邊邊角角的東西,最核心的框架早已被大牛們設計好了。
盲目追隨科技的潮流,我們永遠只能在潮流的後面。
最近看 CCTV 上都已經有撒貝南主持的人工智慧綜藝節目了,這說明人工智慧早已成了一片紅海,與現在的移動網際網路技術並沒有本質上的區別。
自從 Google 開源 TensorFlow 框架(還有很多其他優秀的框架),寫機器學習的程式碼很多都是調調引數,有的甚至都不用知道原理,當然大牛肯定是有, 還是那句話,每個行業都有的它的金字塔 ,只不過到達塔尖的路徑不同。
在我看來,呼叫 TensorFlow 的框架進行人工智慧的開發與呼叫 Android 的 API 開發 App 並沒有本質的區別,真正偉大的是谷歌公司,後來者只不過是追隨者。
題外話,不知道大家是否聽過 21 世紀是生物的世紀 ,這一概念興起之時,眾多高考生選擇生物相關的專業。之前有個對國內某著名高校生物專業畢業生的就業去向調查,其中一個結論是生物專業學生最好的出路就是離開這個專業。
當然我們不得不說生物技術跟我們每個人的生活息息相關,但是其發展週期之長,又怎是一個人等得起的?如何把個人認同與社會認同,自我價值與社會價值協調統一,也是我們需要思考的問題。
人工智慧是否是個泡沫?這個概念還能火多久?
第六部分內容純屬個人觀點,僅供參考。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2149103/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Java入門之基礎程式設計Java程式設計
- 0基礎如何入門人工智慧?人工智慧
- Shell程式設計基礎學習之六:sed 入門程式設計
- C語言入門基礎之陣列——數學和程式設計的完美結合(圖)C語言陣列程式設計
- iPhone和iPad程式設計入門 零基礎學習編寫AppiPhoneiPad程式設計APP
- ui設計培訓需要什麼基礎?如何入門學習?UI
- C#程式設計基礎入門教程pdfC#程式設計
- 【Python入門基礎】網路程式設計Python程式設計
- Linux-shell程式設計入門基礎Linux程式設計
- 【轉載】零基礎小白如何入門 Python 程式設計Python程式設計
- [轉載] 零基礎小白如何入門 Python 程式設計Python程式設計
- Shell程式設計基礎學習之三:變數和test程式設計變數
- 人工智慧必備數學基礎:高等數學基礎(1)人工智慧
- 人工智慧必備數學基礎:高等數學基礎(2)人工智慧
- Python程式設計入門基礎語法詳解Python程式設計
- Python基礎入門(6)- 物件導向程式設計Python物件程式設計
- 人工智慧數學基礎----導數人工智慧
- Android程式設計基礎 • 【第1章 Android程式入門】Android程式設計
- 0基礎如何進入Java程式設計領域Java程式設計
- 程式設計和網路程式設計入門程式設計
- 學習筆記 -《量子計算與程式設計入門》- 量子計算機硬體基礎筆記程式設計計算機
- 程式設計入門——壘積木學程式設計程式設計
- [.net 物件導向程式設計基礎] (5) 基礎中的基礎——變數和常量物件程式設計變數
- 程式設計入門學什麼?程式設計
- 人工智慧程式設計師入門應該學哪些演算法?人工智慧程式設計師演算法
- Python基礎入門_2基礎語法和變數型別Python變數型別
- 函數語言程式設計入門函數程式設計
- 人工智慧數學基礎—-矩陣人工智慧矩陣
- 人工智慧數學基礎----矩陣人工智慧矩陣
- python入門,程式設計基礎概念介紹(變數,條件,函式,迴圈)Python程式設計變數函式
- 好程式設計師Python培訓分享基礎入門Django程式設計師PythonDjango
- Python網路程式設計(基礎總結入門經典)Python程式設計
- Python程式設計入門——基礎語法詳解(經典)Python程式設計
- 程式設計師健康防猝指南5:運動基礎入門程式設計師
- 零基礎人工智慧入門-限時免費學習人工智慧
- 如何以零基礎學習Python程式設計?Python程式設計
- 【Python入門基礎】程式和執行緒Python執行緒
- C語言程式設計新手入門基礎進階學習!貪吃蛇小遊戲演示和說明C語言程式設計遊戲