首先介紹下我的情況和需求,如果你跟我類似,那麼這篇文章將很有幫助;
我之前的技術棧主要是Java、Python,機器學習方面主要用到是pandas、numpy、sklearn、scipy、matplotlib等等,因為工作需要使用spark,所以理所應當的開始學習pyspark;
之後一方面團隊其他成員基本都是用scala,同時在Spark API更新上,pyspark也要慢於scala的,而且對於叢集維護的同事來說,也不想再維護一套python環境,基於此,開始將技術棧轉到scala+spark;
如果你的情況也大致如上,那麼這篇文章可以作為一個很實用的參考,快速的將一個之前用pyspark完成的專案轉移到scala上;
正文開始。。。。
專案介紹
基於300w使用者的上億出行資料的聚類分析專案,最早使用Python棧完成,主要是pandas+sklearn+seaborn等庫的使用,後需要使用spark叢集,因此轉移到pyspark;
現在的需求是功能等不動的前提下轉移到Scala下實現,也就是通過Scala+SparkAPI實現整個機器學習流程以及結果解釋分析;
根據需求分解任務如下:
- 學習scala基本語法、資料結構、IO等;
- 搭建Idea+scala+spark的本地開發環境;
- 以上述兩點為基礎移植前Python專案;
Scala基礎學習
Scala是一門多正規化語言,函數語言程式設計語言,這一點主要體現在於針對問題的處理方式上於物件導向的語言略有不同,函式式+惰性求值+多執行緒支援等方面的優勢使得它被Spark選擇為開發語言;
上述是一些概念性的東西,屬於熟悉了Scala之後需要去多多瞭解的,不過對於工作中現學的同學來說更重要的是如何快速上手,那就從最最緊迫的部分開始吧;
一般來說一門語言最快掌握的方法是與其他語言對比進行學習,因此下面每一部分都與java、python兩門最多人用的語言做對比者進行,指出一些明顯差異的點和類似的點;
參考連結:https://www.cnblogs.com/qingyunzong/p/8858234.html
Hello World
Scala語言是執行於JVM的,沒錯,就是java虛擬機器,因此它的編譯、執行過程與java非常類似,或者說我們就認為是一樣也是可以的,java通過javac
編譯得到位元組碼檔案,通過java
執行,Scala則是通過scalac
編譯,通過scala
執行,而且由於二者底層是一致的,因此Scala中可以直接匯入java的庫來使用,這有助於利用java中很多久經考驗的第三方庫;
開發工具選擇Idea,Idea支援Scala外掛,下載後可以直接新建Scala專案,還是很方便的,Idea搭建Scala環境參考連結:https://www.cnblogs.com/skyell/p/9939535.html
Hello World:
object Demo {
def hello(): Unit = {
println("Hello Scala!!!")
}
def main(args: Array[String]): Unit = {
hello()
}
}
對比Java、Python等,看看它的特點:
- 首先整體程式碼組成結構上與java一致,需要一個類為執行主體,main函式為入口;
- 在方法定義上使用
def
關鍵字,同時是先指定入參,再指定出參,注意Unit
表示函式沒有返回值; - 每行程式碼末尾的
;
可有可無,這與Python一致;
語言基礎
語言基礎主要由基本資料型別、IF-ELSE、迴圈、函式組成,這也是每個語言的基礎,基本上這部分統一了大部分程式碼都能看懂;
基本資料型別
val byte:Byte = 127 // -128 ~ 127
val short:Short = 32767 // -32768 ~ 32767
val int:Int = 123456
val long:Long = 1234567890
val float:Float = 123.45f
val double:Double = 123.45d
val char:Char = 'a'
val string:String = "abc"
val bool:Boolean = true
val unit:Unit = () // unit一般用於函式不返回值時,也就是java的void
val nil:Null = null // 空值
// Nothing是所有其他類的子類 Any是所有其他類的超類 AnyRef是所有引用類的基類
var name = "helong"
name = "nemo" // var才能賦值,val賦值會報錯,可以不指定型別,會自動推斷
println(byte,short,int,long,float,double,char,string,bool,unit,nil,name)
資料型別上看Scala的特點有:
- 與java類似支援的資料型別比較多,比如單、雙精度浮點型都支援,不像Python只有雙精度;
- 區分
Char
和String
,意味著單引號、雙引號不能隨便混用; Unit
型別用於函式沒有返回值時;Null
表示空值;val
定義的變數為常量,其值不能改變,而var
定義的則是變數,值可以隨便改,這裡主要關注型別為集合時,可變與不可變如何理解,這點放到後面集合時再細說;
IF-ELSE
val x = 1
println(if(x>0) x else 0) // 條件表示式類似三元運算子
println(if(x>1) x) // 預設else就等價於else ()
println(if(x>1) x else if(x==1) "x:1" else ()) // 支援if、else if、else
// 塊表示式類似把條件表示式拉直
// 注意到當我們不指定型別時,就可以返回多種格式讓編譯器做執行時處理
val y = {
if(x==0)
"x=0"
else if(x==1)
x
else
0
}
println(y)
條件判斷語句上看差異:
- 獨特的三目運算子格式:
if(條件) 滿足返回A else 不滿足返回B
; - Scala的三目運算子其實是條件表示式的一種特定格式;
- 條件表示式的各個條件下返回值型別可以不一致;
- 可以通過寫成塊狀來提高可讀性,外層用
{}
包住;
迴圈
while:
// while迴圈
var n = 10
while(n>0) {
println(n)
n-=1
}
while迴圈看起來沒什麼特別的,實際使用也確實比較少。。。。
for:
println(1 to 10)
println(1 until 10)
for (i <- 1 to 10)
print(i+"\t")
println()
for (i <- 1 until 10)
print(i+"\t")
println()
// 遍歷陣列中的元素,類似java的增強for
// 可以看到陣列中元素可以不同型別
for (arr <- Array('n',1,3.45,true,"nemo"))
print(arr+"\t")
println()
// for迴圈高階技巧:單個for中有多個變數,每個生成器都帶過濾條件
// 效果就是巢狀for迴圈
for (i <- 1 to 10 if i%2==0; j <- Array("n","e","m","o") if j!="e")
print(i+":"+j+"\t")
println()
// for推導式,迴圈體以yield開始會構建一個集合返回
val vec = for (i <- 1 to 10) yield i*10
println(vec)
for (i <- vec)
print(i+"\t")
println()
for迴圈時Scala比較有特點的一部分:
- 支援
n to m
和n until m
兩種方式,區別是使用until
時迴圈不包含m,算是很貼心的小改動,可讀性比java和python都強一些; - for迴圈支援生成器、集合、range等型別中遍歷,類似java的普通迴圈和增強for迴圈的結合,
for (item <- 1 to 10)
、for (item <- Array('a','b','c'))
; - 高階for迴圈技巧:每層迴圈帶過濾條件,巢狀迴圈寫在一個for內;
- Scala的for迴圈也支援類似python列表推導式的方法:
for (1 <- 1 to 10) yield i*10
;
函式
準確的說,在Scala中函式和方法不完全等價,所謂的方法是類的一部分,而函式則是一個物件,可以賦值給一個變數,這裡就不糾結啦;
// 函式:一行函式,返回值型別可以不寫,此時自動推斷
def func(x:Int, y:Int): Int = x+y
println(func(2,3))
// 但是遞迴函式的返回值型別必須手動指定
def fib(f:Int): Int = if(f==0) 0 else if(f==1) 1 else if(f==2) 2 else fib(f-2)+fib(f-1)
println(fib(1),fib(2),fib(3),fib(4),fib(5))
// 在scala中,函式也是一種變數型別,因此也同樣可以賦值為某個常量或者當作另一個函式的引數
val f = (x:Int) => x*10 // 簡易函式就是lambda表示式
println(f)
def ff(k:(Int) => Int,x:Int,y:Int): Int = k(x)+k(y)
println(ff(f,3,5))
// def的方法轉函式
println(fib _) // fib本身是def定義的方法,甚至不能直接print
上面介紹的其實都是函式而不是方法:
- 定義一個變數,將一個函式賦值給它;
- 將一個函式變數作為入參傳入到另一個函式中;
這裡對於函式的理解可以想象數學中的函式,數學中的函式巢狀、組合的過程就是Scala中的函式互相作為引數傳遞的過程;
基本集合型別
一般高階語言中支援的集合型別都是類似的:陣列、列表、字典、元組等,Scala也不例外,這些基本上也滿足日常需求;
一個需要注意的點:Scala中的這些集合型別基本都分為定長和變長這兩種,預設情況下都是定長的,可以通過scala.collection.mutable.xxx
來匯入對應的變長版本,主要區別在於當集合長度改變時是否需要重新建立一個新的集合物件;
陣列
val arr = new Array[Int](8) // 長度為8,全是0的不可變陣列
println(arr) // 直接列印陣列看不到其內部元素,只能看到它的地址
println(arr.toBuffer) // 通過toBuffer方法轉為陣列緩衝區
val arr2 = Array[Int](8) // 注意這裡沒用new
println(arr2)
println(arr2.toBuffer)
val arr3 = Array(0,1.2f,true,'h',"nemo") // 指定內容的定長陣列
println(arr3(0),arr3(1),arr3(3)) // 通過(n)訪問陣列元素,下標從0開始
// 變長陣列,不改變變數的前提下依然可以通過+=,++=來擴充套件陣列
import scala.collection.mutable.ArrayBuffer
val marr = ArrayBuffer[Int]()
marr += 1
marr += (2,3,4)
marr ++= Array(5,6,7)
marr ++= ArrayBuffer(8,9)
marr.insert(0,0)
marr.remove(0)
println(marr)
// 使用for遍歷
for (item <- marr)
print(item+"\t")
println()
for (idx <- (0 until marr.length).reverse) // reverse可以反轉Range內的元素
print(idx+":"+marr(idx)+"\t")
println()
// 對於陣列,取出其全部偶數,再乘以10返回新陣列
// 寫法1:也是一般的程式寫法,這個過程中其實是將需求轉換為程式思想
var marr2 = Array(1,2,3,4,5,6,7,8,9,10)
marr2 = for (i <- marr2 if i%2==0) yield i*10
println(marr2.toBuffer)
// 寫法2:更加scala,面向函式,可讀性更強,不需要維護那個i,迴圈會執行兩次,先過濾,再對映
marr2 = Array(1,2,3,4,5,6,7,8,9,10)
marr2 = marr2.filter(_%2==0).map(_*10)
println(marr2.toBuffer)
// 陣列的一些常用方法,注意scala中函式呼叫沒有引數時可以不寫()
println(marr2.sum,marr2.max,marr2.sorted.toBuffer)
從陣列上看差異:
- 首先一個小特點在於直接列印陣列物件只能看到記憶體地址,要看到內容需要列印
arr.toBuffer
; - 陣列內的元素可以是不同型別的;
- 通過
arr(n)
訪問元素,下標從0開始; - ArrayBuffer是Array的變長版本;
列表
val list_x = List(1,2,3)
println(0::list_x) // 0插入到list_x的第一個位置
println(0+:list_x) // 等價於::
println(list_x.::(0))
println(list_x.+:(0)) // 注意以上四種不管0在前還是後,都是插入到第一個位置
println(list_x :+ 4)
println(list_x.:+(4)) // 所以區別是到底是+:還是:+
val list_y = List(4,5,6)
println(list_x++list_y) // ++連線兩個List
println(list_x++:list_y) // ++:看起來跟++也是一樣的嘛
// 可變List
import scala.collection.mutable.ListBuffer
val blist = ListBuffer(1,2,3)
val blist2 = new ListBuffer[Int]
blist += 4
blist.append(5)
println(blist)
blist2 ++= blist
println(blist2)
列表的騷操作就比較多了:
- 比如各種
::
、:+
、+:
,看的頭大。。。。大家還是樸實一點吧,不然過兩天自己看程式碼都想死了。。。。 - 同樣的ListBuffer是List的可變版本;
字典
字典在Scala中叫做對映;
val map1 = Map("k1"->10, 2->1.5, 3.3->"abc")
println(map1)
val map2 = Map((1,1),(2,2),(3,3))
println(map2)
// 獲取值的方式類似陣列用下標
println(map1("k1"),map1(3.3),map1.get(2),map1.getOrElse(5,"default"))
// Map預設是不可變的Map,也可以引入mutable包中的可變的Map
import scala.collection.mutable.{Map=>MMap}
val mmap = MMap((1,1),(2,2))
// map1(1) = 1 報錯,Map不可變指的是其長度、元素都不能變
mmap(1)=mmap(1)+1
// map1 += (3 -> 3) 報錯,因為原始Map不可變,+=會建立一個新的,但是map1又是常量
mmap += (3->3,4->4)
println(mmap)
字典的差異:
- 有兩種建立語法,個人喜歡第二種,更短一些;
- Map不可變指的是它的元素個數、元素內容都不能變;
- 如果用
var
來定義一個不可變Map,那麼看似可變,實際上是建立了一個新的Map物件;
元組
val tuple = (1,1.2,"abc")
println(tuple._1,tuple._2,tuple._3)
// 下面這種方式可以同時給元組中各個元素賦值到一個變數上
val tuple2,(name,age,score) = ("nemo",22,88.5)
println(tuple2,name,age,score)
// toMap+zip實現多個單Array到Map的對映
val names = Array("張三","李四","王五")
val ages = Array(17,16,18)
val scores = Array(80.5,77,90,100) // zip的結果長度為輸入兩個陣列中短的那個
val infoes = names.zip(ages.zip(scores)).toMap
println(infoes)
元組的特點不要過於明顯:
- 可以通過
tuple._n
的方式來訪問第n個元素,注意是從1開始的,說實話看呆我了,這到底有啥用。。。。 - 集合類都有類似
toArray
、toList
、toMap
、zip
、unzip
等方法可以進行互相轉換;
Set
val set = Set(1,1,2)
println(set)
val arr_set = Array(1,1,2,2)
println(arr_set.toSet)
說實話我看到Set
眼睛裡只有去重兩個字。。。
IO
首先很多時候我們用到也是java.io._
庫裡的讀寫方法,比如PrintWriter
、File
等,不過Scala自己也有一套scala.io
,看情況使用吧;
val path = "D:\\Project\\Data\\Scala\\hello.txt"
val file_scala = Source.fromFile(path)
file_scala.foreach {
println
}
val file_java = new File(path)
val writer = new PrintWriter(file_java)
writer.write("Hello Scala")
writer.close()
Scala讀、Java寫:
- 可以看到Scala中用java庫基本一摸一樣;
- Scala的讀檔案結合foreach可以簡化程式碼;
以上
Scala語言基礎部分到底結束,以上內容不包含Scala的高階用法、程式碼優化、函數語言程式設計、多執行緒等等,這些都是後續再去慢慢掌握的;
Spark本地開發環境搭建
這裡主要分為以下幾個步驟:
- windows本地hadoop+spark環境搭建;
- Idea基於Maven搭建Spark環境;
基本上都上網上找的資料,也算是踩過不少坑吧,環境問題有時候是比較煩人的,我也被一個Scala與Spark版本不對應問題浪費了幾個小時。。。。大家要有耐心哈,有問題的討論區留言,這裡留下幾個比較靠譜的參考連結:
- IDEA配置Spark開發環境:https://www.jianshu.com/p/6a1b362b82e4
- Windows下搭建Spark:https://www.cnblogs.com/xuliangxing/p/7279662.html
- Hadoop資源下載:https://archive.apache.org/dist/hadoop/common/hadoop-2.7.5/,官方反正我用不了,那個選擇版本的按鈕點不了。。。。
- Spark資源下載:http://archive.apache.org/dist/spark/spark-2.4.5/,Spark和Hadoop注意版本對應關係哈,或者你就下我這兩個,這倆是配套的;
我感覺吧,Windows搞環境確實問題更多,以前搞Python、Anaconda那些也是,老是缺這個少那個的,報錯資訊還看不出來。。。。這方面還是Ubuntu更靠譜一點。。。。
pyspark到Scala Spark
程式碼移植的過程相信大家都有很多經驗,關鍵在於小步前進,千萬別為了圖快從頭到尾搞完再執行,後面調起來更要命,把專案按功能模組劃分,機器學習的專案基本還是比較簡單的線性結構,我這裡主要劃分為以下幾部分分別進行:
- Spark初始化以及資料載入;
- 資料預處理;
- 外部資料處理與連結;
- 特徵工程;
- 建模;
可以看到基本以機器學習的各個環節為劃分依據,方便出行問題進行debug,以我的經驗主要工作在特徵工程部份,這部分兩邊的差異會比較大,而且處理起來要格外小心,避免因為邏輯bug導致最終結果不一致;
Spark初始化以及資料載入
這部分最簡單,因為除了語法差異,可以說是完全一致,注意點如下:
- 由於Idea開發Spark預設沒有啟動Hadoop的,因此對應資料都在本地;
- 字串如果用的是單引號需要全部替換為雙引號;
- 兩邊的API名基本都沒變,Scala更常用的是鏈式呼叫,Python用的更多是顯式指定引數的函式呼叫;
外部資料
這裡有一個很大的問題,如果你的資料中的列名有中文,那麼建議全部重新命名為英文,否在在構建SQL表示式等地方會報錯,奇怪的是這部分在Python中倒是正常的,這個坑也填了好久。。。。
對於udf
的使用上,區別主要在於Scala與Python的函式定義以及Python中對Lambda的使用,官方建議是少用udf
,最好在functions包裡找找先;
特徵工程
我在這部分花的時間比較多,主要是它涉及很多udf
、列表推導式、SQL表示式、特徵複雜處理等,需要注意:
- 對於
udf
部分,Scala中的入參指定型別這一點花了我不少時間,Python用多了就是慣壞了。。。 - 列表推導式可以由Scala的
for (....) yield ....
來替換,注意to
和until
的區別; - 表示式部分千萬千萬不要用中文,都是淚啊,我是因為之前資料集中有一部分列是外部資料,用的中文,天坑。。。。
建模
這部分本身倒是沒什麼問題,但是我這部分最後會將結果寫入到本地的parquet檔案,以及儲存模型檔案,結果一直報錯,錯誤資訊也看不出具體原因,按常理來說我首先考慮是許可權問題,折騰半天不行,又考慮是API用法問題,各種引數、用法都試了還是不行,最後發現又是windows的問題,缺了一些dll,哎哎,不說了,如果大家也遇到了ExitCodeException exitCode=-1073741515,那麼不用懷疑,直接到這裡下載程式安裝dll即可;
最後
以上就是全部過渡過程,中間有一些波折,但是整體還算順利,總時間大概是2.5個工作日,希望這篇文章可以加快有同樣需求的小夥伴的速度哈,目前感覺上Python要更簡潔,Scala更像Java,不過它多了一些可以簡化程式碼的語法糖、高階特性等,期待後面更深入的學習;
也要特別感謝網上大佬們的總結分享,有些問題真心難搞。。。。