基於C#的機器學習--我應該接受這份工作嗎-使用決策樹

王振耀發表於2019-07-11

 決策樹

       要使決策樹完整而有效,它必須包含所有的可能性。事件序列也必須提供,並且是互斥的,這意味著如果一個事件發生,另一個就不能發生。

       決策樹是監督機器學習的一種形式,因為我們必須解釋輸入和輸出應該是什麼。有決策節點和葉子。葉子是決策,不管是否是最終決策,節點是決策分裂發生的地方。

       雖然有很多演算法可供我們使用,但我們將使用迭代二分法(ID3)演算法。

在每個遞迴步驟中,根據一個標準(資訊增益、增益比等)選擇對我們正在處理的輸入集進行最佳分類的屬性。

這裡必須指出的是,無論我們使用什麼演算法,都不能保證生成儘可能小的樹。因為這直接影響到演算法的效能。

請記住,對於決策樹,學習僅僅基於啟發式,而不是真正的優化標準。讓我們用一個例子來進一步解釋這一點。

下面的示例來自http://jmlr.csail.mit.edu/papers/volume8/esmeir07a/esmeir07a.pdf,它演示了XOR學習概念,我們所有的開發人員都(或應該)熟悉這個概念。稍後的例子中也會出現這種情況,但現在a3和a4與我們要解決的問題完全無關。它們對我們的答案沒有影響。也就是說,ID3演算法將選擇其中一個構建樹,事實上,它將使用a4作為根節點!記住,這是演算法的啟發式學習,而不是優化結果:

希望這張圖能讓大家更容易理解剛剛所說的內容。我們的目標並不是深入研究決策樹機制和理論。而是如何使用它,儘管存在很多問題,但決策樹仍然是許多演算法的基礎,尤其是那些需要對結果進行人工描述的演算法。這也是我們前面試試人臉檢測演算法的基礎。

     決策節點

決策樹的一個節點。每個節點可能有關聯的子節點,也可能沒有關聯的子節點

     決策的變數

       此物件定義樹和節點可以處理的每個決策變數的性質。值可以是範圍,連續的,也可以是離散的。

     決策分支節點的集合

       此集合包含將一個或多個決策節點組,以及關於決策變數的附加資訊,以便進行比較。

       下面是一個用於確定金融風險的決策樹示例。我們只需要在節點之間導航,就可以很容易地跟隨它,決定要走哪條路,直到得到最終的答案。在這種情況下,當有人正在申請貸款,而我們需要對他們的信用價值做出決定。這時決策樹就是解決這個問題的一個很好的方法:

我應該接受這份工作嗎?

       你剛剛得到一份新工作,你需要決定是否接受它。有一些重要的事情需要考慮,所以我們將它們作為輸入變數或特性,用於決策樹。

對你來說最重要的是:薪水、福利、公司文化,當然還有,我能在家工作嗎?

我們將建立一個記憶體資料庫並以這種方式新增特性,而不是從磁碟儲存中載入資料。我們將建立DataTable並建立列,如下圖所示:

在這之後,我們將載入幾行資料,每一行都有一組不同的特性,最後一列應該是Yes或No,作為我們的最終決定:

一旦所有的資料都建立好並放入表中,我們就需要將之前的特性轉換成計算機能夠理解的表示形式。

由於數字更簡單,我們將通過一個稱為編碼的過程將我們的特性(類別)轉換為一本程式碼本。該程式碼本有效地將每個值轉換為整數。

注意,我們將傳遞我們的資料類別作為輸入:

 

接下來,我們需要為決策樹建立要使用的決策變數。

這棵樹會幫助我們決定是否接受新的工作邀請。對於這個決策,將有幾類輸入,我們將在決策變數陣列中指定它們,以及兩個可能的決策,是或者否。

DecisionVariable陣列將儲存每個類別的名稱以及該類別可能的屬性的總數。例如,薪水類別有三個可能的值,高、平均或低。我們指定類別名和數字3。然後,除了最後一個類別(即我們的決定)之外,我們對所有其他類別都重複這個步驟:

現在我們已經建立了決策樹,我們必須教它如何解決我們要解決的問題。為了做到這一點,我們必須為這棵樹建立一個學習演算法。由於我們只有這個示例的分類值,所以ID3演算法是最簡單的選擇。

 

一旦學習演算法被執行,它就會被訓練並可供使用。我們簡單地為演算法提供一個樣本資料集,這樣它就可以給我們一個答案。在這種情況下,薪水不錯,公司文化不錯,福利也不錯,我可以在家工作。如果正確地訓練決策樹,答案將會是是:

Numl

numl是一個非常著名的開源機器學習工具包。與大多數機器學習框架一樣,它的許多示例也使用Iris資料集,包括我們將用於決策樹的那個。

下面是我們的numl輸出的一個例子:

讓我們看一下這個例子背後的程式碼:

        static void Main(string[] args)
        {
            Console.WriteLine("Hello World!");
            var description = Descriptor.Create<Iris>();
            Console.WriteLine(description);
            var generator = new DecisionTreeGenerator();
            var data = Iris.Load();
            var model = generator.Generate(description, data);
            Console.WriteLine("生成的模型:");
            Console.WriteLine(model);
            Console.ReadKey();
        }

這個方法並不複雜,對吧?這就是在應用程式中使用numl的好處;它非常容易使用和整合。

上述程式碼建立描述符和DecisionTreeGenerator,載入Iris資料集,然後生成模型。這裡只是正在載入的資料的一個示例:

        public static Iris[] Load()
        {
            return new Iris[]
            {
                new Iris { SepalLength = 5.1m, SepalWidth = 3.5m, PetalLength = 1.4m, PetalWidth = 0.2m, Class = "Iris-setosa" },
                new Iris { SepalLength = 4.9m, SepalWidth = 3m, PetalLength = 1.4m, PetalWidth = 0.2m, Class = "Iris-setosa" },
                new Iris { SepalLength = 4.7m, SepalWidth = 3.2m, PetalLength = 1.3m, PetalWidth = 0.2m, Class = "Iris-setosa" },
                new Iris { SepalLength = 4.6m, SepalWidth = 3.1m, PetalLength = 1.5m, PetalWidth = 0.2m, Class = "Iris-setosa" },
                new Iris { SepalLength = 5m, SepalWidth = 3.6m, PetalLength = 1.4m, PetalWidth = 0.2m, Class = "Iris-setosa" },
                new Iris { SepalLength = 5.4m, SepalWidth = 3.9m, PetalLength = 1.7m, PetalWidth = 0.4m, Class = "Iris-setosa" }
            };
        }

Accord.NET 決策樹

Accord.NET framework也有自己的決策樹例子。它採用了一種不同的、更圖形化的方法來處理決策樹,但是您可以通過呼叫來決定您喜歡哪個決策樹,並且最習慣使用哪個決策樹。

       一旦資料被載入,您就可以建立決策樹併為學習做好準備。您將看到與這裡類似的資料圖,使用了X和Y兩個類別:

下一個選項卡將讓您看到樹節點、葉子和決策。右邊還有一個自頂向下的樹的圖形檢視。最有用的資訊在左邊的樹形檢視中,你可以看到節點,它們的值,以及做出的決策:

最後,最後一個選項卡將允許您執行模型測試:

 

程式碼

下面是學習程式碼

            // 指定輸入變數
            DecisionVariable[] variables =
            {
                new DecisionVariable("x", DecisionVariableKind.Continuous),
                new DecisionVariable("y", DecisionVariableKind.Continuous),
            };
            // 建立C4.5學習演算法
            var c45 = new C45Learning(variables);

            // 使用C4.5學習決策樹
            tree = c45.Learn(inputs, outputs);

            // 在檢視中顯示學習樹
            decisionTreeView1.TreeSource = tree;

            // 獲取每個變數(X和Y)的範圍
            DoubleRange[] ranges = table.GetRange(0);

            // 生成一個笛卡爾座標系
            double[][] map = Matrix.Mesh(ranges[0], 200, ranges[1], 200);

            // 對笛卡爾座標系中的每個點進行分類
            double[,] surface = map.ToMatrix().InsertColumn(tree.Decide(map));
CreateScatterplot(zedGraphControl2, surface);
            //測試
            // 從整個源資料表建立一個矩陣
            double[][] table = (dgvLearningSource.DataSource as DataTable).ToJagged(out columnNames);

            //只獲取輸入向量值(前兩列)
            double[][] inputs = table.GetColumns(0, 1);

            // 獲取預期的輸出標籤(最後一列)
            int[] expected = table.GetColumn(2).ToInt32();


            // 計算實際的樹輸出
            int[] actual = tree.Decide(inputs);


            // 使用混淆矩陣來計算一些統計資料。
            ConfusionMatrix confusionMatrix = new ConfusionMatrix(actual, expected, 1, 0);
            dgvPerformance.DataSource = new[] { confusionMatrix };

            CreateResultScatterplot(zedGraphControl1, inputs, expected.ToDouble(), actual.ToDouble());

然後他的值被輸入一個混淆矩陣。對於不熟悉這一點的同學,讓我簡單解釋一下.

混淆矩陣

混淆矩陣是用來描述分類模型效能的表。它在已知真值的測試資料集上執行。這就是我們如何得出如下結論的。

 

真-陽性

在這個例子中,我們預測是,這是事實。

真-陰性

在這種情況下,我們預測否,這是事實。

假-陽性

在這種情況下,我們預測是,但事實並非如此。有時您可能會看到這被稱為type 1錯誤。

假-陰性

在這種情況下,我們預測“否”,但事實是“是”。有時您可能會看到這被type 2類錯誤。

現在,說了這麼多,我們需要談談另外兩個重要的術語,精確度和回憶。

讓我們這樣來描述它們。在過去的一個星期裡,每天都下雨。這是7天中的7天。很簡單。一週後,你被問到上週多久下一次雨?

回憶

它是你正確回憶下雨的天數與正確事件總數的比值。如果你說下了7天雨,那就是100%。如果你說下了四天雨,那麼57%的人記得。在這種情況下,它的意思是你的回憶不是那麼精確,所以我們有精確度來識別。

精確度

它是你正確回憶將要下雨的次數與那一週總天數的比值。

對我們來說,如果我們的機器學習演算法擅長回憶,並不一定意味著它擅長精確。有道理嗎?這就涉及到其他的事情,比如F1的分數,我們會留到以後再講。

視覺化錯誤型別

以下是一些可能會有幫助的視覺化:

識別真陽性和假陰性:

使用混淆矩陣計算統計量後,建立散點圖,識別出所有內容:

總結

在這一章中,我們花了很多時間來研究決策樹;它們是什麼,我們如何使用它們,以及它們如何使我們在應用程式中受益。在下一章中,我們將進入深度信念網路(DBNs)的世界,它們是什麼,以及我們如何使用它們。

我們甚至會談論一下計算機的夢,當它做夢的時候!

相關文章