xgboost特徵重要性
from sklearn.model_selection import train_test_split
from sklearn import metrics
from sklearn.datasets import make_hastie_10_2
from xgboost.sklearn import XGBClassifier
from xgboost import plot_importance
from matplotlib import pyplot
X, y = make_hastie_10_2(random_state=0)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, random_state=0)##test_size測試集合所佔比例
clf = XGBClassifier(
silent=0 ,#設定成1則沒有執行資訊輸出,最好是設定為0.是否在執行升級時列印訊息。
learning_rate= 0.3, # 如同學習率
min_child_weight=1,
max_depth=6, # 構建樹的深度,越大越容易過擬合
gamma=0, # 樹的葉子節點上作進一步分割槽所需的最小損失減少,越大越保守,一般0.1、0.2這樣子。
subsample=1, # 隨機取樣訓練樣本 訓練例項的子取樣比
max_delta_step=0,#最大增量步長,我們允許每個樹的權重估計。
colsample_bytree=1, # 生成樹時進行的列取樣
reg_lambda=1, # 控制模型複雜度的權重值的L2正則化項引數,引數越大,模型越不容易過擬合。
n_estimators=100, #樹的個數
seed=1000 #隨機種子
)
model = clf.fit(X_train,y_train,eval_metric='auc')
y_true, y_pred = y_test, clf.predict(X_test)
print("Accuracy : %.4g" % metrics.accuracy_score(y_true, y_pred))
model.fit(X, y)
print(plot_importance(model))
print(pyplot.show())
相關文章
- xgboost 特徵重要性計算特徵
- XGBoost 輸出特徵重要性以及篩選特徵特徵
- 【特徵工程】(資料)使用Xgboost篩選特徵重要性特徵工程
- xgboost 特徵重要性選擇 / 看所有特徵哪個重要特徵
- XGBoost學習(六):輸出特徵重要性以及篩選特徵特徵
- 用xgboost獲取特徵重要性及應用特徵
- xgboost模型特徵重要性的不同計算方式模型特徵
- 用xgboost模型對特徵重要性進行排序模型特徵排序
- 用xgboost獲取特徵重要性原理及實踐特徵
- xgboost輸出特徵重要性排名和權重值特徵
- 【演算法】關於xgboost特徵重要性的評估演算法特徵
- 使用XGboost模組XGBClassifier、plot_importance來做特徵重要性排序Import特徵排序
- xgboost特徵選擇特徵
- xgboost 特徵選擇,篩選特徵的正要性特徵
- 使用xgboost進行特徵選擇特徵
- RF、GBDT、XGboost特徵選擇方法特徵
- [特徵工程系列一] 論特徵的重要性特徵工程
- 機器學習之 基於xgboost的特徵篩選機器學習特徵
- xgboost 設定每條資料的重要性
- Python中XGBoost的特性重要性和特性選擇Python
- 使用XGBoost在Python中的功能重要性和功能選擇Python
- xgboost get_fscore 判斷特徵重要程度的三種指標特徵指標
- 分別利用xgbboost和catboost演算法做特徵重要性排序演算法特徵排序
- sklearn與XGBoost庫xgboost演算法引數總結演算法
- 特徵重要性評估的隨機森林演算法與Python實現(三)特徵隨機森林演算法Python
- 機器學習之Xgboost詳解機器學習
- XGBoost論文閱畢
- xgboost原理及應用
- XGBoost基本原理
- 特徵值與特徵向量特徵
- 特徵提取之Haar特徵特徵
- 特徵值和特徵向量特徵
- 特徵工程:互動特徵與多項式特徵理解特徵工程
- XGBoost類庫使用小結
- 說說xgboost演算法演算法
- 特徵工程之特徵表達特徵工程
- 特徵工程之特徵選擇特徵工程
- 影象特徵提取之HoG特徵特徵HOG