博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
决策树(决策树的分支深度及重要特征检测)
阅读量:6183 次
发布时间:2019-06-21

本文共 1251 字,大约阅读时间需要 4 分钟。

import matplotlib.pyplot as pltfrom sklearn import datasetsimport numpy as npfrom sklearn.tree import DecisionTreeClassifiern_features = 200X, y = datasets.make_classification(750, 200,n_informative=5)#后面的P,是正负的比例training = np.random.choice([True, False], p=[.75, .25],size=len(y))c = 0for x in training:    if(x == True):        c = c+1print(c,c/750)accuracies = []for x in np.arange(1, n_features+1):    dt = DecisionTreeClassifier(max_depth=x)    dt.fit(X[training], y[training])    preds = dt.predict(X[~training])    accuracies.append((preds == y[~training]).mean())f, ax = plt.subplots(figsize=(7, 5))ax.plot(range(1, n_features+1), accuracies, color='k')ax.set_title("Decision Tree Accuracy")ax.set_ylabel("% Correct")ax.set_xlabel("Max Depth")f.show()N = 15f, ax = plt.subplots(figsize=(7, 5))ax.plot(range(1, n_features+1)[:N], accuracies[:N], color='k')ax.set_title("Decision Tree Accuracy")ax.set_ylabel("% Correct")ax.set_xlabel("Max Depth")f.show()'''老的版本无这个参数,这个参数很好,可以检查重要的特征dt_ci = DecisionTreeClassifier(compute_importances=True)dt.fit(X, y)ne0 = dt.feature_importances_ != 0y_comp = dt.feature_importances_[ne0]x_comp = np.arange(len(dt.feature_importances_))[ne0]f, ax = plt.subplots(figsize=(7, 5))ax.bar(x_comp, y_comp)f.show()'''

转载地址:http://mbsda.baihongyu.com/

你可能感兴趣的文章
10.30T3 换根
查看>>
C++类成员函数的 重载、覆盖和隐藏区别
查看>>
springmvc下的省市县三级联动
查看>>
ThinkPHP/---layui 分页
查看>>
JAVA之IO流(字节流)
查看>>
通过安全浏览保护 WebView
查看>>
seajs
查看>>
python GUI编程tkinter示例之目录树遍历工具
查看>>
《皮囊》后记
查看>>
深入理解C++11 阅读笔记
查看>>
技术人,你的简历够技术么?
查看>>
安装Lua (Mac环境下)
查看>>
P3990 [SHOI2013]超级跳马
查看>>
IIS发布网站,报错404找不到文件或者目录
查看>>
python 使用生成器 来完成 监听文件输入的例子
查看>>
[bzoj 3670][Noi2014]动物园
查看>>
CF993E Nikita and Order Statistics
查看>>
Dynamic Rankings——带修改区间第k大
查看>>
CentOS6 vnc服务安装配置
查看>>
第四周作业
查看>>