怎么使用Weka来写一个决策树
答案:1 悬赏:10
解决时间 2021-03-12 06:27
- 提问者网友:浪荡绅士
- 2021-03-12 00:34
怎么使用Weka来写一个决策树
最佳答案
- 二级知识专家网友:有你哪都是故乡
- 2021-03-12 01:42
信息熵的计算:
-p[i]logp[i],底数为2
public static double calcEntropy(int p[]) { double entropy = 0; // 用来计算总的样本数量,p[i]/sum即i的概率 double sum = 0; int len = p.lenh; for (int i = 0; i lt; len; i++) { sum += p[i]; } for (int i = 0; i lt; len; i++) { entropy -= p[i] / sum * log2(p[i] / sum); } return entropy; }
给定一个样本数组,先一轮循环计算出样本总量,后面即可得出每个样本的概率,就可以套用公式计算了
信息增益就是信息熵的变化值,信息熵下降最快的节点就可以作为决策树的根节点,缩短树的高度
一个属性A相对样本集S的信息增益为:
gain(S,A) = H(S) – A属性为已知值的加权信息熵
-p[i]logp[i],底数为2
public static double calcEntropy(int p[]) { double entropy = 0; // 用来计算总的样本数量,p[i]/sum即i的概率 double sum = 0; int len = p.lenh; for (int i = 0; i lt; len; i++) { sum += p[i]; } for (int i = 0; i lt; len; i++) { entropy -= p[i] / sum * log2(p[i] / sum); } return entropy; }
给定一个样本数组,先一轮循环计算出样本总量,后面即可得出每个样本的概率,就可以套用公式计算了
信息增益就是信息熵的变化值,信息熵下降最快的节点就可以作为决策树的根节点,缩短树的高度
一个属性A相对样本集S的信息增益为:
gain(S,A) = H(S) – A属性为已知值的加权信息熵
我要举报
如以上问答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯