MLF-MLT
MLF-MLT copied to clipboard
adaboost改进
adaboost实现中的decision stump部分加权错误率计算并未参考课程讲义,造成必须要对U进行平抑。对加权错误率的计算不只要计算加权错误和,之后还要除以总权值之和:
这样,原程式中需删除“U /= np.sum(U)”。
adaboost实现中的decision stump部分加权错误率计算并未参考课程讲义,造成必须要对U进行平抑。对加权错误率的计算不只要计算加权错误和,之后还要除以总权值之和:
这样,原程式中需删除“U /= np.sum(U)”。