tradaboost
tradaboost copied to clipboard
Transfer learning algorithm TrAdaboost,coded by python
为什么二分类问题使用Tradaboost输出有时候会全为1呢
运行报错
请教一下大佬这个问题如何解决: Error rate: 0.0 D:\Anaconda3\envs\py27\lib\site-packages\sklearn\metrics\ranking.py:542: UndefinedMetricWarning: No positive samples in y_true, true positive value should be meaningless UndefinedMetricWarning) auc: nan
请问各位, 为什么鄙人运行出来总是第一次就break,(error_rate=0); 用拟合的模型在测试集上predict,发现AUC在0.7左右(并不是无效分类器). 难道是因为数据的问题?(也就是说不需要boosting,直接用弱学习器就能把training data学习得很好)? 请各位指点迷津,感激不尽.
应该是log(n) 而不是 log(n/N) ??
算法不收敛
不收敛。我使用的是 https://www.kesci.com/home/competition/5ca1b155bcf47e002c38ba66/content/2 这个竞赛的数据,训练之后一直不收敛
错误率>=0.5的时候,beta为1,权重就不会更新了哇,是不是应该break了
- 误差计算部分,也就是在**calculate_error**函数中,计算的结果实际上是每个弱分类器对于每次迭代的残差拟合的误差。我认为正确的误差计算应该是:在第i次迭代结束时,也就是在生成第i个弱分类器后,我们得到了弱分类器的模型以及其占有的权重,则第i次迭代之后总分类器的误差应该是从第1个到第i个弱分类器的权重乘以模型输出之和。具体参考adaboost的误差计算结果。 - 此外,tradaboost算法中,计算误差使用的是后N/2个弱分类器的输出,忽略了前N/2个弱分类器的输出,这个地方有大神可以解释一下吗?论文中的证明虽然正确,但总感觉怪怪的
你这有例子吗
处理缺失值问题
### 1、请问**处理缺失值**为什么用这个语句呢? `train_df.fillna(value=-999999)` ### 2、不知道是不是我设置的内存不够,运行程序的时候还是报错 ``` Traceback (most recent call last): File "Tradaboost_GitHub.py", line 98, in pred = tr.tradaboost(X_train, trans_T, y_train, label_T, X_test, 10) File "TrAdaboost.py", line 44, in tradaboost...
近来在学习TrAdaBoost,非常高兴看到你的GitHub project,请问能否将数据发送给我学习,谢谢。我的邮箱[email protected]。再次感谢