tradaboost icon indicating copy to clipboard operation
tradaboost copied to clipboard

Transfer learning algorithm TrAdaboost,coded by python

Results 12 tradaboost issues
Sort by recently updated
recently updated
newest added

为什么二分类问题使用Tradaboost输出有时候会全为1呢

请教一下大佬这个问题如何解决: Error rate: 0.0 D:\Anaconda3\envs\py27\lib\site-packages\sklearn\metrics\ranking.py:542: UndefinedMetricWarning: No positive samples in y_true, true positive value should be meaningless UndefinedMetricWarning) auc: nan

请问各位, 为什么鄙人运行出来总是第一次就break,(error_rate=0); 用拟合的模型在测试集上predict,发现AUC在0.7左右(并不是无效分类器). 难道是因为数据的问题?(也就是说不需要boosting,直接用弱学习器就能把training data学习得很好)? 请各位指点迷津,感激不尽.

应该是log(n) 而不是 log(n/N) ??

不收敛。我使用的是 https://www.kesci.com/home/competition/5ca1b155bcf47e002c38ba66/content/2 这个竞赛的数据,训练之后一直不收敛

错误率>=0.5的时候,beta为1,权重就不会更新了哇,是不是应该break了

- 误差计算部分,也就是在**calculate_error**函数中,计算的结果实际上是每个弱分类器对于每次迭代的残差拟合的误差。我认为正确的误差计算应该是:在第i次迭代结束时,也就是在生成第i个弱分类器后,我们得到了弱分类器的模型以及其占有的权重,则第i次迭代之后总分类器的误差应该是从第1个到第i个弱分类器的权重乘以模型输出之和。具体参考adaboost的误差计算结果。 - 此外,tradaboost算法中,计算误差使用的是后N/2个弱分类器的输出,忽略了前N/2个弱分类器的输出,这个地方有大神可以解释一下吗?论文中的证明虽然正确,但总感觉怪怪的

### 1、请问**处理缺失值**为什么用这个语句呢? `train_df.fillna(value=-999999)` ### 2、不知道是不是我设置的内存不够,运行程序的时候还是报错 ``` Traceback (most recent call last): File "Tradaboost_GitHub.py", line 98, in pred = tr.tradaboost(X_train, trans_T, y_train, label_T, X_test, 10) File "TrAdaboost.py", line 44, in tradaboost...

近来在学习TrAdaBoost,非常高兴看到你的GitHub project,请问能否将数据发送给我学习,谢谢。我的邮箱[email protected]。再次感谢