czpchen

Results 8 comments of czpchen

i have solved the problem ,my cuda is 10.2,i try install cupy-cuda102 is failed,when i use `conda install -c anaconda cupy ` is solved my problem.

When I use my dataset train model meet same problem,my dataset have 4 category.I modify code and the problem is solved. 1.modify model/faster_rcnn_vgg16.py `n_fg_class=4` 2.modify trainer.py `self.roi_cm = ConfusionMeter(5)` hope...

i meet the problem,and solved.share my method. 1.use @Aleberello code add ```netG = net.dehaze(inputChannelSize, outputChannelSize, ngf)``` raw behind 2.modify dehaze22.py change all add_module ("%s.") to add_module("%s_") for example ``` block.add_module('%s.relu'...

算法的`generate_L`函数返回的是所有满足支持度的频繁项集`L`和各频繁项的支持度`support_data`,你可以根据需求由这两项生成自己需要的答案。 当然,若你只需生成最大长度为2的频繁项,在apriori算法中,只需将`apriori.py`中`generate_L`函数中的`while(True)`删除即可,这将只生成频繁项大小为2的数据

如何生成L1,L2,L3这个问题等价于:给定一集合,如何生成其子集的问题 可以去了解下递归或者dfs等基本算法思路

support_data字典中保存了频繁项和支持度 若要使最后得到的结果中包含支持度信息,可以修改generate_R函数 ``` def generate_R(): ... big_rule=(...,support_data[freq_set]) if ...: rule_list.append(bigrule) ... ``` big_rule为满足置信度的关联规则集合,在集合末尾添加频繁项的支持度,并稍微修改最后保存规则的save_rule函数

老师提供的,这是我的一个课题作业

思路来源书中《数据挖掘 第二版》,这只是我的一种实现