Zhengyang Feng

Results 207 comments of Zhengyang Feng

that is weird. if your labels are grayscale images, they should not have this problem. Maybe save some labels to files and check them? Or can you show me your...

@q36101 tusimple是有普遍接受的train/val/test分配的, 详见 https://github.com/voldemortX/pytorch-auto-drive/blob/master/docs/datasets/TUSIMPLE.md

> 我遇到一些問題想請問一下,車道線論文上tusimple有都有94-96%的f1-score,而我自己用訓練scnn-tensorflow網路測試test(2782)只有81%,用val(358)測試有94.2。 > 我測試f1-score時是使用像素級的計算,用兩張png計算f1-score,而非tusimple的benchmark(因為我不知道如何將生成的特徵圖png轉成json)。 > 請問您是如何計算f1-score,是用json評估或是png評估?計算時是用test(2782),還是val(358)? 我们的repo使用官方的json关键点评测脚本。val和test都支持。

> 為甚麼val和test都支持,兩個dataset不是不一樣嗎? 。。。调参用val,评测用test。功能上不是都要支持么

@CHANdaFeng did you paste the full input? I dont see a suffix?

@CHANdaFeng your input is not a .py file. You can checkout example shells like this one: https://github.com/voldemortX/pytorch-auto-drive/blob/master/tools/shells/erfnet_baseline_culane.sh

@Albertchamberlain 可视化可能版本记录不全,复现度不高。我晚点找一下,应该给其他人发过。

@Albertchamberlain 去年我有一个邮件回复记录了相关代码,可视化有可能使用了resnet18的版本: “关于可视化的code,当时是在重构前的PytorchAutoDrive (#45)的私有库做的。由于私有库有上百个分支,涉及一些要保密的内容,grad cam又没好好整理,不是很方便把全部代码给你(说实在的也不确定最终代码在哪个分支)。但重要部分大概当时是用的这个文件,我放到附件你可以结合去年旧的PytorchAutoDrive参考一下。” [7E06vA9.zip](https://github.com/voldemortX/pytorch-auto-drive/files/13351463/7E06vA9.zip)

@zhugeYuTing Hi. What do you mean by quality? Is it the output of the model or the image itself?

> 如图: > ![image](https://github.com/voldemortX/pytorch-auto-drive/assets/103496889/7e408588-2c47-48d2-90b9-8cdce8434b3d) > > 作者你好,哪个lane detection模型可以应用到无人机航拍视角(俯拍)的车道线检测? > > 基于语义分割的方法可能直接应用会好一点。但我觉得你这个场景需要重新训练。