ironartisan

Results 5 issues of ironartisan

https://github.com/youngyangyang04/leetcode-master/blame/master/problems/0925.%E9%95%BF%E6%8C%89%E9%94%AE%E5%85%A5.md#L73 ` while(j < typed.size() && typed[j] == typed[j - 1]) j++; if (name[i] == typed[j]) { // j跨越重复项之后再次和name[i]匹配 j++; i++; // 相同则同时向后匹配 ` 测试用例为name:"kikcxmvzi" typed:"kiikcxxmmvvzz" 执行完 while循环后j= 13,再执行下一行代码python会报边界溢出,C++代码却没报错???

原文中 “GPT是自编码模型, 通过双向LSTM编码提取语义。 Bert是自回归模型,不分前后,一坨扔进去,再用attention加强提取语义的效果。”存在明显错误。 GPT是自编码模型(应为自回归模型), 通过双向LSTM编码提取语义(这是ELMo模型的特点,GPT用的transformer模型)。 Bert是自回归模型(应为自编码模型)

check_sparsity return Ratio of the count of non-zero weights to total parameters in the model. How is non-zero sparsity calculated? https://github.com/CASIA-IVA-Lab/FLAP/blob/3bb57db3449dd2fa04a5c2192de80e87e33be2b1/lib/prune.py#L43

### 你是否已经阅读并同意《Datawhale开源项目指南》? - [X] 我已阅读并同意[《Datawhale开源项目指南》](https://github.com/datawhalechina/DOPMC/blob/main/GUIDE.md) ### 你是否已经阅读并同意《Datawhale开源项目行为准则》? - [X] 我已阅读并同意[《Datawhale开源项目行为准则》](https://github.com/datawhalechina/DOPMC/blob/main/CODE_OF_CONDUCT.md) ### 项目简介 随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种复杂问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏等压缩方法,让更多的小白能更快了解到模型压缩技术。 项目地址:https://github.com/bupt-ai-club/awesome-compression ### 立项理由 目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴[MIT 6.5940 TinyML and Efficient Deep Learning Computing](https://hanlab.mit.edu/courses/2023-fall-65940),提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。 ### 项目受众 本项目适合以下学习者: - 深度学习研究人员; -...

立项

### Self Checks - [X] I have searched for existing issues [search for existing issues](https://github.com/langgenius/dify/issues), including closed ones. - [X] I confirm that I am using English to submit this...

📚 feat:datasource
stale