TextRank4ZH icon indicating copy to clipboard operation
TextRank4ZH copied to clipboard

:deciduous_tree:从中文文本中自动提取关键词和摘要

Results 12 TextRank4ZH issues
Sort by recently updated
recently updated
newest added

这是我的repo中引用了您的项目的部分:https://github.com/PolarisRisingWar/text_summarization_chinese/tree/master/models/textrank 我的项目是希望集合一些经典文本摘要模型在中文文本数据上的解决方案,所以引用了您的工作。如果有引用有误或侵犯版权的情况请指出。

Warning detail: ResourceWarning: unclosed file for word in codecs.open(self.stop_words_file, 'r', 'utf-8', 'ignore'): What I have done: Simply called close to stop_words_file.

如何将自己的文本作为训练文本输入?

textrank4zh每次抽取的关键短语不一样

文章里有几个词不经常出现,但只要出现一次往往就是关键词,请问有没有办法提高这些词的权重?

jieba分词,怎样能加入自己的分词的词库

個人理解,目前的作法為 BoW 還是我只要把 `get_similarity` 改寫即可?

您好 我所處理的文章,通常在正式的內容中還會夾雜一些與文章主題本身相關性較小的"廢文" 主要是用來吸引讀者,確保他們能夠看到最後 然而,這樣的文章 直接套您的工具的話,會導致一些無關緊要的字句排到很前面 因此想請教一下,是否能狗透過一些手段,提供 model 一點 guide 達到類似於 semi-supervised 的效果?

我用的networkx-3.1 如果出现错误:AttributeError: module 'networkx' has no attribute 'from_numpy_matrix',可以按如下方法解决问题: 将utils中的nx_graph = nx.from_numpy_matrix(graph),改为nx_graph = nx.from_numpy_array(graph)

**错误如下:** AttributeError: module 'networkx' has no attribute 'from_numpy_matrix' ![image](https://github.com/letiantian/TextRank4ZH/assets/99784648/6a6eba64-6d21-4070-ac1d-fbec6afa4c86) **高版本python环境难以降级networkx,所以 使用nx.from_numpy_array 代替 from_numpy_matrix** 修复后效果: ![image](https://github.com/letiantian/TextRank4ZH/assets/99784648/6f4b715d-e12c-4586-92ea-93dbf2817a5e)