knowledge-graph-learning icon indicating copy to clipboard operation
knowledge-graph-learning copied to clipboard

A curated list of awesome knowledge graph tutorials, projects and communities.

Results 141 knowledge-graph-learning issues
Sort by recently updated
recently updated
newest added

**Summary:** 黑箱的DL模型无法理解任务的复杂度,比如这个提问:can a black-box model make logically consistent predictions for transitive relations? 最近的研究显示预训练后的BERT能捕捉lexicosemantic clues,但是为什么能捕捉确依旧无法证明。为了能检测这一点,设计了一个实验,用BERT对IS-A关系进行预测。结果显示BERT的预测并不能完全遵守IS-A关系的传递性能。 **Resource:** - [pdf](https://aclanthology.org/2022.acl-short.11/) - [code](https://github.com/nusnlp/probe-bert-transitivity) - [paper-with-code]( **Paper information:** - Author: - Dataset: - keywords: **Notes:**...

**Summary:** 预测股价的模型中,将与公司直接相关的信息当做local information,而总体经济情况,公司之间的关系等等当做global information。本研究提出的模型综合两种信息,用于投资和风险预测。 **Resource:** - [pdf](https://aclanthology.org/2022.acl-long.437/) - [code]( - [paper-with-code]( **Paper information:** - Author: - Dataset: - keywords: **Notes:** **Model Graph:** **Result:**: **Thoughts:** **Next Reading:**

**Summary:** 把数学问题当做一个复杂的RE问题,本研究提出一个可解释的演绎推理步骤,用于对target expression进行不断地迭代,每个步骤涉及定义其关系的两个数量的原始操作。 **Resource:** - [pdf](https://aclanthology.org/2022.acl-long.410.pdf) - [allanj/deductive-mwp](https://github.com/allanj/deductive-mwp) - [paper-with-code]( **Paper information:** - Author: - Dataset: [MAWPS](https://paperswithcode.com/dataset/mawps), [Math23K](https://paperswithcode.com/dataset/math23k), [MathQA](https://paperswithcode.com/dataset/mathqa), [SVAMP](https://paperswithcode.com/dataset/svamp) - keywords: **Notes:** **Model Graph:** **Result:**: **Thoughts:** **Next Reading:**

RR(T)

**Summary:** few-shot和zero-shot RE对模型的要求不一样,本研究提出的triplet-paraphrase meta-training方法,是为了消除二者之间的gap。triplet-paraphrase meta-training指的是,利用triplet-paraphrase去对zero-shot label matching做预训练,然后用meta-learning去学习few-shot的归纳能力。 **Resource:** - [pdf](https://aclanthology.org/2022.acl-long.397/) - [fc-liu/mcmn](https://github.com/fc-liu/mcmn) - [paper-with-code]( **Paper information:** - Author: - Dataset: [FewRel](https://paperswithcode.com/dataset/fewrel) - keywords: **Notes:** **Model Graph:** **Result:**: **Thoughts:** **Next Reading:**

RE(T)
Shot(M)

**Summary:** 在给予少量标注数据的情况下,如何学习新的relation。这种问题被称作 continual few-shot relation learning (CFRL)。根据之前的研究,发现新的few-shot任务产生的特征分布和之前任务里的特征分布不同,为了解决这个问题,本研究强制添加了基于relational embeddings的限制,并添加了额外的相关数据进行学习。 名词解释:Continual relation learning aims to continually train a model on new data to learn incessantly emerging novel relations while avoiding catastrophically forgetting...

RE(T)
Shot(M)

**Summary:** 当前的entity, relation提取主要关注于从pre-trained encoder里如何获取更好的span representation。但是这忽略了spans(pairs)之间的关系。 本研究提出了一种新的考虑近邻span的方法,更好地模拟entity boundary信息。对于关系分类,设计了一种新方法,对subject和其所有的objects之间关系,用same-subject span pair来模拟。 **Resource:** - [pdf](https://aclanthology.org/2022.acl-long.337/) - [code](https://github.com/thunlp/PL-Marker) - [paper-with-code]( **Paper information:** - Author: - Dataset: [ACE 2004](https://paperswithcode.com/dataset/ace-2004), [ACE 2005](https://paperswithcode.com/dataset/ace-2005), [CoNLL-2003](https://paperswithcode.com/dataset/conll-2003), [Few-NERD](https://paperswithcode.com/dataset/few-nerd), [OntoNotes 5.0](https://paperswithcode.com/dataset/ontonotes-5-0),...

RE(T)
NER(T)

**Summary:** 大部分非native的数据标注者在标注entity的时候会漏掉一些(missing tag),所以如何利用好这种high precision low recall的训练数据是一个课题。如何识别那些missing tag?作者的方案是将那些没有被标记的tags当做潜变量(latent variables)。具体方案是将marginal tag likelihood training(边缘似然学习)和一个新的判别标准(Expected Entity Ratio,EER)结合在一起,来控制句子中entity tags的相对比例。 **Resource:** - [pdf](https://arxiv.org/abs/2108.07216) - [code](https://github.com/teffland/ner-expected-entity-ratio) **Paper information:** - Author: - Dataset: - keywords: **Notes:** 对所有的unannotated tokens全部当做latent...

NER(T)

**Summary:** What input designs and choices are the most effective in enabling LLMs to understand tables? **Resource:** - [blog](https://www.microsoft.com/en-us/research/blog/improving-llm-understanding-of-structured-data-and-exploring-advanced-prompting-methods/) - [pdf](https://www.microsoft.com/en-us/research/uploads/prod/2023/12/wsdm24-SUC.pdf) - [code]( - [paper-with-code]( **Paper information:** - Author: -...

Survey
LLM(M)

**Summary:** 本文分析了文本搜索中混合搜索的融合函数,具体探讨了词汇搜索和语义搜索的融合方法,包括凸结合(Convex Combination, CC)和相互排名融合(Reciprocal Rank Fusion, RRF),并揭示了它们各自的优点和潜在问题。研究发现,RRF对参数敏感,而CC对分数正则化的选择一般不敏感,CC在域内和域外设置中均优于RRF。此外,CC在少量训练例的情况下,能够有效调整目标域唯一参数。 **Resource:** - [pdf](https://arxiv.org/abs/2210.11934) - [code]( - [paper-with-code]( **Paper information:** - Author: - Dataset: - keywords: **Notes:** 重要要点 混合搜索的重要性: 词汇搜索和语义搜索互为补充,融合可以提高搜索质量。 融合方法的比较: 比较了凸结合(CC)和相互排名融合(RRF)两种融合方法。 CC对分数正则化一般不敏感,而RRF对参数敏感。 CC的优势:...

SS(T)

**Summary:** LlamaRec是一个基于大语言模型(LLM)的两阶段推荐框架,旨在提高推荐系统的效率和准确性。该框架包含两个主要阶段:检索阶段和排名阶段。以下是LlamaRec的主要内容和贡献: 1. 关键特点 两阶段框架:LlamaRec将推荐过程分为检索和排名两个步骤,首先使用小规模的序列推荐器高效地生成候选项,然后利用LLM进行精细化的排名。 高效检索:采用基于线性递归的LRURec模型作为检索器,能够快速处理用户历史记录并生成潜在候选项。 LLM排名:通过设计特定的文本提示,将用户历史记录和候选项输入到LLM中,进行更深入的偏好理解和排名。 **Resource:** - [pdf](https://arxiv.org/abs/2311.02089) - [code](https://github.com/Yueeeeeeee/LlamaRec) - [paper-with-code]( **Paper information:** - Author: - Dataset: - keywords: **Notes:** **Model Graph:** **Result:**: **Thoughts:** 和我想要找的领域不一样。 sub领域没有sequential信息,无法起到很好的item过滤效果。。不过这个用条件检索应该也能实现。 **Next...

Recommendation(T)
LLM(M)