新物网

当前位置:首页 > 互联网

互联网

IDEA提出ToG思维图谱 大模型性能提升214%!

时间:2023-11-28 21:39:33 小新
要点:由IDEA研究院、微软亚洲研究院、香港科技大学等研究团队推出的Think-on-Graph技术,通过大模型与知识图谱的深度融合,实现在多个基准数据集上的性

要点:

  • 由IDEA研究院、微软亚洲研究院、香港科技大学等研究团队推出的Think-on-Graph技术,通过大模型与知识图谱的深度融合,实现在多个基准数据集上的性能提升,引领深度推理领域。

  • 在解决大模型在金融、法律、医疗等领域幻觉问题的挑战中,Think-on-Graph通过紧耦合的方式将大模型(LLM)作为“跑腿”,与知识图谱(KG)相互协作,提供更条理清晰、可追溯的推理链条。

  • Think-on-Graph借鉴了Transformer的beam-search算法思路,通过搜索剪枝和推理决策两个任务的迭代过程,有效提升了大模型推理的可解释性,同时在多个任务上刷新性能榜单。

11月27日 消息:近期,由IDEA研究院、微软亚洲研究院、香港科技大学等多方研究团队合作推出的Think-on-Graph技术,在深度推理领域掀起了一场革新。这一技术通过紧耦合大模型(LLM)与知识图谱(KG),成功弥补了大模型在金融、法律、医疗等领域幻觉问题上的能力短板。Think-on-Graph被证明在多个基准数据集上实现了巨大的性能提升,刷新了相关领域的性能榜单。

为了解决大模型在幻觉问题上的挑战,Think-on-Graph采用了紧耦合的新范式,将大模型作为“跑腿”与知识图谱相互协作。这一方法不仅使推理过程更加清晰有序,还提供了可追溯的推理链条。通过一个具体的例子,对比了传统大模型在推理问题上的表现与Think-on-Graph的方式,突显了其在逻辑分析和推理透明度方面的优势。

论文地址:https://arxiv.org/pdf/2307.07697.pdf

代码链接:https://github.com/IDEA-FinAI/ToG

Think-on-Graph的紧耦合范式不仅提高了大模型推理的效率,还在可解释性上有所突破。采用了Transformer的beam-search算法思路,实现了搜索剪枝和推理决策的迭代过程,有效提升了大模型推理的可解释性。此外,通过人工反馈和大模型的推理能力,Think-on-Graph还能够发现并修正知识图谱中的错误信息,弥补了大模型训练时间长、知识更新慢的缺点。

最终,在四类知识密集型任务的共9个数据集上,Think-on-Graph不仅刷新了7个性能榜单,而且在Zeroshot-RE数据集上的表现更是显著超过了传统大模型。这一研究成果为深度推理领域的发展带来了新的思路和方法,为实现大模型在各领域应用中更可靠、可解释的推理能力提供了有力支持。