暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

深度解读丨利用 DeepSeek 开放权重模型推动悦数 Graph RAG AI 开发平台创新

悦数图数据库 2025-02-21
1

最近几周,随着 DeepSeek 及其系列开放权重大模型(例如 V3 、R1-distill 系列等)的发布,国内外的人工智能技术正迎来一场前所未有的变局。DeepSeek 的模型不仅在性能上可媲美 GPT-4o 和 OpenAI 的 o1 模型,而且采用了宽松的 MIT 开源许可,使得模型权重完全开放,便于大家深入研究与二次开发。悦数 Gen AI 团队在公开透明的科研实践中,也正是借助这一波开源浪潮,实现了技术的跨越式进步,进而推动了我们的产品悦数 Graph RAG AI 开发平台的落地与商业化应用。

DeepSeek 开放权重模型的优势

开放与透明

DeepSeek 的 R1、R1-distill 等模型均采用宽松许可发布,用户可自由下载、使用、修改与再分发,极大地促进了科研合作与技术分享。

性能卓越

目前,DeepSeek 的 V3 模型和 R1 模型在数学、代码、逻辑推理等任务上达到了与 GPT-4o、OpenAI o1 相当的水平,而 R1 模型更以其强大的链式推理(chain-of-thought)能力脱颖而出,能在生成阶段准确捕捉关键信息,实现“针尖对麦芒”的精准输出。

成本优势

DeepSeek V3 的训练成本是百万美元级别,与对标的巨头团队的工作相比成本有数量级的优势,而且,DeepSeek 的 2C 托管服务免费向所有终端用户开放,成为首个“超级智能”且具备网络搜索能力的模型,迅速走红。

悦数 Graph RAG AI 开发平台

如何借力 DeepSeek 模型与公开技术

在传统大语言模型(LLM)或 o1 类模型的基础上,单靠海量文本训练固然能解决一般性语言生成任务,但在需要集成成千上万领域知识、解读海量文档并进行深度推理的场景下,往往力不从心。悦数 Graph RAG AI 开发平台正是基于这样的痛点应运而生。

整合海量领域知识

悦数 Graph RAG AI 开发平台能够将数千份领域文档、章节、图片、表格等多样化数据构建成多频谱的图状结构蒸馏“知识图谱”,并通过图算法实现深度关联、检索和推理。借助 DeepSeek 的 R1 模型,我们得以在公开透明的科研环境下,对这一复杂流程进行反复优化。

降低技术门槛,普惠自服务应用

悦数 Graph RAG AI 开发平台平台致力于将复杂的知识整合与推理工作封装成用户友好的应用,无论是技术专家还是普通用户,都能轻松上传、整合自有知识,并借助内置的 meta agent 进行智能决策,而无需编写繁琐的流程脚本或提示语。

开放式科研,成果共享

我们坚持公开透明的研究理念,将悦数 Graph RAG AI 开发平台的研发过程、模型微调、实验结果等全部开源,与业界同行共享我们的探索成果,推动整个 AI 生态的繁荣与进步。

悦数 Graph RAG AI 开发平台图探索界面

悦数 Graph RAG AI 开发平台

典型应用场景

用例 1:增强型 Agentic RAG 系统


在悦数 Graph RAG AI 开发平台中,我们利用 DeepSeek 的 R1 及 R1-distill 模型作为任务规划器,构建了一个具备高可见性和透明决策过程的 Agentic RAG 系统。


改进前:传统系统的推理阶段受到用户需求描述和知识桶命名方式的影响,决策过程难以观察。


改进后:采用 R1 模型后,我们的系统不仅性能大幅提升,而且推理过程完全可视化,用户可以清楚看到模型如何在图、BM25 和向量索引间进行查询和决策。

> 上图:使用非 R1 的 Agentic RAG 推理

> 下图:使用 R1 的 Agentic RAG 推理


用例 2:生成阶段的深度推理


对于复杂的问题生成任务,传统非推理模型(例如 GPT-4o)往往因上下文不足而无法回答深层问题。


例如:当我们向系统提问关于图数据库查询的极深问题时,非推理模型无法给出有效答案,而 R1 模型通过多轮自我反思和迭代生成,成功捕捉“针尖”信息并提供精准回答。


用例 3:Meta Agent 辅助应用逻辑生成


在部分场景下,用户提供的信息极少,导致初始应用逻辑混乱甚至无效。


改进措施:利用 R1 模型在推理阶段扩展思考深度,自动生成并优化初始应用逻辑,确保输出结果具有较高的合理性和实用性。


用例 4:报告/文章生成器


悦数 Graph RAG AI 开发平台中的一类应用为报告与文章生成器。


应用特点:通过可选的推理规划模块,R1 模型在生成初稿时大幅提升内容质量,并在后续迭代中不断优化逻辑链和细节,显著提升生成报告的完整性和专业性。


深度研究:此外,我们的深度研究功能借助 R1 进行多轮规划和研究,生成高质量、经过深度验证的输出。


用例 5:图索引


这是我们希望进一步公开分享的部分。


长久以来,我们做过很多让 Graph RAG 中的知识抽取环节的成本优化的工作,其中,微调小的基础模型、利用 NER 等专有机器学习模型等方法都被探索过,确没能找到一个真正多语言、足够小、效果可以接受的模型。


在我们自己的知识抽取的探索与落地过程中,我们沉淀出 1-shot CoT,few-shot CoT 等不同的方法,都依然会需要相对比较昂贵的语言模型来驱动,而基于 SFT 的工作由于没有将 CoT 与 Reasoning 的能力作为目标、没有足够强的小规模基础模型,往往没有理想的平衡点。


最近,我们在去年 Deepseek-Math 给出的 GRPO 强化学习方法之上,微调的小型 LLM(例如 qwen2.5-3b),利用 R1 生成的推理过程数据进行知识提取,仅用 200+ 步训练便得到了一个可用的抽取模型,其性能与 gpt-4o-mini 相当甚至更优。


这个方法中我们利用了 R1 的强大 reasoning 能力,基于少量数据,适当清洗之后,蒸馏合成了 60+ 份带有 reasoning 的数据,作为 groud thruth。另外,受到 will 的 GRPO reward 实现的启发——和基于他的工作的 Qwen 改造,基础之上实现了基于 LLM call 与代码格式复合的 reward 机制,在 Unsloth 的  [Daniel Han Chen] 的工作至上,可以 LORA 训练在单显卡、250 step 内训练。Reward 的方式使得模型能够进行有效、合理的 reasoning 同时,在 Qwen2.5-3B 模型上给出相对可接受的知识抽取。


其中,我们的抽取任务比较简单,是一个 1-shot 、无指引 reasoning 、开放 Schema 的标签异构图谱。在简单的的结果评估下,我们得到了还不错的结果。虽然只是初步的探索,没有做充分的泛化、大量的评估,但是这个方向是比较有希望的,所以很想把结果分享出来。

整个训练的过程我们开源在这里(https://github.com/wey-gu/gpro-graph-extraction),希望能给大家一些帮助与启发。


结语

通过借助 DeepSeek 的开放权重模型,我们在悦数 Graph RAG AI 开发平台的研发中获得了前所未有的技术优势。无论是在增强推理、生成精准回答,还是在降低系统构建门槛方面,R1 模型都为我们带来了革命性的突破。我们将继续坚持公开透明的科研模式,与全球同行共享我们的探索成果,共同推动 AI 生态的繁荣与进步。


欢迎大家关注并试用我们的悦数 Graph RAG AI 开发平台产品,点击阅读原文即可申请试用和在线演示,也期待在评论区听到你们的宝贵意见与建议!


联系我们丨杭州悦数科技有限公司

咨询邮箱:contact@yueshu.com.cn

咨询热线:(+86)0571-58009980

(工作日 09:30-18:30)


< PAST · 相关阅读 >


 点击「阅读原文」联系我们

文章转载自悦数图数据库,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论