暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

别再让数据沉睡了!Deepseek + Lakehouse 架构,让你的数据“开口说话”

61


各位好,我是果诚,一个在互联网大厂摸爬滚打多年的数据从业者。最近 Deepseek这股风刮得太猛了,本周末的大事莫过于腾讯于2025年2月15日晚开始灰度测试在微信中接入DeepSeek-R1模型。作为一个月活将近14亿的国民级app,表达一个开放的意愿就已经能够让股价火箭上天。而另一面,笔者的朋友圈也都很躁动,众多企业朋友们都在热情入局Deepseek。


今天想跟大家聊聊最近比较火的 Deepseek 私有部署 + Lakehouse 方案。作为一名数据从业者,我想结合自己的经验,跟大家聊聊我的看法。


为什么是Deepseek:开放共享与技术演进的双重印证


说到大语言模型,不得不提OpenAI。作为行业的开创者,OpenAI用ChatGPT展示了大语言模型的惊人潜力。但有趣的是,在技术发展道路上,OpenAI选择了一条相对封闭的路线。


Deepseek选择了一个与众不同的姿态——开放共享。当笔者深入研读Deepseek的技术文档时,不禁为其披露技术细节的诚意所打动。相比之下,回想前几年研究OpenAI发布的论文时,核心技术细节往往语焉不详。


对技术感兴趣的朋友,笔者推荐这个材料:逐篇解读Deepseek关键9篇论文的播客,相信能帮助我们更好地理解大模型的技术发展路径。(链接放在文章底部)


🌟 技术的真正意义,不在于被少数人掌握,而在于能为更多场景创造可能。


回想2016年,图灵奖得主Yann LeCun在NeurIPS会议上提出了著名的"蛋糕比喻",将大型语言模型的发展比作一个三层蛋糕:自监督学习是基础,指令监督微调是提升,而强化学习则是优化。这个洞见在今天看来依然深刻。DeepSeek 在强化学习方面取得了显著进展,并因此获得了性能提升,这可以被视为对 LeCun 路径的一种 印证。(当然,DeepSeek 的成功是多种因素共同作用的结果,LeCun 的路径也并非 LLM 发展的唯一道路,但它提供了一个有价值的参考框架。)


而说到知识记忆能力这个关键维度,Yann的另一个洞见是,在通往AGI的道路上,语言表达能力、知识记忆能力和逻辑推理能力是三个关键维度。


  • 语言表达能力 - 例如ChatGPT 3.5
  • 逻辑推理能力 - 例如Deepseek R1
  • 知识记忆能力 - RAG

这正是我们接下来要探讨的RAG(检索增强生成)技术。


为什么企业应建立RAG 知识库:让 LLM 拥有“外挂大脑”


在企业级 AI 应用中,如何让 LLM 更好地理解和利用企业内部知识,是一个关键问题。这时,RAG(Retrieval-Augmented Generation,检索增强生成)知识库就派上了用场。简单来说,RAG 就像是给 LLM 配备了一个“外挂大脑”,让它在生成答案之前,先从知识库中检索相关信息,然后再结合自身知识进行生成。这种方式可以有效提高 LLM 的准确性和可靠性,减少“胡说八道”的情况。


RAG知识库的简单架构示意:



RAG 知识库特别适用于需要访问最新信息、重视透明度和可解释性的应用场景。但同时,RAG 也存在一些局限性。


RAG 知识库的优势与局限性:



目前,RAG 知识库的构成主要还是以文档和一些半结构化数据为主。那么问题来了,企业的结构化数据又该如何成为 RAG 的一部分,让大模型也能“消费”这些数据呢?特别是那些经过企业数仓 ETL 加工处理过的“可信赖”的数据,如何才能更好地融入 RAG 流程,为 LLM 提供更全面、更准确的知识来源呢?这正是我们接下来要探讨的重点。


新范式:选用湖仓架构作为企业的数据基础底座,让广泛的数据和AI结合起来


🌟 企业价值密度最高的数据通常是结构化数据!


Deepseek+RAG+Lakehouse,或是释放数据价值的新思路,前边谈过Deepseek和RAG,这里我们重点看一下Lakehouse(一体化湖仓)。很多企业的数据都散落在各个系统里,格式五花八门,想用的时候找不到或很难做统一管理。这就像是盖房子,建材零散混乱彼此隔绝,自然无法有效利用。


一体化湖仓架构的出现,就是为了解决这个数据基建的“资源对接管理”问题。数据湖仓可以把你的结构化数据(比如数据库里的表格)、半结构化数据(比如 JSON 文件)和非结构化数据(比如文档、图片、视频)统统整合起来,形成一个统一的数据平台;它可以把离线任务、实时分析、流式数据处理有机结合在一起;新一代数据湖仓甚至可以把传统的数据分析计算引擎和AI也作为数据处理引擎统一起来,对数据进行分析处理。


湖仓架构的演进过程,受篇幅所限笔者这里不展开,只提一个关键点:在选择湖仓架构的时候,建议考察架构的存储是否是必须多套还是统一、元数据管理是多套还是统一。



最新一代的湖仓架构的主张是统一存储和统一元数据管理,面向多种负载应用,包括传统数据分析和机器学习,都用同一套数据。这样才能保证数据质量和数据可被信赖,也能大幅减少数据孤岛、数据不一致、数据烟囱等问题。


让湖仓一体 Ready for RAG,建立具备“可信数据”的企业RAG知识库


前面说了那么多,可能有些同学还是觉得有点抽象。接下来,笔者就结合云器提供的方案,跟大家聊聊如何基于 Lakehouse 架构来构建一个具备“可信数据”的企业 RAG 知识库。


这张图展示了云器 Lakehouse 构建的知识库架构,以及基于该知识库的 AI 产品功能,例如对话式数据分析工具 DataGPT。



整个流程可以概括为以下几个步骤:


  1. 数据入湖仓: 来自多源、多类型的数据通过各种方式进入 Lakehouse 。在这个过程中,元数据会被统一管理,并且会按照数仓的权限体系进行访问控制,确保数据的安全性。同时,数据会通过 Lakehouse 的一体化引擎(Single Engine)以及 AI 引擎进行转换和信息提取。

  2. 数据处理与存储: 通过数据与 AI 处理引擎,从结构化、非结构化数据中提取关键信息,并以以下三种形式存储在 Lakehouse 系统中:
    1. 表(Table): 存储结构化数据,方便进行查询和分析。
    2. 向量(Vector): 将文本、图像等非结构化数据转化为向量形式,用于语义搜索和相似度计算。
    3. 倒排索引(Inverted Index): 用于快速查找包含特定关键词的文档。

  3. RAG 就绪层: 这也是整个架构的关键所在。在这一层,通过语义引擎进行自动化的数据特征分析、知识图谱构建、指标自动化提取等操作。简单来说,就是为 RAG 做好数据准备,让 LLM 能够更好地理解和利用这些数据。关于向量和倒排索引的使用方法,可以参考云器的相关文档(向量:https://www.yunqi.tech/documents/vector-search 、倒排索引:https://www.yunqi.tech/documents/inverted-index)。

在这个流程中,Deepseek 等 AI 模型的能力被充分利用,助力数据平台处理各种类型的数据,为 RAG 知识库的构建奠定坚实的基础。

笔者认为,这个架构的亮点在于它将数据处理和 AI 能力紧密结合,真正实现了“数据 Ready for AI”。通过 Lakehouse 的统一数据管理和 AI 引擎的智能处理,企业可以构建一个高质量、可信赖的 RAG 知识库,为 LLM 提供更全面、更准确的知识来源,从而提升 AI 应用的效果。


Deepseek+RAG+Lakehouse结合实现企业自有的 AI 函数、对话式分析、文档问答


通过与 Deepseek 等 AI 模型深度集成,Lakehouse 还可以实现企业自有的 AI 函数。


AI 函数:让“大模型”批量处理数据


云器Lakehouse实现了将Deepseek 作为函数集成到数据处理流程中,实现 AI 辅助的数据清洗、转换、分析等功能。这就像是给数据处理流程装上了一个可以批处理的“大模型”计算引擎。


举个例子,企业可以批量使用 Deepseek 对客户评论进行情感分析,自动识别正面、负面和中性评论。然后,将情感分析结果添加到客户数据中,为后续的客户关系管理提供更精准的支持。


为了让大家更直观地了解 AI 函数的用法,下面笔者将展示如何使用 SQL AI 函数,调用 Deepseek R1 来处理一道数学题。众所周知,大模型有相对更强的语言能力,但数学能力偏弱,Deepseek R1作为推理模型,能够有更好的数学能力提升,比如解决经典的9.11和9.9哪个数更大的问题:



实现这个功能,在 云器Lakehouse 中实现非常简单,只需要将下面的程序,以及依赖包(Python 3.10)打包成 zip,并按照文档描述上传至对象存储如 OSS,再创建函数即可。具体步骤请参考(https://www.yunqi.tech/documents/RemoteFunctionDevGuidePython3)


实现功能的程序代码为(调用阿里云百炼平台的 deepseek r1 满血版)


    import sys
    from openai import OpenAI
    from cz.udf import annotate


    # 百炼通过 OpenAI SDK 或 OpenAI 兼容的HTTP方式快速体验DeepSeek模型。
    client = OpenAI(
    api_key='xxxxx', # 请替换为有效的 API Key
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"
    )
    @annotate("string,string->string")
    class fc_deepseek:
    def evaluate(self, service_type, input_text):
    if service_type != "math_problem":
    return "Invalid Service Type"
    try:
    completion = client.chat.completions.create(
    model="deepseek-r1",
    messages=[{'role': 'user', 'content': input_text}]
    )
    return completion.choices[0].message.content if completion.choices else "无法获取答案"
    except Exception as e:
                return f"计算错误: {e}"
    复制


    如企业想使用私有化部署模型,可以采用模型托管和推理服务如 Ollama, 它可以让你在私有化环境运行 Deepseek,并允许通过 API 方式 调用它们,它提供了一个 兼容 OpenAI API 格式的 HTTP 服务器,比如http://IP:11434/v1/chat/completions。我们只需要修改 evaluate 方法。

    当然,在SQL环境用大模型处理数学问题,属实是在以计算擅长的传统数据引擎面前班门弄斧了。在实践中,我们更希望通过大模型的能力,补充解决传统数据引擎不擅长的问题。


    另外,AI 函数的强大之处在于其灵活性和可扩展性。它不仅可以调用 Deepseek 等大模型,还可以根据不同的场景需求,调用其他各种类型的模型。例如,下面的函数就是调用视觉模型进行车型识别:


    这意味着,企业可以根据自身的业务需求,灵活地选择合适的 AI 模型,构建各种各样的 AI 函数,从而实现更加智能化、个性化的数据处理流程。



    数据对话式分析:让数据分析像聊天一样简单


    笔者长期关注数据分析领域,我看到对话式分析已经成为了企业数字化转型的一个重要方向。随着知识库+推理模型的发展,这个方向又迎来了新的可能性。


    2025年1月,云器发布的DataGPT是这个领域的新尝试。通过文档问答和对话式BI(ChatBI)等功能,用户可以用自然语言与数据交互。特别的是,云器DataGPT基于Lakehouse+RAG知识库,并采用推理模型 + Multi-Agent 架构。


    比如想了解"2020年,北京哪个区的房价同比增长最大?"这样的问题,系统能直接理解意图并给出分析结果。



    最近,云器DataGPT还完成了Deepseek R1的集成,其推理能力得到进一步加强。


    本图呈现了DeepSeek R1 基于Multi-Agent架构的创新性推理流程。在接收到用户查询后,系统首先通过意图识别Agent 精准解析问题本质,随后由指标提取、时间范围解析、维度拆解三大Agent并行协作,完成结构化数据的深度挖掘。为保障决策精准度,过滤条件识别Agent会动态构建数据约束,能保障自然语言的灵活度。最后通过总结归纳Agent生成层次分明的结构化回答。


    这种推理模型 + Multi-Agent 架构不仅实现了复杂问题的全链路智能解析,更通过各Agent的灵活组合显著提升了系统在商业分析、数据决策等场景下的自适应能力,较传统单线程处理模式效率有大幅提升。



    文档问答:deepseek大模型的基础操作


    文档问答是大模型非常成熟的应用场景,通过RAG可以将企业自有数据喂给大模型,并结合湖仓内的数据做文档和企业自有信息的问答,下面是简单的展示:



    总结Deepseek+RAG+Lakehouse这套方案的价值


    从最初企业受限于数据合规、定制化和成本等问题,对大模型只能远远观望,到如今企业可以基于Deepseek大模型入局,打造属于自己的“AI 大脑”和AI应用。RAG 为“AI ”提供了个性化信息支撑,让企业能够充分利用自身的数字资产。


    而Deepseek 等私有部署LLM + Lakehouse 架构的结合,未来或是一种全新的企业级 AI 范式。它不仅解决了合规的问题,还统一了数据要素管理,降低了 AI 应用的门槛;更重要的是,它真正实现了“数据 Ready for AI”,让数据不再是沉睡的资源,而是能够驱动业务增长的强大引擎。


    在可以预见的未来,AI大模型等能力必将愈加普惠,成本将持续降低,使用什么大模型未来将不再是门槛,而拥有关键入口的数据场景,和数据资源将是企业的核心价值。




    欢迎关注“云器科技”公众号,对话栏中了解云器Lakehouse产品,点击阅读原文查看下载技术白皮书!


    (附录)

    详解Deepseek大模型关键的9篇论文的播客,这是目前笔者看到的最好材料之一,由商业访谈录节目制作,强烈推荐欢迎收听收藏!


    类型

    论文

    播客讲解

    DeepSeek

    基座模型

    "DeepSeek LLM Scaling Open-Source Language Models with Longtermism" 

    https://xyzfm.link/s/jmP7rN

    "DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models"

    https://xyzfm.link/s/lVYZOh

    "DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model"

    https://xyzfm.link/s/xFt1gv

    "DeepSeek-V3 Technical Report"

    https://xyzfm.link/s/O5NgjR

    DeepSeek
    推理模型

    "DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence"

    https://xyzfm.link/s/5k1SBH

    "DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence" 

    https://xyzfm.link/s/pC1M2t

    "DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data"

    "DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search"

    https://xyzfm.link/s/j1lyP2

    "DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning"

    https://xyzfm.link/s/W2tQVN


      END  

    ▼点击关注云器科技公众号,优先试用云器Lakehouse!


            关于云器        


    云器Lakehouse作为面向企业的全托管一体化数据平台,只需注册账户即可管理和分析数据,无需关心复杂的平台维护和管理问题。新一代增量计算引擎实现了批处理、流计算和交互式分析的统一,适用于多种云计算环境,帮助企业简化数据架构,消除数据冗余。


    点击文末“阅读原文”,下载云器Lakehouse技术白皮书,了解更多产品细节!


    官网:yunqi.tech

    B 站:云器科技

    知乎:云器科技

    往期推荐 




    最后修改时间:2025-02-24 10:13:15
    文章转载自锋哥聊DORIS数仓,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

    评论