随着Deepseek的爆火,部署本地AI知识库,成为越来越多企业和个人的选择。本期海量智库,带您了解如何基于Vastbase部署您的专属AI助手。
Part 01
什么是LLM?什么是RAG?

LLM(Large Language Model)和RAG(Retrieval-Augmented Generation)是自然语言处理(NLP)领域中的两个重要概念。它们各自有不同的用途和特点,但有时也会结合使用以提升性能。
LLM:也就是大型语言模型,这些模型通常具有数十亿甚至更多的参数。它们在大量文本数据上进行训练,能够执行各种自然语言处理任务,如文本生成、翻译、问答等。
RAG:检索增强生成,一种将信息检索与 LLM 结合的框架,可以实时从外部知识库中检索相关信息,并利用 LLM 生成更准确、更有针对性且可靠的回答。
LLM的局限性
知识局限性:对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。
幻觉局限:回答内容的准确性存疑。
数据安全隐患:企业无法将私域数据上传到第三方平台进行训练,导致训练结果不准确、访问过程不稳定。
为解决以上问题,我们将LLM与RAG结合,基于Vastbase本地数据库,部署一个Deepseek本地知识库。为您提供更懂你、更安全、更可控的AI助手。
Part 02
为什么选择基于Vastbase的本地知识库?

性能稳定高效:海量数据库Vastbase向量版,是基于openGauss内核开发的纯国产数据库,性能优异、安全稳定,能让DeepSeek的RAG模型更精准理解你的需求。
灵活定制:本地部署意味着你可以根据自身需求,自由定制知识库内容和功能,打造更懂你的AI助手。
数据安全,隐私保障:敏感数据不出本地,杜绝信息泄露风险,安心使用无顾虑。
离线可用,稳定可靠:无需依赖网络,随时随地访问你的知识库,稳定流畅不卡顿。
成本可控,长期受益:一次部署,长期使用,无需持续支付高昂的云服务费用。
Part 03
实践准备:搭建基础环境

操作系统与 Python 环境配置
本试验所采用的操作系统为 centos7(x86_64),开发环境使用 python3.8.2。
验证是否成功:
Part 04
DeepSeek推理模型部署
解锁强大文本生成能力

安装Ollama服务
首先,我们需要下载 ollama 的 pypi 包,以便后续访问 ollama 服务:
然后,我们可以使用官网提供的一键式部署脚本来部署 ollama 服务:
如果遇到网络问题无法直接安装,我们可以考虑采用手动方案。
<<左右滑查看完整代码>>
安装成功后,我们可以启动 ollama 服务:
选择关键模型:DeepSeek与nomic-embed-text的协同
在RAG应用中,文本嵌入模型和文本生成模型是至关重要的组成部分。在本次实践中,我们着重引入了DeepSeek家族中的deepseek-r1模型来承担文本生成这一核心任务。
deepseek-r1 模型是基于先进的深度学习技术开发的,它具有独特的架构和训练方式,能够更好地捕捉文本中的语义信息,从而为文本生成带来更出色的效果。
同时,我们选用nomic-embed-text模型用于嵌入任务,该模型能够将文本转换为高维向量表示,为后续的检索和匹配提供了强有力的支持。二者协同工作,共同助力我们打造基于DeepSeek与Vastbase的本地AI知识库。
Part 05
Vastbase安装部署
构建可靠数据存储基石

通过海量数据库Vastbase向量版存储本地私域知识,在快速检索的同时提供更加稳定、更加安全的数据防护。
具体的安装步骤可以参考官网
安装后启动数据库服务:
验证数据库安装成功:
<<左右滑查看完整代码>>
Part 06
构建RAG实例
实现知识的高效检索与生成

第一步:连接数据库
首先,我们需要下载 psycopg2 依赖:
然后验证数据库连接:
<<左右滑查看完整代码>>
如果正确连接会显示如下结果:
<<左右滑查看完整代码>>
第二步:准备语料信息
我们的信息来源于Vastbase的知识库,部分数据信息为:
<<左右滑查看完整代码>>
第三步:语料预处理
部分结果为:
<<左右滑查看完整代码>>
第四步:语料嵌入
在前述章节里,我们已经准备好了nomic-embed-text嵌入模型。
这里进行简单测试如下:
<<左右滑查看完整代码>>
执行结果为:
<<左右滑查看完整代码>>
第五步:数据导入
创建包含文本数据和向量数据的table,将处理好的语料数据向量化后导入到Vastbase中,并创建索引:
<<左右滑查看完整代码>>
运行结果为:
<<左右滑查看完整代码>>
第六步:查询检索
我们尝试问如下问题,它会得到数据库内的结果:
<<左右滑查看完整代码>>
结果如下:
<<左右滑查看完整代码>>
Part 07
结合LLM实现RAG

首先,为对比RAG前后效果,我们直接询问大模型得到如下答案,结果并不理想:
<<左右滑查看完整代码>>
得到的结果如下:
<<左右滑查看完整代码>>
借助Vastbase检索结果作为上下文,将文档进行格式化处理,并为大模型制定PROMPT,基于ollama平台,我们采用deepseek-r1大模型进行知识问答:
<<左右滑查看完整代码>>
得到的回答为:
<<左右滑查看完整代码>>
从上面的实例可以看出:基于海量数据库Vastbase向量版并结合deepseek搭建的RAG应用,能充分发挥出Vastbase高效存储和快速检索向量数据的特性,也能充分释放deepseek强大的文本生成能力和精准的文本嵌入能力,显著提高本地知识库的准确性、避免幻觉问题,是您搭建安全、高效、灵活本地知识库的优秀选择。