使用火山引擎的R1模型配合cherry studio搭建个人知识库的方法

最后更新于 2025-03-07 482 次阅读


一.背景

当你在工作中频繁遇到这样的情况:技术文档散落在本地文件夹、云端硬盘、协作平台等多个存储位置,每次检索都需要在十几个PDF和Confluence页面间反复切换,甚至需要向同事追溯某个方案的原始版本...这种碎片化的知识管理方式,往往会导致效率瓶颈。

针对这类场景(且文档不涉及敏感信息时),推荐尝试构建基于「向量大模型(嵌入模型)+大语言模型(对话模型)」的智能搜索系统。其核心在于:通过语义理解而非关键词匹配,实现跨格式(Word/PDF/Markdown)、跨平台(本地/云端)的精准检索。比如输入"近三年服务器集群的扩容方案",系统不仅能定位相关文档,还能直接提取出各方案的核心参数对比表,极大地提升了工作文档的查找效率。

当然我要先提前说明一下什么是**向量大模型(嵌入模型)**:嵌入模型就是把文字变成数字向量的模型。这是生成知识库的内核,实际作用我用R1举个例子来给你说明。

例子:想象你在厨房整理调料瓶(盐/白糖/辣椒油等),传统搜索如同按瓶身文字查找——若输入“咸味调料”却找不到盐,只因标签未写“咸”字。嵌入模型的精妙在于将每个调料转化为多维属性坐标:盐可能是[咸度9,甜度1,辣度0],辣椒油则呈现[咸度2,甜度1,辣度8]。当搜索“火锅蘸料”时,系统并非匹配文字,而是通过分析这些隐藏属性,自动关联辣椒油的辛辣特质与白糖的甜味调和作用,甚至能发现黑胡椒粉(咸度4)比辣椒油更接近你的真实需求——这正是AI突破字面束缚、理解语义关联的核心能力,其让计算机像人类一样理解字面背后的含义,而不只是死板匹配文字。

那么对应的**大语言模型(对话模型)**就是我们现在日常在用的对话模型。

所以实际上私人知识库做的事情,就是将我们的资料喂给嵌入模型,让他理解分析向量化我们的资料建立可检索的向量数据库;当用户在进行提问时,系统先检索向量库中相关性最高的文本片段,再将精选片段与问题共同输入大语言模型,让大语言模型基于限定上下文生成准确回答,再答复给我们。

二.搭建步骤详情

由于私人本地搭建deepseek R1模型一般不是满血模型,实际效果完全不如使用厂商的满血版本模型的效果,所以这里我们选用的是抖音的火山引擎的满血R1模型来作为大语言模型,抖音自己的Doubao-embedding-large模型来作为我们的嵌入模型。机子使用到的app为cherry studio。

1.下载并安装cherry studio

下载地址为:https://cherry-ai.com/download.html,根据你的系统版本下载对应的软件

cherry studio官网知识库部署教程地址为:https://docs.cherry-ai.com/knowledge-base/knowledge-base

2.注册并登陆火山引擎创建API

抖音火山引擎的地址为:https://www.volcengine.com/

访问注册并登录,注册这里可以填写博主的邀请码:UD1V9CF4,可以领取30块钱的代金券。登陆后我们点击右上角大模型按钮,然后选择火山方舟的模型选择,跳转到模型界面。

点击API接入按钮

输入任意你想创建的名称,点击“点击创建按钮”

然后会弹出一个api-key,点击“选择使用,继续 ”,系统会自动复制该key,请保存到某个记事本中

然后需要进行实名认证,认证通过后,选择R1模型进行开通。

开通后可以看到对应的示例代码,我们这里需要复制一下模型名字,这里的模型名为:deepseek-r1-250120

3.配置cherry studio的api和大语言模型R1

我们打开cherry studio软件,点击左下角的设置按钮,进入设置界面

在模型服务里找到“火山引擎”后,在API秘钥里填入我们第二步开通api服务时的api秘钥,然后再点击添加按钮添加模型。

点击添加模型按钮后,我们在“模型ID”这一栏填入我们第二步中获取到的deepseek R1模型ID:deepseek-r1-250120,然后点击添加后,我们的语言模型就添加好了

模型添加完成后,我们可以点击API秘钥旁边的检查按钮检查我们的大语言模型是否正常使用。

4.配置cherry studio的嵌入模型

现在R1大语言模型配置好了,我们需要继续配置我们的嵌入模型。

在之前第二步的火山引擎界面,我们点击左边的模型广场按钮,也可以直接访问如下链接进入模型广场:https://console.volcengine.com/ark/region:ark+cn-beijing/model?vendor=Bytedance&view=LIST_VIEW

在模型广场里,我们点击左边模型类别里的“向量模型”按钮

点击Doubao-embedding-vison的查看详情

点击“推理”按钮,进入模型开通界面。

选择开通模型

复制对应的模型ID,doubao-embedding-large-text-240915

进入cherry studio的设置→模型服务(同第二步添加大语言模型的步骤),找到火山引擎,点击添加模型

复制嵌入模型ID添加模型:doubao-embedding-large-text-240915

5.添加知识库

现在我们嵌入模型和语言模型都有了,我们来添加知识库。

点击cherry studio左边的知识库按钮

点击添加按钮,输入你想填的知识库的名称,然后选择我们加入的嵌入模型,点击确定即可创建知识库、

添加文件并向量化,打绿钩表示向量化完成

6.添加助手并配置对应模型

回到cherry studio的助手界面,点击添加助手,添加助手后在界面上方选择你想要的大语言模型

7.进行测试

在聊天栏点击知识库按钮后,选择对应的知识库,测试效果。

如下图可见本地知识库的内容已经被正常引用