bge-m3 ollama CherryStudio
时间: 2025-06-14 11:43:55 浏览: 44
### bge-m3、Ollama 和 CherryStudio 的使用指南与集成方法
#### 关于 bge-m3
bge-m3 是一种基于 BERT 架构的多模态嵌入模型,主要用于自然语言处理中的语义相似度计算和检索任务。该模型能够生成高质量的向量表示,适用于多种应用场景,例如文档检索、问答系统等[^4]。
为了在项目中使用 bge-m3,可以参考以下 Python 实现方式:
```python
from sentence_transformers import SentenceTransformer, util
model = SentenceTransformer('BAAI/bge-large-en') # 加载预训练模型
sentences = ["This is an example sentence", "Each sentence is converted"]
embeddings = model.encode(sentences) # 获取句子的向量表示
print(embeddings)
```
上述代码展示了如何加载并使用 `sentence-transformers` 库来获取句子的嵌入向量[^5]。
---
#### Ollama 安装与 DeepSeek-R1 集成
Ollama 提供了一种简单的方式来管理和运行大型语言模型 (LLM),包括 DeepSeek 系列模型。以下是其基本安装流程:
1. **下载并安装 Ollama**
可以通过官方命令行工具完成安装:
```bash
curl https://ollama.ai/install.sh | sh
```
2. **拉取 DeepSeek 模型**
使用以下命令从远程仓库下载 DeepSeek-R1 模型:
```bash
ollama pull deepseek/r1
```
3. **启动服务**
启动 Ollama 服务以便后续调用:
```bash
ollama serve
```
这些操作完成后即可通过 API 或者前端工具访问已部署的模型[^1]。
---
#### CherryStudio 配置与集成
CherryStudio 是一款支持 LLM 调试和服务管理的图形化界面工具,它允许用户轻松连接到 Ollama 并利用其中托管的大规模 AI 模型执行推理任务。
具体配置过程如下所示:
1. 下载并安装最新版本的 CherryStudio;
2. 打开软件后设置目标地址指向本地运行的 Ollama RESTful 接口,默认端口号为 `http://localhost:11434`;
3. 创建新对话框或者导入已有数据集作为输入源;
4. 开始测试不同参数组合下的输出效果,并保存最佳实践方案用于未来重复应用[^3].
---
#### 结合 bge-m3 和 CherryStudio 进行私有知识库构建
如果希望进一步扩展功能,则可以通过引入外部索引来增强查询效率。比如借助 FAISS 或 Annoy 来加速最近邻搜索算法性能表现;与此同时也可以考虑将 bge-m3 计算得到的结果存储至 Elasticsearch 中实现全文本匹配能力提升[^6]:
```python
import faiss
import numpy as np
index = faiss.IndexFlatL2(dimensionality_of_vectors)
for vector in embeddings:
index.add(np.array([vector]))
query_vector = model.encode(["What does this mean?"])
distances, indices = index.search(query_vector.reshape(-1,d), k=5)
```
此脚本片段说明了怎样把之前产生的 embedding 添加进入 Faiss 数据结构里头去,从而加快查找速度。
---
阅读全文
相关推荐


















