借助AI的能力,实现本地知识库(非工具版)
本文介绍
上一篇文章中,我们借助cherry stdio,实现了一个纯个人vip定制的本地向量知识库,本文中,我们将通过完整的前端后端搭建 + 大模型,实现该需求。
总体实现逻辑及技术选型
后端:Python 3.8+
前端: React 18、Aceternity UI、Framer Motion
AI模型:
- 嵌入模型: all-MiniLM-L6-v2 (384维向量),将文本分割成向量
- 推理模型: gemma3:4b (Ollama本地部署),分析结果并用人话返回answer
- Ollama: 本地大语言模型服务
模型工作流程
- 根据语料库文档,使用嵌入模型切分成块,生成语料库
文档输入 → 嵌入模型 → FAISS向量索引 → 语义搜索 → 获取相关结果片段 → 推理模型 → 输出结果
最终界面演示
注意,其中用到的模型all-MiniLM-L6-v2和 gemma3:4b,需要本地自行下载。代码详情见git地址
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.
