ZBLOG

您现在的位置是:首页 > anythingllm > 正文

anythingllm

AnythingLLM配置,轻松搞定

admin2025-10-09anythingllm21
AnythingLLM配置,轻松搞定!之前我们聊到了【AnythingLLM】这款强大的AI交互软件,有些小伙伴可能还不太会配置。今天我就来详细讲讲如何配置AnythingLLM,保证干货满满!下载安

AnythingLLM配置,轻松搞定!
之前我们聊到了【AnythingLLM】这款强大的AI交互软件,有些小伙伴可能还不太会配置。今天我就来详细讲讲如何配置AnythingLLM,保证干货满满!
下载安装AnythingLLM客户端 📥
首先,打开官网,根据你的系统选择Mac或Windows版本。这个步骤很简单,但很重要。
设置Anything默认的LLM 🔧
打开Anything,点击左下角的小扳手🔧,进入设置。依次选择“人工智能提供商”-“LLM首选项”,然后选择Ollama,再选择DeepSeek-R1。这样在新建工作区时,默认就会调用DeepSeek-R1了。(其实调用的是System Default,但我们把Deepseek设置成Default,其实就是调用Deepseek)
设置嵌入首选项 📚
这一步非常关键!很多小伙伴在这里出错,导致喂给AI的个人资料文件识别慢或者报错。

嵌入首选项其实就是让你选择RAG模型。RAG模型的作用是把人类看得懂的文字、图表等资料转化为AI能理解的量化数据。我推荐使用nomic-embed-text这个专门的RAG模型。在开启Ollama的情况下,在终端输入【ollama run nomic-embed-text】即可下载和安装这个模型。安装好后,在嵌入首选项里选择Ollama-nomic-embed-text即可。
新建工作区 🗂️
Anything配置好了之后,这一步就是如何使用了。Anything使用“工作区”的概念来启用AI,一个工作区就是一个AI数据库,各个工作区的数据互相独立。新建工作区后,默认的配置都是前面几步的设置,当然你也可以每个工作区再单独设置,比如A工作区使用DeepSeek作为LLM,但B工作区使用Qwen作为LLM都是可以的。
上传个人文档和资料 📂
我们本地部署AI的一大目的就是为了让AI能在本地分析处理我们的隐私数据,而不是把数据发送给远程的AI服务器。点击工作区的上传图标,然后把我们的数据放入左边的寄存区;需要加入当前工作区,就选中以后,点击【move to workspace】,就可以被调用了。可以看到AI的回答引用了我提供的文件。

如果还有不懂的地方,欢迎在评论区讨论哦!

发表评论

评论列表

  • 这篇文章还没有收到评论,赶紧来抢沙发吧~