Ollama
陪读蛙可以借助本地部署的 Ollama 服务器,来实现本地 AI 离线翻译功能,完全免费使用强大的大语言 AI 模型
Ollama 服务器是什么?
Ollama 服务器是一款主打轻量化、便捷性的开源 AI 模型运行平台,让用户无需复杂配置,即可在本地轻松部署各类大语言模型(LLMs)与 AI 模型。它就像一个 “AI 模型管家”,将繁琐的模型下载、配置、运行流程简化为几条命令,哪怕是 AI 部署新手,也能快速上手。
Ollama 本地部署教程
下载安装程序
你可以从 ollama.ai 官网下载安装程序。
配置 ollama 的跨域支持
请配置以下的环境变量:
-
允许跨域访问:
OLLAMA_ORIGINS=*macOS / Linux:
echo 'export OLLAMA_ORIGINS=*' >> ~/.zshrc source ~/.zshrcWindows (PowerShell 管理员模式):
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'User')设置完成后,如果你之前启动了 Ollama 服务,请先关闭它,然后重新启动
ollama serve命令。如果之前没有启动,则忽略。 -
API服务监听地址:
OLLAMA_HOST=127.0.0.1:11434(这是默认地址,可以不用手动配置,不过你可以根据实际情况修改)
Ollama 常用命令
1 检查Ollama版本并且启动ollama服务器
ollama version
ollama serve用于检查当前安装的 Ollama 版本,以确认安装成功并查看版本详细信息,然后启动 Ollama 服务器
2 找到可用模型并安装
你可以从 ollama.ai 找到可用模型并安装。
ollama pull [模型名称]比如安装 gemma3:4b 模型:
ollama pull gemma3:4b3 列出已下载的模型
ollama list此命令会显示所有本地下载的模型,包括名称、大小和创建时间,以帮助用户管理本地模型资源。
4 启动服务
ollama serve5 插件中配置 Ollama 提供商
在插件的设置中,配置 Ollama 提供商,并选择一个模型。

如果你没有修改默认地址,你可以留空 baseURL 或者设置为 http://127.0.0.1:11434/api。
如果你修改了默认地址,你需要设置 baseURL 为你的地址。
{
"baseURL": "http://127.0.0.1:XXXXX/api"
}你可以点击“测试链接”按钮,来测试是否连接成功。
注意事项
- 不要启动 Ollama Chat 图形客户端,它会和
ollama serve争抢端口。 - 在插件的设置中,配置 Ollama 提供商时,baseURL 默认是
http://127.0.0.1:11434,如果你的OLLAMA_HOST是这个地址,则可以不用手动配置。
常见问题
Windows: 连接 Ollama 时出现 403 错误
如果在 Windows 上连接 Ollama 时遇到 403 错误,可能是因为你使用了管理员权限运行 PowerShell(或终端)。权限过高会导致插件无法正常访问 Ollama 服务。
解决方法: 关闭管理员模式的 PowerShell,使用普通用户权限重新打开 PowerShell 并启动 ollama serve。