1. 识别不到本地ollama中模型的原因:
Docker中的Open WebUI没有连接到本地ollama的端口。
原来我运行的命令是:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
查看日志会发现如下报错:
报错出现的原因:
该命令会连接默认的端口号,但是本地ollama的端口号已经被我改为8000了,这需要我们修改Docker中的Open WebUI连接的端口号。
解决:
用-e命令覆盖原本的OLLAMA_BASE_URL地址和端口,运行命令docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=IPv4地址:你修改的ollama端口号 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这里用局域网的IPv4地址的原因是:
确保 Docker 容器可以访问宿主机的 127.0.0.1:8000
。因为 127.0.0.1
是容器内部的环回地址,它无法直接访问宿主机的 localhost
。这意味着容器尝试连接自己的 127.0.0.1:8000
,而不是宿主机的。
一定要注意修改为你ollama的端口号!!!
所以我们直接用局域网的ip区分容器内部的环回地址。
最后可以识别本地ollama运行的模型:
2. 如果你没有配置 Ollama on Windows的环境变量,请细看本小点。
我们需要对「环境变量」进行一些自定义配置:
2.1 使用Windows + R
快捷键打开「运行」对话框,输入以下命令,然后按Ctrl + Shift + Enter
以管理员权限打开「环境变量」配置窗口。
C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables
2.2 在「用户变量」中,根据需要添加以下环境变量。
2.2.1 更改 Ollama API 访问地址和侦听端口
Ollama API 的默认访问地址和侦听端口是http://localhost:11434
,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口:
OLLAMA_HOST
变量值(端口)::8000
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000
端口。
这里的端口号可以自行设置!
2.2.2 允许浏览器跨域请求
Ollama 默认只允许来自127.0.0.1
和0.0.0.0
的跨域请求,如果你计划在 LoboChat 等前端面板中调用 Ollama API,建议放开跨域限制
OLLAMA_ORIGINS
变量值:*
2.2.3 重启 Ollama 并测试 API 访问
(1)在「开始」菜单中找到并重新启动 Ollama。
(2)右键点击系统托盘中的 Ollama 图标,选择「View log」打开命令行窗口。
(3)分别执行以下命令,查看新配置的环境变量是否生效:
echo %OLLAMA_HOST%
echo %OLLAMA_ORIGINS%
2.3 浏览器中访问 Ollama API 地址和端口,验证访问是否正常。
3.配置完之后可以开始前面的解决问题的步骤