当前位置:首页 » 《关注互联网》 » 正文

解决Docker中使用 Open WebUI识别不到本地ollama中的模型

21 人参与  2024年10月26日 09:20  分类 : 《关注互联网》  评论

点击全文阅读


1. 识别不到本地ollama中模型的原因:

Docker中的Open WebUI没有连接到本地ollama的端口。

原来我运行的命令是:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

查看日志会发现如下报错:

报错出现的原因:

该命令会连接默认的端口号,但是本地ollama的端口号已经被我改为8000了,这需要我们修改Docker中的Open WebUI连接的端口号。

解决:

用-e命令覆盖原本的OLLAMA_BASE_URL地址和端口,运行命令docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=IPv4地址:你修改的ollama端口号 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

这里用局域网的IPv4地址的原因是:

确保 Docker 容器可以访问宿主机的 127.0.0.1:8000。因为 127.0.0.1 是容器内部的环回地址,它无法直接访问宿主机的 localhost。这意味着容器尝试连接自己的 127.0.0.1:8000,而不是宿主机的。

一定要注意修改为你ollama的端口号!!!

所以我们直接用局域网的ip区分容器内部的环回地址。

最后可以识别本地ollama运行的模型:

2. 如果你没有配置 Ollama on Windows的环境变量,请细看本小点。

我们需要对「环境变量」进行一些自定义配置:

2.1 使用Windows + R快捷键打开「运行」对话框,输入以下命令,然后按Ctrl + Shift + Enter以管理员权限打开「环境变量」配置窗口。

C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables

2.2 在「用户变量」中,根据需要添加以下环境变量。

2.2.1 更改 Ollama API 访问地址和侦听端口

Ollama API 的默认访问地址和侦听端口是http://localhost:11434,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口:

变量名:OLLAMA_HOST变量值(端口)::8000

只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。

这里的端口号可以自行设置!

2.2.2 允许浏览器跨域请求

Ollama 默认只允许来自127.0.0.10.0.0.0的跨域请求,如果你计划在 LoboChat 等前端面板中调用 Ollama API,建议放开跨域限制

变量名:OLLAMA_ORIGINS变量值:*

2.2.3 重启 Ollama 并测试 API 访问

(1)在「开始」菜单中找到并重新启动 Ollama。

(2)右键点击系统托盘中的 Ollama 图标,选择「View log」打开命令行窗口。

(3)分别执行以下命令,查看新配置的环境变量是否生效:
echo %OLLAMA_HOST%
echo %OLLAMA_ORIGINS%

2.3 浏览器中访问 Ollama API 地址和端口,验证访问是否正常。

3.配置完之后可以开始前面的解决问题的步骤


点击全文阅读


本文链接:http://zhangshiyu.com/post/177823.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1