当前位置:首页 » 《关于电脑》 » 正文

1.WLS下非docker安装ollama+open webui及qwen2-7b模型应用

21 人参与  2024年10月03日 10:40  分类 : 《关于电脑》  评论

点击全文阅读


目录

什么是 Ollama WebUI?

系统要求

win配置

wsl常用指令

ubuntu更新

安装过程

ollama安装

open-webui安装

修改open webui端口


什么是 Ollama WebUI?

Ollama WebUI 已经更名为 Open WebUI. Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。

Ollama WebUI 是一个革命性的 LLM 本地部署框架,具有类似 ChatGPT 的 Web 界面。让我们为您的 Ollama 部署的 LLM 提供类似 ChatGPT Web UI 的界面,只需按照以下 5 个步骤开始行动吧。

系统要求

Windows 10 64 位:最低要求是 Home 或 Pro 21H2(内部版本 19044)或更高版本,或者 Enterprise 或 Education 21H2(内部版本 19044)或更高版本。

Windows 11 64 位:家庭版或专业版 21H2 或更高版本,或者企业版或教育版 21H2 或更高版本。

WSL 版本 1.1.3.0 或更高版本。在 Windows 上打开 WSL 2 功能。

8 核 64 位处理器、16GB+ RAM、带有 4GB+ VRAM 的 Nvidia 显卡。

win配置

wsl安装cuda环境, 按照NVIDIA给出的教程,首先需要安装Windows平台上的NVIDIA显卡驱动。
首先win安装cuda环境 查看指令 nvidia-smi
win能看到 那wsl中也能看到 然后安装
参考链接
Win10自定义路径位置安装WSL2 (Ubuntu 20.04) 并配置CUDA
https://zhuanlan.zhihu.com/p/681092042

wsl常用指令

查看运行版本号

wsl -l -v

更新wsl,查看版本

wsl --updatewsl --version

注销指定wsl镜像(注意就相当于删除系统,资料全丢的那种,慎重操作)

wsl --unregister wsl_01_ollama_webui_ubuntu2004

导入导出,从网上下载好镜像,解压,用这种方式导入,可以指定安装目录,并指定名称

wsl --import wsl_00_ollama_webui_langchain E:\wsl2\img_wsl_00_ollama_webui_langchain E:\wsl2\wsl_img\Ubuntu_2004.2021.825.0_x64\install.tar.gzwsl --export wsl_ollama_webui_ubuntu2004 E:\wsl2\export\wsl_ollama_webui_ubuntu2004.tar.gz

运行关闭指令 -u是以指定用户运行

wsl -d wsl_ollama_webui_ubuntu2004wsl -d wsl_ollama_webui_ubuntu2004 -u rootwsl -t wsl_ollama_webui_ubuntu2004

使用非root用户,默认登录即解决方案先添加book用户

adduser booksudo adduser book sudo

再添加以下内容,

sudo vim /etc/wsl.conf[user]default = book

可以不用vim指令,使用echo也可以达到同样效果

echo "[user]" >> /etc/wsl.confecho "default = book" >> /etc/wsl.conf

Vmmem介绍
Vmmem 进程是系统合成的一个虚拟进程,用于表示虚拟机消耗的内存和 CPU 资源。 换句话说,如果您看到 Vmmem 消耗大量内存和 CPU 资源,那么这意味着您的虚拟机正在消耗大量内存和 CPU 资源。如果要让它停止,请关闭您的虚拟机。
具体步骤

按下Windows + R 键,输入 %UserProfile% 并运行进入用户文件夹新建文件 .wslconfig ,然后记事本编辑填入以下内容并保存, memory为系统内存上限,这里我限制最大2GB,可根据自身电脑配置设
[wsl2]memory=2GBswap=0localhostForwarding=true
4.然后启动cmd命令提示符,输入 wsl --shutdown 来关闭当前的子系统
 

ubuntu更新

sudo apt-get update sudo apt-get upgrade

安装过程

安装 wsl-ubuntu

安装 Ubuntu-22.04,默认会安装在 C 盘,

wsl.exe --install -d Ubuntu-22.04

导出 Ubuntu-22.04,

wsl --export Ubuntu-22.04 D:\tmp\Ubuntu-22.04.tar

删除 Ubuntu-22.04,

wsl --unregister Ubuntu-22.04

导入 Ubuntu-22.04,导入到 F:\VirtualPCs\Ubuntu-22.04 目录,

wsl --import Ubuntu-22.04 F:\VirtualPCs\Ubuntu-22.04 D:\tmp\Ubuntu-22.04.tar

访问 Ubuntu-22.04,

wsl -d Ubuntu-22.04

退出 Ubuntu-22.04,

exit

(可选)关闭 Ubuntu-22.04,

wsl --shutdown

ollama安装

一键安装ollama,运行serve 在运行模型,此处下载并运行qwen2:7b,如果GPU不足,可以运行qwen2:7b-instruct-q5_K_M

curl -fsSL https://ollama.com/install.sh | shollama serveollama run qwen2-7b

open-webui安装

我安装的当前版本是

open webui v0.3.16

ollama v0.3.8

open-webui的安装采用直接官网下载最新源码安装的方式, 创建conda运行环境。 

conda create --name open-webui-env python=3.11conda activate open-webui-env

1、进入open-webui源码git官网,下载最新版本

https://github.com/open-webui/open-webui

直接下载zip安装包。(右上角点击code,点击download zip)

在root下创建open-webui文件夹,将zip文件解压到该文件夹。

2、重新安装open-webui并启动

#1.环节配置cd /root/open-webuicp -RPp .env.example .env#2.安装前端依赖npm inpm run build#3.安装后端依赖cd backendpip install -r requirements.txt#4.启动后端bash start.sh

 启动后访问:http://localhost:8080/

修改open webui端口

打开/root/open-webui/backend/start.sh文件修改端口

#!/usr/bin/env bashSCRIPT_DIR=$( cd -- "$( dirname -- "${BASH_SOURCE[0]}" )" &> /dev/null && pwd )cd "$SCRIPT_DIR" || exitKEY_FILE=.webui_secret_keyPORT="${PORT:-8088}"HOST="${HOST:-0.0.0.0}"

重新启动服务后,访问:http://localhost:8088/

首次登录需要创建一个账号,如admin。

登录系统后可以自己下载qwen2的多个模型测试。

可以访问https://ollama.com/library 找到qwen2,选择合适的模型

 点击上图的拷贝图标,获得:ollama run qwen2:7b-instruct-q5_K_M

在此处粘贴该文字,点下载即可。 


点击全文阅读


本文链接:http://zhangshiyu.com/post/167327.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1