当前位置:首页 » 《资源分享》 » 正文

使用Xorbits Inference进行本地大模型部署及查询

26 人参与  2024年09月11日 14:01  分类 : 《资源分享》  评论

点击全文阅读


介绍

在本文中,我们将展示如何使用Xorbits Inference (简称Xinference) 在本地部署大型语言模型(LLM)。我们将使用Llama 2聊天模型作为示例,但代码适用于所有支持的LLM聊天模型。

步骤概述

安装Xinference启动本地模型索引数据并进行查询

安装Xinference

首先,我们需要安装Xinference。请在终端窗口中运行以下命令:

pip install "xinference[all]"

安装完成后,重启您的Jupyter Notebook。然后在新的终端窗口中运行以下命令:

xinference

您应该会看到如下输出:

INFO:xinference:Xinference successfully started. Endpoint: http://127.0.0.1:9997INFO:xinference.core.service:Worker 127.0.0.1:21561 has been added successfullyINFO:xinference.deploy.worker:Xinference worker successfully started.

在端点描述中查找端口号,在上面的例子中是9997

接下来设置端口号:

%pip install llama-index-llms-xinferenceport = 9997  # 替换为您的端口号

启动本地模型

在这一步中,我们将导入相关库并启动模型。

!pip install llama-index  # 如果缺少LlamaIndex,需安装from llama_index.core import (    SummaryIndex,    TreeIndex,    VectorStoreIndex,    KeywordTableIndex,    KnowledgeGraphIndex,    SimpleDirectoryReader)from llama_index.llms.xinference import Xinferencefrom xinference.client import RESTfulClientfrom IPython.display import Markdown, display

定义客户端并启动模型:

# 定义客户端以发送命令到Xinferenceclient = RESTfulClient(f"http://localhost:{port}")# 下载并启动模型,初次可能需要等待model_uid = client.launch_model(    model_name="llama-2-chat",    model_size_in_billions=7,    model_format="ggmlv3",    quantization="q2_K",)# 初始化Xinference对象以使用LLMllm = Xinference(    endpoint=f"http://localhost:{port}",    model_uid=model_uid,    temperature=0.0,    max_tokens=512,)

索引数据并进行查询

在这一步中,我们将模型与数据结合以创建查询引擎。

# 从数据创建索引documents = SimpleDirectoryReader("../data/paul_graham").load_data()# 使用VectorStoreIndex创建索引index = VectorStoreIndex.from_documents(documents=documents)# 创建查询引擎query_engine = index.as_query_engine(llm=llm)

我们可以在询问问题前设置温度和最大回答长度。

# 可选,更新温度和最大回答长度llm.__dict__.update({"temperature": 0.0})llm.__dict__.update({"max_tokens": 2048})# 问一个问题并显示答案question = "What did the author do after his time at Y Combinator?"response = query_engine.query(question)display(Markdown(f"<b>{response}</b>"))

可能遇到的错误

无法安装Xinference: 确保您的网络连接正常,或者尝试使用国内镜像源安装包。模型启动失败: 检查是否有足够的系统资源,尤其是内存和存储空间。查询引擎创建失败: 确认数据路径正确且数据格式符合要求。

参考资料:

Xorbits Inference 官方文档Llama Index 官方文档

如果你觉得这篇文章对你有帮助,请点赞,关注我的博客,谢谢!


点击全文阅读


本文链接:http://zhangshiyu.com/post/158247.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

最新文章

  • 好看的顾墨琛沈冉沈心:+后续+结局_顾墨琛沈冉沈心:+后续+结局
  • [女儿死后,老婆只让我吃狗食]情感冲突精选段落_「温颜井余陆同舟」免费试读
  • 爸爸和哥哥毁掉我嗓子后,我杀疯了节选试读_[妹妹弟弟高昱宸]精彩章节免费试读
  • 偷砸千万陪男友创业,他却转头表白初恋?最新后续章节在线阅读_「贺楠姜淼白月光」小说***章节抢先看
  • 微风轻拂又见你:+结局+番外(林书意陆沉)_微风轻拂又见你:+结局+番外(林书意陆沉)列表_笔趣阁(林书意陆沉)
  • 微风轻拂又见你:全书+后续+结局免费_(林书意陆沉)微风轻拂又见你:全书+后续+结局林书意陆沉列表_笔趣阁(林书意陆沉)
  • 景清可入淮:结局+番外(姜以清萧景淮)_景清可入淮:结局+番外列表_笔趣阁(姜以清萧景淮)
  • 全文大寒冬去春可期(曲晚乔)列表_全文大寒冬去春可期
  • 「爸爸和哥哥毁掉我嗓子后,我杀疯了」命运转折章节速览_[妹妹弟弟高昱宸]全章节免费阅读
  • [得知我是假千金,男友逼我被车碾压]免费_「任曼曼贺裕曼曼」完结
  • 「绑定吃瓜系统,满朝文武吓疯了」剧情悬念章节分段解锁_楚临情感冲突名场面试读章
  • 老公傍上富婆要跟我离婚,却不知富婆她爹是我家管家:结局+番外(老公傍上富婆要跟我离婚,却不知富婆她爹是我家管家:结局+番外)完结_(林立洋)列表_笔趣阁(老公傍上富婆要跟我离婚,却不知富婆她爹是我家管家:结局+番外)

    关于我们 | 我要投稿 | 免责申明

    Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1