0
点赞
收藏
分享

微信扫一扫

使用阿里云GPU服务器快速搭建AI对话机器人


本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。

背景信息

ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术,经过约1 TB标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,能够生成符合人类偏好的回答。

本文基于阿里云GPU云服务器和ChatGLM-6B语言模型,指导您如何快速搭建一个AI对话机器人。

使用阿里云GPU服务器快速搭建AI对话机器人_服务器

重要

  • 阿里云不对第三方模型“ChatGLM-6B”的合法性、安全性、准确性进行任何保证,阿里云不对由此引发的任何损害承担责任。
  • 您应自觉遵守第三方模型的用户协议、使用规范和相关法律法规,并就使用第三方模型的合法性、合规性自行承担相关责任。

操作步骤

创建ECS实例

  1. 前往实例创建页。
  2. 按照界面提示完成参数配置,创建一台ECS实例。需要注意的参数如下,其他参数的配置,请参见自定义购买实例。
  • 实例:选择实例规格为ecs.gn7i-c16g1.4xlarge。
  • 镜像:本文使用已部署好推理所需环境的云市场镜像,名称为ai-inference-solution。
  • 公网IP:选中分配公网IPv4地址,带宽计费模式选择按使用流量,带宽峰值设置为10 Mbps。说明如果您需要自行下载模型测试,建议将带宽峰值设置为100 Mbps,以加快模型下载速度。
  1. 添加安全组规则。在ECS实例安全组的入方向添加安全组规则并放行50001端口。具体操作,请参见添加安全组规则。
  2. 创建完成后,在ECS实例页面,获取公网IP地址。
    说明
    公网IP地址用于生成图片测试时访问WebUI服务。

下载模型

  1. 使用root用户远程连接ECS实例。
    该市场镜像中,运行环境及模型都安装在/root目录下,连接实例时需使用root用户。具体操作,请参见通过密码或密钥认证登录Linux实例。
  2. 执行如下命令,下载ChatGLM-6B模型。

cd /root/chatglm
git clone https://www.modelscope.cn/ZhipuAI/ChatGLM-6B.git chatglm-6b
git -C chatglm-6b checkout v1.0.16
sed -i '33c from .configuration_chatglm import ChatGLMConfig' chatglm-6b/modeling_chatglm.py

模型下载大约需要35分钟,回显信息如下图所示时,表示模型已下载完成。

使用阿里云GPU服务器快速搭建AI对话机器人_人工智能_02

进行AI对话

  1. 执行如下命令,开启WebUI服务。

cd /root/chatglm/ChatGLM-6B
streamlit run web_demo2.py --server.port 50001 &

当出现如下回显的时候,表示启动成功。

使用阿里云GPU服务器快速搭建AI对话机器人_阿里云_03

  1. 在浏览器地址栏输入http://<ECS公网IP地址>:50001,进入Web页面。
  2. 用户命令输入对话框中,输入对话内容(例如中国有几个直辖市?),单击发送,即可开始AI对话。
举报

相关推荐

0 条评论