腾讯云GPU云服务器快速搭建AI对话机器人教程!

2023年 12月 5日 347点热度 0人点赞 0条评论

ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术,经过约1 T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,能生成符合人类偏好的回答。

本文基于阿里云GPU云服务器和ChatGLM-6B语言模型,指导您如何快速搭建一个AI对话机器人。

image..png

重要
  • 阿里云不对第三方模型“ChatGLM-6B”的合法性、安全性、准确性进行任何保证,阿里云不对由此引发的任何损害承担责任。

  • 您应自觉遵守第三方模型的用户协议、使用规范和相关法律法规,并就使用第三方模型的合法性、合规性自行承担相关责任。

创建ECS实例

  1. 前往实例创建页

  2. 按照界面提示完成参数配置,创建一台ECS实例。

    需要注意的参数如下,其他参数的配置,请参见自定义购买实例

    • 实例:选择实例规格为ecs.gn7i-c16g1.4xlarge

    • 镜像:本文使用已部署好推理所需环境的云市场镜像,名称为ai-inference-solution

      image

    • 公网IP:选中分配公网IPv4地址,带宽计费模式选择按使用流量,带宽峰值设置为100 Mbps,以加快模型下载速度。

      image..png

  3. 添加安全组规则。

    在ECS实例安全组的入方向添加安全组规则并放行50001端口。具体操作,请参见添加安全组规则

    开放50001端口..png

  4. 创建完成后,在ECS实例页面,获取公网IP地址。

    说明

    公网IP地址用于生成图片测试时访问WebUI服务。

    image

下载模型

  1. 使用root用户远程连接ECS实例。

    该市场镜像中,运行环境及模型都安装在/root目录下,连接实例时需使用root用户。具体操作,请参见通过密码或密钥认证登录Linux实例

  2. 执行如下命令,下载ChatGLM-6B模型。

    cd /root/chatglm
    git-lfs clone https://huggingface.co/THUDM/chatglm-6b

    模型下载大约需要35分钟,当显示如下图所示的回显信息时,说明已下载完成。

    image..png

进行AI对话

  1. 执行如下命令,开启WebUI服务。

    cd /root/chatglm/ChatGLM-6B
    streamlit run web_demo2.py --server.port 50001 &

    当出现如下回显的时候,表示启动成功。

    image..png

  2. 在浏览器地址栏输入http://<ECS公网IP地址>:50001,进入Web页面。

  3. 用户命令输入对话框中,输入对话内容(例如中国有几个直辖市?),单击发送,即可开始AI对话。

    image..png

了解更多AIGC实践和GPU优惠

活动入口立即开启AIGC之旅

image..png

dechenyun

这个人很懒,什么都没留下

文章评论