程序员开发实例大全宝库

网站首页 > 编程文章 正文

个人电脑(CPU)离线部署开源大模型chatglm3

zazugpt 2024-09-01 07:56:42 编程文章 22 ℃ 0 评论

核心部署 chatglm3的C++量化版本,其中前六步属于常规操作,第七步是精华属于原创。

参考:https://github.com/li-plus/chatglm.cpp

一.部署chatglm.cpp

git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp

git submodule update --init --recursive

二.下载python依赖

python3 -m pip install -U pip

python3 -m pip install torch tabulate tqdm transformers accelerate sentencepiece

三.通过 convert 专为 GGML 格式

  • 用于 convert.py 将 ChatGLM-6B 转换为量化的 GGML 格式。要将 fp16 原始模型转换为q4_0(量化 int4)GGML 模型

python3 chatglm_cpp/convert.py -i THUDM/chatglm3-6b -t q4_0 -o chatglm3-ggml.bin

四.编译项目生成main文件

cmake -B build

cmake --build build -j --config Release

五.命令行方式启动

./build/bin/main -m chatglm3-ggml.bin -p 你好

六.Web方式启动

python3 ./examples/web_demo.py -m chatglm3-ggml.bin

七.离线迁移部署

7.1 将chatglm.cpp目录迁移到离线环境

7.2增加软链接libm-2.3.1.so和libstdc++.so.6.0.28

7.3 在/usr/bin下新增chat脚本

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表