本地搭建chatglm3-6b

 admin   2024-08-21 14:42   70 人阅读  0 条评论

之前搭建glm4结果显卡带不动,只好退而求其次

环境准备: python3.12,miniconda,安装时都要加入path,即环境变量

先把项目给git下来,无论是git还是下载zip解压都可以

git clone https://github.com/THUDM/ChatGLM3.git

然后创建一个model目录,把需要的模型也给git下来

git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

安装依赖

把requirements.txt  的#vllm>=0.4.2注释掉

PS I:\AI\chat\chatglm\GLM3-6B\ChatGLM3> pip install -r requirements.txt

进入I:\AI\chat\chatglm\GLM3-6B\ChatGLM3\composite_demo

创建conda环境,安装依赖

conda create -n glm-4-demo python=3.12
conda activate glm-4-demo

pip install -r requirements.txt -i https://mirror.sjtu.edu.cn/pypi/web/simple

修改model path为刚刚下载模型的路径

如果是venv环境需要单独安装

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

启动

streamlit run main.py

附录:

项目地址

https://github.com/THUDM/ChatGLM3

模型下载地址

Model Seq Length Download
ChatGLM3-6B 8k HuggingFace | ModelScope | WiseModel | OpenXLab
ChatGLM3-6B-Base 8k HuggingFace | ModelScope | WiseModel | OpenXLabl
ChatGLM3-6B-32K 32k HuggingFace | ModelScope | WiseModel | OpenXLab
ChatGLM3-6B-128K 128k HuggingFaceModelScope| OpenXLab
本文地址:https://liuchunjie.top/?id=749
版权声明:本文为原创文章,版权归 admin 所有,欢迎分享本文,转载请保留出处!

 发表评论


表情

还没有留言,还不快点抢沙发?