对于国内用户来说, 直接从HuggingFace下载模型可能会遇到网络阻碍, 您可以先通过以下链接提前将模型下载并解压到本地:
然后在 config.py
文件中对以下字段进行修改:
embedding_model_dict = {
"ernie-tiny": "nghuyong/ernie-3.0-nano-zh",
"ernie-base": "your_model_path",
"ernie-medium": "your_model_path",
"ernie-xbase": "your_model_path",
"text2vec-base": "your_model_path",
'simbert-base-chinese': 'your_model_path',
'paraphrase-multilingual-MiniLM-L12-v2': "your_model_path"
}
- ChatGLM-6B 模型硬件需求
量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调) FP16(无量化) 13 GB 14 GB INT8 8 GB 9 GB INT4 6 GB 7 GB
若您的设备显存有限
- 可以选择
ChatGLM-6B-int8
或者ChatGLM-6B-int4
以及选择较小的Embedding Model进行组合使用. - 参数选择时,可以选择叫小的history进行尝试.
- 需要等文件完全上传之后再进行对话.
- 若detectron2安装有问题, 可以执行:
pip install git+https://openi.pcl.ac.cn/Learning-Develop-Union/detectron2.git
. - 目前项目仅在linux环境下进行测试,win/mac下或许存在一些未知问题.