From e307fe03cacf32be1a26a2b2ba7a490713bcf588 Mon Sep 17 00:00:00 2001 From: Yang An Date: Fri, 4 Aug 2023 15:58:57 +0800 Subject: [PATCH] Update README_CN.md --- README_CN.md | 12 +++++++++--- 1 file changed, 9 insertions(+), 3 deletions(-) diff --git a/README_CN.md b/README_CN.md index 334c9c5..1217a1d 100644 --- a/README_CN.md +++ b/README_CN.md @@ -81,12 +81,18 @@ pip install csrc/rotary from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation import GenerationConfig +# 请注意:我们的分词器做了对特殊token攻击的特殊处理。因此,你不能输入诸如<|endoftext|>这样的token,会出现报错。 +# 如需移除此策略,你可以加入这个参数`allowed_special`,可以接收"all"这个字符串或者一个特殊tokens的`set`。 +# 举例: tokens = tokenizer(text, allowed_special="all") tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat", trust_remote_code=True) -## 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存 +# 建议先判断当前机器是否支持BF16,命令如下所示: +# import torch +# torch.cuda.is_bf16_supported() +# 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存 # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True, bf16=True).eval() -## 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存 +# 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存 # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True, fp16=True).eval() -## 使用CPU进行推理,需要约32GB内存 +# 使用CPU进行推理,需要约32GB内存 # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="cpu", trust_remote_code=True).eval() # 默认使用fp32精度 model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True).eval()