From e9f75c0ce505348c731b060d036355f8532ff9f3 Mon Sep 17 00:00:00 2001 From: yangapku Date: Tue, 12 Sep 2023 16:07:43 +0800 Subject: [PATCH] update FAQ --- FAQ.md | 2 +- FAQ_ja.md | 2 +- FAQ_zh.md | 2 +- 3 files changed, 3 insertions(+), 3 deletions(-) diff --git a/FAQ.md b/FAQ.md index ef2f4c5..e47fa11 100644 --- a/FAQ.md +++ b/FAQ.md @@ -8,7 +8,7 @@ Flash attention is an option for accelerating training and inference. Only NVIDI #### Which version of transformers should I use? -4.31.0 is preferred. +4.32.0 is preferred. #### I downloaded the codes and checkpoints but I can't load the model locally. What should I do? diff --git a/FAQ_ja.md b/FAQ_ja.md index 1b93c51..821dd2a 100644 --- a/FAQ_ja.md +++ b/FAQ_ja.md @@ -8,7 +8,7 @@ Flash attention は、トレーニングと推論を加速するオプション #### transformers のバージョンは? -4.31.0 が望ましいです。 +4.32.0 が望ましいです。 #### コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか? diff --git a/FAQ_zh.md b/FAQ_zh.md index a318064..5550ce7 100644 --- a/FAQ_zh.md +++ b/FAQ_zh.md @@ -8,7 +8,7 @@ flash attention是一个用于加速模型训练推理的可选项,且仅适 #### 我应该用哪个transformers版本? -建议使用4.31.0。 +建议使用4.32.0。 #### 我把模型和代码下到本地,按照教程无法使用,该怎么办?