update FAQ

main
yangapku 1 year ago
parent 74541672bd
commit e9f75c0ce5

@ -8,7 +8,7 @@ Flash attention is an option for accelerating training and inference. Only NVIDI
#### Which version of transformers should I use? #### Which version of transformers should I use?
4.31.0 is preferred. 4.32.0 is preferred.
#### I downloaded the codes and checkpoints but I can't load the model locally. What should I do? #### I downloaded the codes and checkpoints but I can't load the model locally. What should I do?

@ -8,7 +8,7 @@ Flash attention は、トレーニングと推論を加速するオプション
#### transformers のバージョンは? #### transformers のバージョンは?
4.31.0 が望ましいです。 4.32.0 が望ましいです。
#### コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか? #### コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか?

@ -8,7 +8,7 @@ flash attention是一个用于加速模型训练推理的可选项且仅适
#### 我应该用哪个transformers版本 #### 我应该用哪个transformers版本
建议使用4.31.0。 建议使用4.32.0。
#### 我把模型和代码下到本地,按照教程无法使用,该怎么办? #### 我把模型和代码下到本地,按照教程无法使用,该怎么办?

Loading…
Cancel
Save