diff --git a/README_JA.md b/README_JA.md index 18e48bd..536f4ec 100644 --- a/README_JA.md +++ b/README_JA.md @@ -423,7 +423,7 @@ model = AutoPeftModelForCausalLM.from_pretrained( ).eval() ``` -アダプターをマージし、微調整したモデルをスタンドアロンモデルとして保存したい場合は、以下のコードを実行します: +アダプターをマージし、微調整したモデルをスタンドアロンモデルとして保存したい場合は(これは LoRA でのみ可能で、Q-LoRA からパラメータをマージすることはできません)、以下のコードを実行します: ```python from peft import AutoPeftModelForCausalLM