@ -423,7 +423,7 @@ model = AutoPeftModelForCausalLM.from_pretrained(
).eval()
```
アダプターをマージし、微調整したモデルをスタンドアロンモデルとして保存したい場合は、以下のコードを実行します:
アダプターをマージし、微調整したモデルをスタンドアロンモデルとして保存したい場合は(これは LoRA でのみ可能で、Q-LoRA からパラメータをマージすることはできません)、以下のコードを実行します:
```python
from peft import AutoPeftModelForCausalLM