diff --git a/README_JA.md b/README_JA.md index f851f0a..5fa9c57 100644 --- a/README_JA.md +++ b/README_JA.md @@ -106,10 +106,8 @@ pip install -r requirements.txt お使いのデバイスが fp16 または bf16 をサポートしている場合、[flash-attention](https://github.com/Dao-AILab/flash-attention) (flash attention 2に対応しました)をインストールすることで、より高い効率とメモリ使用量を抑えることができます。(**flash-attention はオプションであり、インストールしなくてもプロジェクトは正常に実行できます**) ```bash -# 以前のインストールコマンド。flash attention 2がサポートされました。 -# git clone -b v1.0.8 https://github.com/Dao-AILab/flash-attention -# cd flash-attention && pip install . -pip install flash-attn --no-build-isolation +git clone https://github.com/Dao-AILab/flash-attention +cd flash-attention && pip install . # 以下はオプションです。インストールに時間がかかる場合があります。 # pip install csrc/layer_norm # pip install csrc/rotary