From 6cf80d2c11ef2e04713729f6e4a037af3f87176c Mon Sep 17 00:00:00 2001 From: Junyang Lin Date: Fri, 20 Oct 2023 22:06:00 +0800 Subject: [PATCH] Update README_JA.md --- README_JA.md | 3 ++- 1 file changed, 2 insertions(+), 1 deletion(-) diff --git a/README_JA.md b/README_JA.md index d853d77..95becc1 100644 --- a/README_JA.md +++ b/README_JA.md @@ -672,7 +672,8 @@ merged_model.save_pretrained(new_model_directory, max_shard_size="2048MB", safe_ ### vLLM デプロイメントと高速推論のためには、FastChatとvLLMを使用することをお勧めします。まずパッケージをインストールしてください: ```bash -pip install vllm fastchat +pip install vllm +pip install "fschat[model_worker,webui]" ``` または、`git clone` と `pip install -e .` を使ってソースからインストールすることもできます。インストールに問題がある場合は、それぞれのドキュメントを読むことを勧める。