From e6ecfb2294cefa7ac155c9e99ebe5abdd1c9f20b Mon Sep 17 00:00:00 2001 From: Junyang Lin Date: Fri, 20 Oct 2023 22:06:37 +0800 Subject: [PATCH] Update README_FR.md --- README_FR.md | 3 ++- 1 file changed, 2 insertions(+), 1 deletion(-) diff --git a/README_FR.md b/README_FR.md index 9869da9..45ca203 100644 --- a/README_FR.md +++ b/README_FR.md @@ -685,7 +685,8 @@ Nous profilons la mémoire du GPU et la vitesse d'apprentissage de LoRA (LoRA (e ### vLLM Pour le déploiement et l'inférence rapide, nous suggérons d'utiliser vLLM avec FastChat. Installez d'abord les paquets: ```bash -pip install vllm fastchat +pip install vllm +pip install "fschat[model_worker,webui]" ``` Ou vous pouvez les installer à partir des sources par `git clone` et `pip install -e .`. Nous vous conseillons de lire leurs documents si vous rencontrez des problèmes lors de l'installation.