add 72B and 1.8B Qwen models, add Ascend 910 and Hygon DCU support, add docker support

main
yangapku 1 year ago
parent e8e15962d8
commit b1d80a9385

@ -30,10 +30,10 @@ In brief, we have strong base language models, which have been stably pretrained
| Model | Release Date | Max Length | System Prompt Enhancement | # of Pretrained Tokens | Minimum GPU Memory Usage of Finetuning (Q-Lora) | Minimum GPU Usage of Generating 2048 Tokens (Int4) | Tool Usage |
|:----------|:------------:|:----------:|:-------------------------:|:----------------------:|:-----------------------------------------------:|:--------------------------------------------------:|:----------:|
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | × | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | × | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
In this repo, you can figure out:

@ -30,10 +30,10 @@
| 模型 | 开源日期 | 最大上下文长度 | System Prompt强化 | 预训练token数 | 微调Q-Lora最小GPU用量 | 生成2048个token的最小显存占用 | 工具调用 |
|:----------|:--------:|:-------:|:---------------:|:---------:|:-----------------:|:-------------------:|:----:|
| Qwen-1.8B | 23.11.30 | 32K | √ | 2.2T | 5.8GB | 2.9GB | √ |
| Qwen-7B | 23.08.03 | 32K | × | 2.4T | 11.5GB | 8.2GB | √ |
| Qwen-14B | 23.09.25 | 8K | × | 3.0T | 18.7GB | 13.0GB | √ |
| Qwen-72B | 23.11.30 | 32K | √ | 3.0T | 61.4GB | 48.9GB | √ |
| Qwen-1.8B | 23.11.30 | 32K | ✅ | 2.2T | 5.8GB | 2.9GB | ✅ |
| Qwen-7B | 23.08.03 | 32K | ❎ | 2.4T | 11.5GB | 8.2GB | ✅ |
| Qwen-14B | 23.09.25 | 8K | ❎ | 3.0T | 18.7GB | 13.0GB | ✅ |
| Qwen-72B | 23.11.30 | 32K | ✅ | 3.0T | 61.4GB | 48.9GB | ✅ |
在这个项目中,你可以了解到以下内容

@ -30,10 +30,10 @@ En resumen, disponemos de modelos lingüísticos sólidos, que han sido preentre
| Modelo | Fecha de Publicación | Longitud Máx. | Mejora del Sistema de Avisos | # de Fichas Preentrenadas | Uso Mínimo de Memoria GPU de Finetuning (Q-Lora) | Uso Mínimo de la GPU para Generar 2048 Tokens (Int4) | Uso de Herramientas |
|:----------|:--------------------:|:-------------:|:----------------------------:|:-------------------------:|:------------------------------------------------:|:----------------------------------------------------:|:-------------------:|
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | × | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | × | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
En este repo, usted puede averiguar:

@ -30,10 +30,10 @@ En bref, nous disposons de modèles linguistiques solides, qui ont été pré-en
| Modèle | Date de sortie | Longueur maximale | Amélioration de l'invite du système | # de tokens pré-formés | Utilisation minimale de la mémoire du GPU pour Finetuning (Q-Lora) | Utilisation minimale du GPU pour générer 2048 jetons (Int4) | Utilisation des outils |
|:----------|:--------------:|:-----------------:|:-----------------------------------:|:----------------------:|:------------------------------------------------------------------:|:-----------------------------------------------------------:|:----------------------:|
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | × | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | × | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
| Qwen-1.8B | 23.11.30 | 32K | | 2.2T | 5.8GB | 2.9GB | |
| Qwen-7B | 23.08.03 | 32K | | 2.4T | 11.5GB | 8.2GB | |
| Qwen-14B | 23.09.25 | 8K | | 3.0T | 18.7GB | 13.0GB | |
| Qwen-72B | 23.11.30 | 32K | | 3.0T | 61.4GB | 48.9GB | |
Dans la repo, vous pouvez trouver:

@ -31,10 +31,10 @@
| モデル | 発行日 | コンテキストの最大長 | システムプロンプトの強化 | 预训练されたトークンの数 | FinetuningQ-Loraの最小GPUメモリ使用量 | 2048トークン生成時の最小GPUメモリ使用量Int4 | ツールの使用能力 |
|:----------|:--------:|:----------:|:------------:|:------------:|:------------------------------:|:-----------------------------:|:--------:|
| Qwen-1.8B | 23.11.30 | 32K | √ | 2.2T | 5.8GB | 2.9GB | √ |
| Qwen-7B | 23.08.03 | 32K | × | 2.4T | 11.5GB | 8.2GB | √ |
| Qwen-14B | 23.09.25 | 8K | × | 3.0T | 18.7GB | 13.0GB | √ |
| Qwen-72B | 23.11.30 | 32K | √ | 3.0T | 61.4GB | 48.9GB | √ |
| Qwen-1.8B | 23.11.30 | 32K | ✅ | 2.2T | 5.8GB | 2.9GB | ✅ |
| Qwen-7B | 23.08.03 | 32K | ❎ | 2.4T | 11.5GB | 8.2GB | ✅ |
| Qwen-14B | 23.09.25 | 8K | ❎ | 3.0T | 18.7GB | 13.0GB | ✅ |
| Qwen-72B | 23.11.30 | 32K | ✅ | 3.0T | 61.4GB | 48.9GB | ✅ |
このレポでは、それを把握することができる:

Loading…
Cancel
Save