|
|
|
@ -259,10 +259,10 @@ BF16 の精度と Int4 の量子化レベルの下で、それぞれ 2048 個と
|
|
|
|
|
|
|
|
|
|
また、BF16またはInt4の量子化レベルで、それぞれ2048トークンをコンテキストとしてエンコードした場合(および単一のトークンを生成した場合)と、8192トークンを生成した場合(単一のトークンをコンテキストとして生成した場合)のGPUメモリ使用量のピーク値をプロファイリングしました。その結果を以下に示します。
|
|
|
|
|
|
|
|
|
|
| Quantization | Peak Usage for Encoding 2048 Tokens | Peak Usage for Generating 8192 Tokens |
|
|
|
|
|
| -------------- | :-----------------------------------: | :-------------------------------------: |
|
|
|
|
|
| BF16 | 17.66GB | 22.58GB |
|
|
|
|
|
| Int4 | 8.21GB | 13.62GB |
|
|
|
|
|
| Quantization Level | Peak Usage for Encoding 2048 Tokens | Peak Usage for Generating 8192 Tokens |
|
|
|
|
|
| ------------------ | :---------------------------------: | :-----------------------------------: |
|
|
|
|
|
| BF16 | 17.66GB | 22.58GB |
|
|
|
|
|
| Int4 | 8.21GB | 13.62GB |
|
|
|
|
|
|
|
|
|
|
上記のスピードとメモリーのプロファイリングは、[このスクリプト](https://qianwen-res.oss-cn-beijing.aliyuncs.com/profile.py)を使用しています。
|
|
|
|
|
<br>
|
|
|
|
|