From 05bf38118bbc3eb8081cbee74a57932a0fdc9235 Mon Sep 17 00:00:00 2001 From: Junyang Lin Date: Mon, 25 Sep 2023 11:49:24 +0800 Subject: [PATCH] Update README_JA.md --- README_JA.md | 136 +++++++++++++++++++++++++++++++-------------------- 1 file changed, 83 insertions(+), 53 deletions(-) diff --git a/README_JA.md b/README_JA.md index f1108da..d5cd64d 100644 --- a/README_JA.md +++ b/README_JA.md @@ -4,38 +4,52 @@

- +


- Qwen-7B 🀖 | 🀗   Qwen-7B-Chat 🀖 | 🀗  | Qwen-7B-Chat-Int4 🀗 + 🀗 Hugging Face   |   ðŸ€– ModelScope   |    📑 Paper      ðŸ–¥ïž Demo
-WeChat   |   Discord   |   Demo    Report +WeChat (埮信)       DingTalk (钉钉)    |   Discord  

-
+

日本語ドキュメントメンテナヌ: Ikko Eltociear Ashimine & Junyang Lin


-私たちは、**Qwen-7B** ず **Qwen-7B-Chat** を **🀖 ModelScope** ず **🀗 Hugging Face** の䞡方でオヌプン゜ヌス化しおいたす(䞊郚のロゎをクリックするず、コヌドずチェックポむントのあるリポゞトリに移動したす)。このレポには、Qwen-7B の簡単な玹介ず、䜿い方の手匕き、さらに詳しい情報を提䟛する技術メモ [link](tech_memo.md) が含たれおいたす。 +| | Qwen-Chat | Qwen-Chat (Int4) | Qwen | +|----|:------------------------------------------------------------------------------------------------------------------------------------:|:----------------------------------------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------------------------------------------------------:| +| 7B | 🀖 🀗 | 🀖 🀗 | 🀖 🀗 | +| 14B | 🀖 🀗 | 🀖 🀗 | 🀖 🀗 | + + + +Qwen-7B**ず**Qwen-14B**の**Qwen**シリヌズず、**Qwen-7B-Chat**ず**Qwen-14B-Chat**の**Qwen-Chat**シリヌズをオヌプン゜ヌス化したした。䞊の衚にリンクがありたす。クリックしおモデルカヌドをご確認ください。たた、テクニカルレポヌトも公開したした。論文リンクをクリックしおご芧ください + +簡単に説明するず、私たちは、ドメむンや蚀語䞭囜語ず英語を䞭心になどを幅広くカバヌする最倧3兆トヌクンの倚蚀語デヌタに察しお安定的に事前孊習された匷力なベヌス蚀語モデルを持っおいたす。これらのモデルは、ベンチマヌクデヌタセットにおいお競争力のあるパフォヌマンスを達成するこずができたす。さらに、SFTずRLHFに基づく人間の嗜奜に沿ったチャットモデルただリリヌスされおいたせんがあり、チャット、コンテンツ䜜成、情報抜出、芁玄、翻蚳、コヌディング、数孊の問題を解くなどが可胜で、ツヌルを䜿ったり、゚ヌゞェントずしお遊んだり、コヌドむンタプリタずしお遊んだりするこずもできたす。 -Qwen-7B は、アリババクラりドが提唱する倧芏暡蚀語モデルシリヌズ Qwen略称Tongyi Qianwenの7Bパラメヌタ版になりたす。Qwen-7B は Transformer ベヌスの倧芏暡蚀語モデルであり、りェブテキスト、曞籍、コヌドなどを含む倧量のデヌタで事前孊習されおいたす。さらに、事前孊習された Qwen-7B をベヌスに、アラむメント技術で孊習された倧芏暡モデルベヌスの AI アシスタントである Qwen-7B-Chat をリリヌスしたす。Qwen-7B シリヌズの特城は以䞋の通りです: +このレポでは、それを把握するこずができる -1. **高品質な事前トレヌニングデヌタでトレヌニング**。Qwen-7B は 2.2 兆以䞊のトヌクンを含む倧芏暡で高品質なデヌタセットに察しお事前孊習を行っっおいたす。このデヌタセットには平文ずコヌドが含たれ、䞀般的なドメむンデヌタず専門的なドメむンデヌタを含む幅広いドメむンをカバヌしおいる。 -2. **匷いパフォヌマンス**。自然蚀語理解、数孊、コヌディングなどを評䟡する䞀連のベンチマヌクデヌタセットにおいお、同皋床のモデルサむズのモデルず比范しお、競合他瀟を凌駕しおいたす。 -3. **蚀語サポヌトの向䞊**。Qwen-7B のトヌクナむザは、15 䞇以䞊のトヌクンの語圙をベヌスにしおおり、他のトヌクナむザに比べお効率的です。倚くの蚀語に察応しおおり、ナヌザが特定の蚀語を理解するために Qwen-7B をさらにファむンチュヌニングするのに圹立ちたす。 -4. **8K コンテキスト長をサポヌト**。Qwen-7B ず Qwen-7B-Chat はずもに 8K のコンテキスト長をサポヌトしおおり、長いコンテキストでの入力を可胜にしおいる。 -5. **プラグむンのサポヌト**。Qwen-7B-Chat は、プラグむン関連のアラむメントデヌタでトレヌニングされおいるため、API、モデル、デヌタベヌスなどのツヌルを䜿甚するこずができ、゚ヌゞェントずしおプレむするこずができる。 +* Qwenのクむックスタヌト。 +* 量子化モデルの詳现䜿甚量、メモリ、掚論速床など。比范のために、BF16モデルの統蚈も提䟛したす。 +* フルパラメヌタヌチュヌニング、LoRA、Q-LoRAを含む、埮調敎に関するチュヌトリアル。 +* WebUI、CLIデモなど、デモの構築に関する説明。 +* ツヌル䜿甚、゚ヌゞェント、コヌドむンタプリタの Qwen の詳现。 +* ロングコンテクスト理解評䟡の統蚈 +* ラむセンス契玄 +* ... -以䞋のセクションには、参考になる情報が蚘茉されおいたす。特に、issue を立ち䞊げる前に FAQ セクションをお読みになるこずをお勧めしたす。 +たた、困ったこずがあれば、たずは[FAQ](FAQ.md)を参照しおほしい。ただ悩んでいたすか遠慮なく私たちに問題を送っおくださいより倚くの人が理解できるように、英語で私たちを助けたいなら、遠慮なくプルリク゚ストを送っおください + +私たちずチャットしたいですか私たちのDiscordたたはWeChatグルヌプぞようこそ

## ニュヌスずアップデヌト -* 2023.9.25 ModelScope ず Hugging Face 䞊で **Qwen-14B** ず **Qwen-14B-Chat** をリリヌスしたした。 +* 2023.9.25 🔥 Qwen-14BずQwen-14B-ChatをModelScopeずHugging Faceでリリヌスしたした。同時に、Qwen-7B ず Qwen-7B-Chat も曎新したした。Qwen-7Bオリゞナルず比范しお、Qwen-7Bはより倚くの孊習トヌクンを䜿甚し、2.2Tトヌクンから2.4Tトヌクンに増加し、コンテキスト長は2048から8192に拡匵された。Qwen-7Bの䞭囜語知識ずコヌディング胜力はさらに向䞊しおいたす。最新のコヌドずチェックポむントをお䜿いください * 2023.9.12 Qwen-7Bモデルにおいお、フルパラメヌタヌ・ファむンチュヌニング、LoRA、Q-LoRAを含むファむンチュヌニングをサポヌトしたした。 * 2023.8.21 Qwen-7B-Chat 甹 Int4 量子化モデル **Qwen-7B-Chat-Int4** をリリヌスしたした。たた、ベンチマヌク評䟡においおも倧きな性胜䜎䞋は芋られたせんでした。 * 2023.8.3 ModelScope ず Hugging Face 䞊で **Qwen-7B** ず **Qwen-7B-Chat** をリリヌスしたした。たた、トレヌニングの詳现やモデルの性胜など、モデルの詳现に぀いおは技術メモを提䟛しおいたす。 @@ -43,22 +57,27 @@ Qwen-7B は、アリババクラりドが提唱する倧芏暡蚀語モデルシ ## 性胜 -Qwen-14B は、MMLU、C-Eval、GSM8K、HumanEval、CMMLU など、自然蚀語理解、数孊的問題解決、コヌディングなどに関するモデルの胜力を評䟡する䞀連のベンチマヌクデヌタセットにおいお、同皋床のモデルサむズのベヌスラむンモデルを凌駕しおおり。以䞋の結果をご芧ください。 +Qwen-14BずQwen-7Bこれは、より倚くのトヌクンで孊習され、コンテキストの長さが2048から8192に拡匵された新バヌゞョンは、自然蚀語理解、数孊的問題解決、コヌディングなどに関するモデルの胜力を評䟡する䞀連のベンチマヌクデヌタセット、䟋えばMMLU、C-Eval、GSM8K、MATH、HumanEval、MBPP、BBHなどにおいお、同様のモデルサむズのベヌスラむンモデルを䞊回る。しかし、Qwen-14BでもGPT-4はおろかGPT-3.5にも倧きく遅れをずっおいたす。以䞋の結果をご芧ください。 + +

+ +

+
-| Model | MMLU | C-Eval | GSM8K | MATH | HumanEval | MBPP | BBH | CMMLU | -|:------------------|:--------:|:--------:|:--------:|:--------:|:---------:|:---------:|:--------:|:--------:| -| | 5-shot | 5-shot | 8-shot | 4-shot | 0-shot | 3-shot | 3-shot | 5-shot | -| LLaMA2-7B | 46.8 | 32.5 | 16.7 | 3.3 | 12.8 | 20.8 | 38.2 | 31.8 | -| LLaMA2-13B | 55.0 | 41.4 | 29.6 | 5.0 | 18.9 | 30.3 | 45.6 | 38.4 | -| LLaMA2-34B | 62.6 | - | 42.2 | 6.2 | 22.6 | 33.0 | 44.1 | - | -| ChatGLM2-6B | 47.9 | 51.7 | 32.4 | 6.5 | - | - | 33.7 | - | -| InternLM-7B | 51.0 | 52.8 | 31.2 | 6.3 | 10.4 | 14.0 | 37.0 | 51.8 | -| InternLM-20B | 62.1 | 58.8 | 52.6 | 7.9 | 25.6 | 35.6 | 52.5 | 59.0 | -| Baichuan2-7B | 54.2 | 54.0 | 24.5 | 5.6 | 18.3 | 24.2 | 41.6 | 57.1 | -| Baichuan2-13B | 59.2 | 58.1 | 52.8 | 10.1 | 17.1 | 30.2 | 48.8 | 62.0 | -| **Qwen-7B** | 56.7 | 59.6 | 51.6 | - | 24.4 | 31.2 | 40.6 | 58.8 | -| **Qwen-7B v1.1** | 58.2 | 63.5 | 51.7 | 11.6 | 29.9 | 31.6 | 45.0 | 62.2 | -| **Qwen-14B** | **66.3** | **72.1** | **61.3** | **24.8** | **32.3** | **40.8** | **53.4** | **71.0** | +| Model | MMLU | C-Eval | GSM8K | MATH | HumanEval | MBPP | BBH | CMMLU | +|:-------------------|:--------:|:--------:|:--------:|:--------:|:---------:|:---------:|:--------:|:--------:| +| | 5-shot | 5-shot | 8-shot | 4-shot | 0-shot | 3-shot | 3-shot | 5-shot | +| LLaMA2-7B | 46.8 | 32.5 | 16.7 | 3.3 | 12.8 | 20.8 | 38.2 | 31.8 | +| LLaMA2-13B | 55.0 | 41.4 | 29.6 | 5.0 | 18.9 | 30.3 | 45.6 | 38.4 | +| LLaMA2-34B | 62.6 | - | 42.2 | 6.2 | 22.6 | 33.0 | 44.1 | - | +| ChatGLM2-6B | 47.9 | 51.7 | 32.4 | 6.5 | - | - | 33.7 | - | +| InternLM-7B | 51.0 | 52.8 | 31.2 | 6.3 | 10.4 | 14.0 | 37.0 | 51.8 | +| InternLM-20B | 62.1 | 58.8 | 52.6 | 7.9 | 25.6 | 35.6 | 52.5 | 59.0 | +| Baichuan2-7B | 54.2 | 54.0 | 24.5 | 5.6 | 18.3 | 24.2 | 41.6 | 57.1 | +| Baichuan2-13B | 59.2 | 58.1 | 52.8 | 10.1 | 17.1 | 30.2 | 48.8 | 62.0 | +| Qwen-7B (original) | 56.7 | 59.6 | 51.6 | 10.4 | 24.4 | 31.2 | 40.6 | 58.8 | +| **Qwen-7B** | 58.2 | 63.5 | 51.7 | 11.6 | 29.9 | 31.6 | 45.0 | 62.2 | +| **Qwen-14B** | **66.3** | **72.1** | **61.3** | **24.8** | **32.3** | **40.8** | **53.4** | **71.0** | 比范されたすべおのモデルに぀いお、公匏に報告された結果ず[OpenCompass](https://opencompass.org.cn/leaderboard-llm) の間の最高スコアを報告したす。 @@ -75,7 +94,7 @@ Qwen-14B は、MMLU、C-Eval、GSM8K、HumanEval、CMMLU など、自然蚀語 ## クむックスタヌト -以䞋では、Qwen-7B ず 🀖 ModelScope ず 🀗 Transformers の簡単な䜿甚䟋を瀺したす。 +以䞋では、Qwen-Chat ず 🀖 ModelScope ず 🀗 Transformers の簡単な䜿甚䟋を瀺したす。 コヌドを実行する前に、環境のセットアップず必芁なパッケヌゞのむンストヌルが枈んでいるこずを確認しおください。䞊蚘の芁件を満たしおいるこずを確認しおから、䟝存するラむブラリをむンストヌルしおください。 @@ -97,13 +116,13 @@ cd flash-attention && pip install . #### 🀗 Transformers -Qwen-7B-Chat を掚論に䜿甚するには、以䞋のように数行のコヌドを入力するだけです。**最新のコヌドを䜿甚しおいるこずを確認しおください。** +Qwen-Chat を掚論に䜿甚するには、以䞋のように数行のコヌドを入力するだけです。**最新のコヌドを䜿甚しおいるこずを確認しおください。** ```python from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation import GenerationConfig -# 泚: デフォルトの動䜜では、むンゞェクション攻撃防止機胜がオフになっおいたす。 +# Model names"Qwen/Qwen-7B-Chat"、"Qwen/Qwen-14B-Chat" tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat", trust_remote_code=True) # bf16 を䜿甚 @@ -139,15 +158,16 @@ print(response) # 《奋斗创䞚䞀䞪幎蜻人的成功之路》 ``` -Qwen-7B の孊習枈みベヌスモデルの実行も簡単です。 +Qwen の孊習枈みベヌスモデルの実行も簡単です。

- Qwen-7B の実行 + Qwen の実行 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation import GenerationConfig +# Model names"Qwen/Qwen-7B"、"Qwen/Qwen-14B" tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True) # bf16 を䜿甚 # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B", device_map="auto", trust_remote_code=True, bf16=True).eval() @@ -178,6 +198,7 @@ ModelScope は、MaaSModel-as-a-Service のためのオヌプン゜ヌス from modelscope import AutoModelForCausalLM, AutoTokenizer from modelscope import GenerationConfig +# Model names"Qwen/Qwen-7B-Chat"、"Qwen/Qwen-14B-Chat" tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen-7B-Chat", revision='v1.0.5', trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("qwen/Qwen-7B-Chat", revision='v1.0.5', device_map="auto", trust_remote_code=True, fp16=True).eval() model.generation_config = GenerationConfig.from_pretrained("Qwen/Qwen-7B-Chat", revision='v1.0.5', trust_remote_code=True) # 可指定䞍同的生成长床、top_p等盞关超参 @@ -191,16 +212,11 @@ print(response) ```
-## トヌクナむザヌ - -tiktoken に基づくトヌクナむザヌは、他のトヌクナむザヌ、䟋えばセンテンスピヌストヌクナむザヌずは異なりたす。特にファむンチュヌニングの際には、特殊なトヌクンに泚意を払う必芁がありたす。トヌクナむザに関する詳现な情報や、ファむンチュヌニングにおける䜿甚方法に぀いおは、[ドキュメント](tokenization_note_ja.md)を参照しおください。 -

- ## 量子化 ### 䜿甚方法 -**泚: [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ) に基づく新しい解決策を提䟛し、Qwen-7B-Chat 甚の Int4 量子化モデル[ここをクリック](https://huggingface.co/Qwen/Qwen-7B-Chat-Int4)をリリヌスしたした。このモデルは、埓来の解決策ず比范しお、ほが無損倱のモデル効果を達成し぀぀、メモリコストず掚論速床の䞡方で性胜が向䞊しおいたす。** +**泚: [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ) に基づく新しい解決策を提䟛し、Qwen-Chat 甚の Int4 量子化モデル[ここをクリック](https://huggingface.co/Qwen/Qwen-7B-Chat-Int4)をリリヌスしたした。このモデルは、埓来の解決策ず比范しお、ほが無損倱のモデル効果を達成し぀぀、メモリコストず掚論速床の䞡方で性胜が向䞊しおいたす。** ここでは、量子化されたモデルを掚論に䜿甚する方法を説明する。始める前に、auto-gptqの芁件を満たしおいるこずを確認し䟋torch 2.0以䞊、transformers 4.32.0以䞊など、必芁なパッケヌゞをむンストヌルしおください @@ -225,19 +241,23 @@ response, history = model.chat(tokenizer, "Hi", history=None) ベンチマヌクにおける BF16 モデルず Int4 モデルの性胜に぀いお説明したす。その結果は以䞋に瀺したす -| Quantization | MMLU | CEval (val) | GSM8K | Humaneval | -| ------------- | :--------: | :----------: | :----: | :--------: | -| BF16 | 53.9 | 54.2 | 41.1 | 24.4 | -| Int4 | 52.6 | 52.9 | 38.1 | 23.8 | +| Quantization | MMLU | CEval (val) | GSM8K | Humaneval | +|----------------------|:----:|:-----------:|:-----:|:---------:| +| Qwen-7B-Chat (BF16) | 53.9 | 54.2 | 41.1 | 24.4 | +| Qwen-7B-Chat (Int4) | 52.6 | 52.9 | 38.1 | 23.8 | +| Qwen-14B-Chat (BF16) | 64.6 | 69.8 | 61.0 | 43.9 | +| Qwen-14B-Chat (Int4) | 63.3 | 69.0 | 59.8 | 45.7 | ### 掚論スピヌド BF16 の粟床ず Int4 の量子化レベルの䞋で、それぞれ 2048 個ず 8192 個のトヌクンを生成する平均掚論速床(tokens/s)を枬定したした。 -| Quantization | Speed (2048 tokens) | Speed (8192 tokens) | -| ------------- | :------------------:| :------------------:| -| BF16 | 30.34 | 29.32 | -| Int4 | 43.56 | 33.92 | +| Quantization | Speed (2048 tokens) | Speed (8192 tokens) | +|----------------------|:-------------------:|:-------------------:| +| Qwen-7B-Chat (BF16) | 30.34 | 29.32 | +| Qwen-7B-Chat (Int4) | 43.56 | 33.92 | +| Qwen-14B-Chat (BF16) | 30.70 | 21.73 | +| Qwen-14B-Chat (Int4) | 37.11 | 26.11 | 詳现には、プロファむリングの蚭定は、1 コンテクストトヌクンで 8192 個の新しいトヌクンを生成しおいたす。プロファむリングは、PyTorch 2.0.1 ず CUDA 11.4 を搭茉したシングル A100-SXM4-80G GPU で実行されたした。掚論速床は生成された 8192 個のトヌクンの平均倀ずなりたす。 @@ -245,17 +265,22 @@ BF16 の粟床ず Int4 の量子化レベルの䞋で、それぞれ 2048 個ず たた、BF16たたはInt4の量子化レベルで、それぞれ2048トヌクンをコンテキストずしお゚ンコヌドした堎合および単䞀のトヌクンを生成した堎合ず、8192トヌクンを生成した堎合単䞀のトヌクンをコンテキストずしお生成した堎合のGPUメモリ䜿甚量のピヌク倀をプロファむリングしたした。その結果を以䞋に瀺したす。 -| Quantization Level | Peak Usage for Encoding 2048 Tokens | Peak Usage for Generating 8192 Tokens | -| ------------------ | :---------------------------------: | :-----------------------------------: | -| BF16 | 17.66GB | 22.58GB | -| Int4 | 8.21GB | 13.62GB | +| Quantization | Peak Usage for Encoding 2048 Tokens | Peak Usage for Generating 8192 Tokens | +|----------------------|:-----------------------------------:|:-------------------------------------:| +| Qwen-7B-Chat (BF16) | 17.66GB | 22.58GB | +| Qwen-7B-Chat (Int4) | 8.21GB | 13.62GB | +| Qwen-14B-Chat (BF16) | 30.15GB | 38.94GB | +| Qwen-14B-Chat (Int4) | 13.00GB | 21.79GB | 䞊蚘のスピヌドずメモリヌのプロファむリングは、[このスクリプト](https://qianwen-res.oss-cn-beijing.aliyuncs.com/profile.py)を䜿甚しおいたす。

## ファむンチュヌニング -珟圚、公匏のトレヌニングスクリプト `finetune.py` を提䟛しおいたす。さらに、finetune.pyのシェルスクリプトを提䟛し、finetune.pyを実行するこずで、finetune.pyを起動するこずができる。さらに、安心しおファむンチュヌニングを開始するためのシェルスクリプトも提䟛しおいたす。このスクリプトは、[DeepSpeed](https://github.com/microsoft/DeepSpeed) および [FSDP](https://engineering.fb.com/2021/07/15/open-source/fsdp/) を䜿甚したトレヌニングをサポヌトしたす。匊瀟が提䟛するシェル・スクリプトは DeepSpeed を䜿甚するため、事前に DeepSpeed をむンストヌルするこずをお勧めしたす +珟圚、公匏のトレヌニングスクリプト `finetune.py` を提䟛しおいたす。さらに、finetune.pyのシェルスクリプトを提䟛し、finetune.pyを実行するこずで、finetune.pyを起動するこずができる。さらに、安心しおファむンチュヌニングを開始するためのシェルスクリプトも提䟛しおいたす。このスクリプトは、[DeepSpeed](https://github.com/microsoft/DeepSpeed) および [FSDP](https://engineering.fb.com/2021/07/15/open-source/fsdp/) を䜿甚したトレヌニングをサポヌトしたす。匊瀟が提䟛するシェル・スクリプトは DeepSpeed ず Peft を䜿甚するため、事前に DeepSpeed ず Peft をむンストヌルするこずをお勧めしたす +```bash +pip install -r requirements_finetune.txt +``` 孊習デヌタを準備するには、すべおのサンプルをリストにたずめ、jsonファむルに保存する必芁がありたす。各サンプルはidず䌚話リストで構成される蟞曞です。以䞋は1぀のサンプルを含む単玔なリストの䟋です @@ -696,6 +721,11 @@ ReAct プロンプトの曞き方や䜿い方に぀いおは、[ReAct の䟋](ex +## トヌクナむザヌ + +tiktoken に基づくトヌクナむザヌは、他のトヌクナむザヌ、䟋えばセンテンスピヌストヌクナむザヌずは異なりたす。特にファむンチュヌニングの際には、特殊なトヌクンに泚意を払う必芁がありたす。トヌクナむザに関する詳现な情報や、ファむンチュヌニングにおける䜿甚方法に぀いおは、[ドキュメント](tokenization_note_ja.md)を参照しおください。 +

+ ## 再珟 ベンチマヌクデヌタセットでのモデル性胜の再珟のために、結果を再珟するスクリプトを提䟛しおいたす。詳しくは [eval/EVALUATION.md](eval/EVALUATION.md) を確認しおください。なお、再珟の結果、我々の報告結果ず若干異なる堎合がありたす。 @@ -708,7 +738,7 @@ ReAct プロンプトの曞き方や䜿い方に぀いおは、[ReAct の䟋](ex ## ラむセンス契玄 -Qwen-7B ず Qwen-7B-Chat のコヌドずモデルりェむトは、研究者や開発者が自由に䜿甚するこずができたす。たた、商甚利甚も可胜です。詳しくは [LICENSE](LICENSE) をご芧ください。商甚利甚を垌望される方は、[リク゚ストフォヌム](https://dashscope.console.aliyun.com/openModelApply/qianwen)に必芁事項をご蚘入の䞊、お申し蟌みください。 +Qwen ず Qwen-Chat のコヌドずモデルりェむトは、研究者や開発者が自由に䜿甚するこずができたす。たた、商甚利甚も可胜です。詳しくは [LICENSE](LICENSE) をご芧ください。商甚利甚を垌望される方は、[リク゚ストフォヌム](https://dashscope.console.aliyun.com/openModelApply/qianwen)に必芁事項をご蚘入の䞊、お申し蟌みください。

## お問い合わせ