|
|
|
@ -9,7 +9,7 @@
|
|
|
|
|
<br>
|
|
|
|
|
|
|
|
|
|
<p align="center">
|
|
|
|
|
🤗 <a href="https://huggingface.co/Qwen">Hugging Face</a>   |   🤖 <a href="https://modelscope.cn/models/qwen">魔搭社区<a>   |    📑 <a href="QWEN_TECHNICAL_REPORT.pdf">论文</a>    |   🖥️ <a href="https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary">Demo</a>
|
|
|
|
|
🤗 <a href="https://huggingface.co/Qwen">Hugging Face</a>   |   🤖 <a href="https://modelscope.cn/models/qwen">魔搭社区<a>   |    📑 <a href="https://qianwen-res.oss-cn-beijing.aliyuncs.com/QWEN_TECHNICAL_REPORT.pdf">论文</a>    |   🖥️ <a href="https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary">Demo</a>
|
|
|
|
|
<br>
|
|
|
|
|
<a href="assets/wechat.png">微信</a>   |    钉钉    |   <a href="https://discord.gg/z3GAxXZ9Ce">Discord</a>  
|
|
|
|
|
</p>
|
|
|
|
@ -42,7 +42,7 @@
|
|
|
|
|
|
|
|
|
|
## 新闻
|
|
|
|
|
|
|
|
|
|
* 2023年9月25日 在魔搭社区(ModelScope)和Hugging Face同步推出Qwen-14B和Qwen-14B-Chat模型。
|
|
|
|
|
* 2023年9月25日 在魔搭社区(ModelScope)和Hugging Face同步推出Qwen-14B和Qwen-14B-Chat模型。同时,我们也更新了Qwen-7B和Qwen-7B-Chat,与旧版相比,新版Qwen-7B使用了更多的训练token,从2.2T token增加到2.4T token,而上下文长度从2048扩展到8192。Qwen-7B的中文知识和编码能力得到了进一步的提高。**请确保您使用的是最新的代码和模型权重!**
|
|
|
|
|
* 2023年9月12日 支持Qwen-7B和Qwen-7B-Chat的微调,其中包括全参数微调、LoRA以及Q-LoRA。
|
|
|
|
|
* 2023年8月21日 发布Qwen-7B-Chat的Int4量化模型,Qwen-7B-Chat-Int4。该模型显存占用低,推理速度相比半精度模型显著提升,在基准评测上效果损失较小。
|
|
|
|
|
* 2023年8月3日 在魔搭社区(ModelScope)和Hugging Face同步推出Qwen-7B和Qwen-7B-Chat模型。同时,我们发布了技术备忘录,介绍了相关的训练细节和模型表现。
|
|
|
|
|