Update README_JA.md

main
Yang An 1 year ago committed by GitHub
parent ab67ac050e
commit 74541672bd
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

@ -176,28 +176,19 @@ print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
ModelScope は、MaaSModel-as-a-Service のためのオープンソースプラットフォームであり、AI 開発者に柔軟で費用対効果の高いモデルサービスを提供します。同様に、以下のように ModelScope でモデルを実行することができます: ModelScope は、MaaSModel-as-a-Service のためのオープンソースプラットフォームであり、AI 開発者に柔軟で費用対効果の高いモデルサービスを提供します。同様に、以下のように ModelScope でモデルを実行することができます:
```python ```python
import os from modelscope import AutoModelForCausalLM, AutoTokenizer
from modelscope.pipelines import pipeline from modelscope import GenerationConfig
from modelscope.utils.constant import Tasks
from modelscope import snapshot_download tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen-7B-Chat", revision='v1.0.5', trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("qwen/Qwen-7B-Chat", revision='v1.0.5', device_map="auto", trust_remote_code=True, fp16=True).eval()
model_id = 'QWen/qwen-7b-chat' model.generation_config = GenerationConfig.from_pretrained("Qwen/Qwen-7B-Chat", revision='v1.0.5', trust_remote_code=True) # 可指定不同的生成长度、top_p等相关超参
revision = 'v1.0.0'
response, history = model.chat(tokenizer, "你好", history=None)
model_dir = snapshot_download(model_id, revision) print(response)
response, history = model.chat(tokenizer, "浙江的省会在哪里?", history=history)
pipe = pipeline( print(response)
task=Tasks.chat, model=model_dir, device_map='auto') response, history = model.chat(tokenizer, "它有什么好玩的景点", history=history)
history = None print(response)
text = '浙江省の省都はどこですか?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
text = '何がそんなに面白いのか?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
``` ```
<br> <br>

Loading…
Cancel
Save