MiniCPM
介绍 Introduction
与
Llama
的关系 The Relationship betweenLlama
MiniCPM
与Llama
均使用了仅解码器架构。代码实现上,MiniCPM
基于Llama
实现,增加了放缩机制。MiniCPM
uses Decoder-only Structure as well asLlama
. The implementation ofMiniCPM
is based onLlama
code, with scaling mechenism added.
软件依赖 Dependency
transformers >= 4.36.0
accelerate
使用 Usage
我们推荐使用AutoModelForCausalLM
与AutoTokenizer
载入MiniCPM
,并使用torch.bfloat16
作为计算精度。我们推荐在GPU上进行推理。
We recommend using AutoModelForCausalLM
and AutoTokenizer
to load MiniCPM
, and use torch.bfloat16
as the calculation precision. GPU reference is recommended.
以下是一个使用MiniCPM
生成的例子。
An example is provided below for using MiniCPM
to generate tokens.
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
path = '/data/miniCPM_opensource/miniCPM-bf16' # TODO
tokenizer = AutoTokenizer.from_pretrained(path)
model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.bfloat16, device_map='auto', trust_remote_code=True)
dialog = [{'role': 'user', 'content': '请问中国哪几个城市最适合旅游?'}]
input = tokenizer.apply_chat_template(dialog, tokenize=False, add_generation_prompt=False)
enc = tokenizer(input, return_tensors='pt').to('cuda')
output = model.generate(**enc, max_length=1024)
print(tokenizer.decode(output[0]))
期望的输出 Expected Output:
<s> <用户>请问中国哪几个城市最适合旅游?<AI> 中国是一个拥有丰富旅游资源的国家,有很多城市都适合旅游。以下是一些建议:
1. 北京:作为中国的首都,北京拥有许多著名的景点,如故宫、天安门广场、颐和园、长城等。此外,北京还有许多美食和购物场所。
2. 上海:上海是中国最大的城市之一,拥有许多著名的景点,如外滩、东方明珠、豫园、上海迪士尼乐园等。此外,上海还有许多美食和购物场所。
3. 西安:西安是中国历史悠久的古都,拥有许多著名的景点,如兵马俑、大雁塔、华清池等。此外,西安还有许多美食和购物场所。
4. 成都:成都是中国西南地区的中心城市,拥有许多著名的景点,如大熊猫繁育研究基地、武侯祠、锦里古街等。此外,成都还有许多美食和购物场所。
5. 杭州:杭州是中国东南地区的中心城市,拥有许多著名的景点,如西湖、灵隐寺、千岛湖等。此外,杭州还有许多美食和购物场所。
6. 广州:广州是中国南方地区的中心城市,拥有许多著名的景点,如白云山、珠江夜游、陈家祠等。此外,广州还有许多美食和购物场所。
7. 厦门:厦门是中国东南沿海的城市,拥有许多著名的景点,如鼓浪屿、南普陀寺、厦门大学等。此外,厦门还有许多美食和购物场所。
8. 昆明:昆明是中国西南地区的中心城市,拥有许多著名的景点,如石林、滇池、翠湖等。此外,昆明还有许多美食和购物场所。
9. 桂林:桂林是中国南方地区的中心城市,拥有许多著名的景点,如漓江、阳朔、象山等。此外,桂林还有许多美食和购物场所。
10. 西藏:西藏是中国西南地区的中心城市,拥有许多著名的景点,如布达拉宫、大昭寺、纳木错等。此外,西藏还有许多美食和购物场所。
以上是一些建议,当然还有很多其他城市也适合旅游。在选择旅游目的地时,可以根据自己的兴趣和喜好来决定。</s>