mlx-community/plamo-2-1b

The Model mlx-community/plamo-2-1b was converted to MLX format from pfnet/plamo-2-1b using mlx-lm version 0.21.5.

Use with mlx

# numba is required for the new PLaMo tokenizer
pip install mlx numba
pip install -U 'git+https://github.com/mitmul/mlx-examples.git@mitmul/fix-plamo2#egg=mlx-lm&subdirectory=llms'
python -m mlx_lm.generate \
--model mlx-community/plamo-2-1b \
--prompt '## 美味しいカレーの作り方:\n' \
--ignore-chat-template \
--max-tokens 1024 \
--extra-eos-token '<|plamo:bos|>' \
--temp 0.7 \
--seed 0 
Fetching 8 files: 100%|█████████████████████████████████████████████████████████████████████| 8/8 [00:00<00:00, 104206.31it/s]
==========
## カレーの作り方
このレシピでは、アジア料理の定番であるカレーを、簡単に美味しく作る方法を説明します。
## 材料
- 玉ねぎ (中サイズ、約2個)
- ニンニク (2-3片)
- ショウガ (2-3片)
- タマネギのみじん切り (約2個、約1カップ)
- 魚の缶詰 (水煮、1缶)
- トマト (中サイズ、1個)
- にんじん (中サイズ、1本)
- ひよこ豆 (中サイズ、1袋)
- ひよこ豆 (中サイズ、1缶)
- ココナッツミルク (1缶、1 1/2カップ、1 1/2カップ)
- 砂糖 (大さじ3、約1/4カップ)
- ターメリックパウダー (小さじ1)
- クミンパウダー (小さじ1)
## 作り方
- 鍋に水(約2カップ)を沸かし、火を止め、ターメリックパウダー小さじ1を加え、かき混ぜます。
- 玉ねぎをみじん切りにし、ニンニクと生姜もみじん切りにします。
- 玉ねぎをフライパンに入れ、中火で炒めます。
- 水煮の缶詰のひよこ豆の中身を潰し、そっと混ぜます。
- その間に、ターメリックパウダー小さじ1を別の鍋で中火で熱し、油を溶かします。
- ターメリックパウダーが溶けて、香りが出るまで加熱します。
- 鍋に野菜を加えた後、中火で10分煮込みます。
- ひよこ豆とココナッツミルクを加え、甘味料を加えます。
- 塩とコショウで調味し、クミンを加え、ターメリックパウダーをひとつまみ加えます。
- 味見をして、必要に応じて調整します。
- ご飯、野菜やカレーを盛り付けて完成です。
## よくある質問
- このレシピではカレーの風味を引き立てるためにどのような調味料を使用しますか?
- カレーはスパイスやハーブを使って作られます。ターメリックパウダー、クミン、シナモン、コリアンダー、ターメリック、ガラムマサラ、パプリカなどがよく使われます。また、にんにくやしょうがも風味をつけるために使われます。
- カレーのスパイスの組み合わせはどんなものが良いですか?
- カレーのスパイスの組み合わせはどんなものが良いかについては、人それぞれの好みや料理のスタイルによって異なります。一般的に、ターメリック、クミン、コリアンダー、カルダモン、カルダモン、ガラムマサラ、シナモン、ブラックペッパー、パプリカ、クローブ、フェヌグリーク、カルダモンパウダー、フェンネル、クローブ、パプリカパウダーなどがよく使われますが、好みに合わせて自由に組み合わせてみてください。
- このカレーのレシピで他に何を使っていますか?
- このカレーのレシピで他に何を使っているかについては、レシピによって異なる場合があります。主な材料として玉ねぎ、にんにく、生姜、ひよこ豆、トマトなどが挙げられます。また、スパイスも重要で、ターメリック、クミン、シナモン、ガラムマサラ、パプリカなどが使われます。使用するスパイスによって風味や辛さが変わりますし、好みの味に調整することもできます。
- このカレーの味はどのようにして決めましたか?
- このカレーの味はどのようにして決めましたか?については具体的な記述がないため、一般的な答えとしては、レシピによって風味や辛さ、スパイスの配合などが異なるため、自分の好みや料理のスタイルに合わせて自由に調整することが大切です。
==========
Prompt: 8 tokens, 30.925 tokens-per-sec
Generation: 658 tokens, 53.590 tokens-per-sec
Peak memory: 5.368 GB

You can also write your code to use this model like this:

from mlx_lm import load, generate

model, tokenizer = load("mlx-community/plamo-2-1b")

prompt = "美味しいカレーの作り方のレシピを紹介します。"

response = generate(model, tokenizer, prompt=prompt, verbose=True)
Downloads last month
305
Safetensors
Model size
1.29B params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The HF Inference API does not support model that require custom code execution.

Model tree for mlx-community/plamo-2-1b

Base model

pfnet/plamo-2-1b
Finetuned
(2)
this model