apepkuss79 commited on
Commit
adf63e1
·
verified ·
1 Parent(s): 0688ddf

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -40,7 +40,7 @@ pipeline_tag: text-generation
40
  {model_message}<end_of_turn>model
41
  ```
42
 
43
- - Context size: `128000`
44
 
45
  - Run as LlamaEdge service
46
 
@@ -48,7 +48,7 @@ pipeline_tag: text-generation
48
  wasmedge --dir .:. --nn-preload default:GGML:AUTO:gemma-3-1b-it-Q5_K_M.gguf \
49
  llama-api-server.wasm \
50
  --prompt-template gemma-3 \
51
- --ctx-size 128000 \
52
  --model-name gemma-3-1b
53
  ```
54
 
@@ -59,7 +59,7 @@ pipeline_tag: text-generation
59
  --nn-preload default:GGML:AUTO:gemma-3-1b-it-Q5_K_M.gguf \
60
  llama-chat.wasm \
61
  --prompt-template gemma-3 \
62
- --ctx-size 128000
63
  ```
64
 
65
  ## Quantized GGUF Models
 
40
  {model_message}<end_of_turn>model
41
  ```
42
 
43
+ - Context size: `32000`
44
 
45
  - Run as LlamaEdge service
46
 
 
48
  wasmedge --dir .:. --nn-preload default:GGML:AUTO:gemma-3-1b-it-Q5_K_M.gguf \
49
  llama-api-server.wasm \
50
  --prompt-template gemma-3 \
51
+ --ctx-size 32000 \
52
  --model-name gemma-3-1b
53
  ```
54
 
 
59
  --nn-preload default:GGML:AUTO:gemma-3-1b-it-Q5_K_M.gguf \
60
  llama-chat.wasm \
61
  --prompt-template gemma-3 \
62
+ --ctx-size 32000
63
  ```
64
 
65
  ## Quantized GGUF Models