Update README.md
Browse files
README.md
CHANGED
@@ -55,6 +55,29 @@ tokenizer = AutoTokenizer.from_pretrained(base_model, max_sequence_length=3072,
|
|
55 |
model_base = AutoModelForCausalLM.from_pretrained(base_model, quantization_config=quantization_config, device_map="auto", torch_dtype=torch.float16, use_flash_attention_2=False)
|
56 |
model = PeftModel.from_pretrained(model_base, "NLPForUA/gemma-2-it-zno-al", quantization_config=quantization_config, device_map="auto", torch_dtype=torch.float16, use_flash_attention_2=False)
|
57 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
58 |
print(tokenizer.decode(
|
59 |
model.generate(
|
60 |
input_ids=inputs,
|
@@ -68,6 +91,12 @@ print(tokenizer.decode(
|
|
68 |
)[0]))
|
69 |
```
|
70 |
|
|
|
|
|
|
|
|
|
|
|
|
|
71 |
|
72 |
## Model Details
|
73 |
|
|
|
55 |
model_base = AutoModelForCausalLM.from_pretrained(base_model, quantization_config=quantization_config, device_map="auto", torch_dtype=torch.float16, use_flash_attention_2=False)
|
56 |
model = PeftModel.from_pretrained(model_base, "NLPForUA/gemma-2-it-zno-al", quantization_config=quantization_config, device_map="auto", torch_dtype=torch.float16, use_flash_attention_2=False)
|
57 |
|
58 |
+
input_text = """
|
59 |
+
Дайте відповідь на завдання, починаючи з ключового слова "Відповідь:" та використовуючи лише наведені нижче варіанти. У якості відповіді наведіть лише літеру, що відповідає правильному варіанту. Якщо правильних відповідей декілька, то перерахуйте їх через ";".
|
60 |
+
|
61 |
+
Завдання: Обчисліть площу бічної поверхні правильної трикутної піраміди, сторона основи якої дорівнює 8 см, а апофема на 2 см більша за сторону основи піраміди.
|
62 |
+
|
63 |
+
Варіанти відповіді:
|
64 |
+
А - 72 см^2
|
65 |
+
Б - 384 см^2
|
66 |
+
В - 192 см^2
|
67 |
+
Г - 120 см^2
|
68 |
+
Д - 240 см^2
|
69 |
+
"""
|
70 |
+
|
71 |
+
messages = [{"role": "user", "content": input_text}]
|
72 |
+
|
73 |
+
inputs = tokenizer.apply_chat_template(
|
74 |
+
messages,
|
75 |
+
tokenize=True,
|
76 |
+
add_generation_prompt=True,
|
77 |
+
return_tensors="pt",
|
78 |
+
add_special_tokens=False,
|
79 |
+
).to("cuda")
|
80 |
+
|
81 |
print(tokenizer.decode(
|
82 |
model.generate(
|
83 |
input_ids=inputs,
|
|
|
91 |
)[0]))
|
92 |
```
|
93 |
|
94 |
+
Output:
|
95 |
+
```
|
96 |
+
<start_of_turn>model
|
97 |
+
Відповідь: В<end_of_turn>
|
98 |
+
```
|
99 |
+
|
100 |
|
101 |
## Model Details
|
102 |
|