Update README.md
Browse files
README.md
CHANGED
@@ -37,11 +37,11 @@ language:
|
|
37 |
>>> model = T5ForConditionalGeneration.from_pretrained("te-sla/pilot5")
|
38 |
>>> tokenizer = T5TokenizerFast.from_pretrained("te-sla/pilot5")
|
39 |
>>> text = "ova sekcija sadrži ideje za prioritetne pravce/teme razvoja jezičkih tehnologija (NLP) za srpski jezik. Alternativni pravci razvoja su ukratko pobrojani u odeljku H2."
|
40 |
-
>>> input =
|
41 |
|
42 |
>>> with torch.no_grad():
|
43 |
-
>>> output = model.generate(input_ids=input["input_ids"], attention_mask=input["attention_mask"], do_sample=False)
|
44 |
-
>>> decoded_output =
|
45 |
>>> print(decoded_output)
|
46 |
```
|
47 |
|
|
|
37 |
>>> model = T5ForConditionalGeneration.from_pretrained("te-sla/pilot5")
|
38 |
>>> tokenizer = T5TokenizerFast.from_pretrained("te-sla/pilot5")
|
39 |
>>> text = "ova sekcija sadrži ideje za prioritetne pravce/teme razvoja jezičkih tehnologija (NLP) za srpski jezik. Alternativni pravci razvoja su ukratko pobrojani u odeljku H2."
|
40 |
+
>>> input = tokenizer(text, return_tensors="pt")
|
41 |
|
42 |
>>> with torch.no_grad():
|
43 |
+
>>> output = model.generate(input_ids=input["input_ids"], attention_mask=input["attention_mask"], do_sample=False, max_length=512)
|
44 |
+
>>> decoded_output = tokenizer.decode(output[0], skip_special_tokens=True)
|
45 |
>>> print(decoded_output)
|
46 |
```
|
47 |
|