feat update readme
Browse files
README.md
CHANGED
@@ -128,7 +128,7 @@ print(result)
|
|
128 |
|
129 |
|
130 |
|
131 |
-
Example resume for
|
132 |
|
133 |
```python
|
134 |
from transformers import T5ForConditionalGeneration, T5Tokenizer
|
@@ -137,10 +137,10 @@ model_name = 'utrobinmv/t5_summary_en_ru_zh_base_2048'
|
|
137 |
model = T5ForConditionalGeneration.from_pretrained(model_name)
|
138 |
tokenizer = T5Tokenizer.from_pretrained(model_name)
|
139 |
|
140 |
-
text = """
|
141 |
|
142 |
# text summary generate
|
143 |
-
prefix = 'summary: '
|
144 |
src_text = prefix + text
|
145 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
146 |
|
@@ -148,10 +148,10 @@ generated_tokens = model.generate(**input_ids)
|
|
148 |
|
149 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
150 |
print(result)
|
151 |
-
|
152 |
|
153 |
# text brief summary generate
|
154 |
-
prefix = 'summary brief: '
|
155 |
src_text = prefix + text
|
156 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
157 |
|
@@ -159,10 +159,10 @@ generated_tokens = model.generate(**input_ids)
|
|
159 |
|
160 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
161 |
print(result)
|
162 |
-
|
163 |
|
164 |
# text big summary generate
|
165 |
-
prefix = 'summary big: '
|
166 |
src_text = prefix + text
|
167 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
168 |
|
@@ -170,12 +170,12 @@ generated_tokens = model.generate(**input_ids)
|
|
170 |
|
171 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
172 |
print(result)
|
173 |
-
|
174 |
```
|
175 |
|
176 |
|
177 |
|
178 |
-
and Example resume for
|
179 |
|
180 |
```python
|
181 |
from transformers import T5ForConditionalGeneration, T5Tokenizer
|
@@ -184,10 +184,10 @@ model_name = 'utrobinmv/t5_summary_en_ru_zh_base_2048'
|
|
184 |
model = T5ForConditionalGeneration.from_pretrained(model_name)
|
185 |
tokenizer = T5Tokenizer.from_pretrained(model_name)
|
186 |
|
187 |
-
text = """
|
188 |
|
189 |
# text summary generate
|
190 |
-
prefix = 'summary
|
191 |
src_text = prefix + text
|
192 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
193 |
|
@@ -195,10 +195,10 @@ generated_tokens = model.generate(**input_ids)
|
|
195 |
|
196 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
197 |
print(result)
|
198 |
-
|
199 |
|
200 |
# text brief summary generate
|
201 |
-
prefix = 'summary brief
|
202 |
src_text = prefix + text
|
203 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
204 |
|
@@ -206,10 +206,10 @@ generated_tokens = model.generate(**input_ids)
|
|
206 |
|
207 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
208 |
print(result)
|
209 |
-
|
210 |
|
211 |
# text big summary generate
|
212 |
-
prefix = 'summary big
|
213 |
src_text = prefix + text
|
214 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
215 |
|
@@ -217,11 +217,13 @@ generated_tokens = model.generate(**input_ids)
|
|
217 |
|
218 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
219 |
print(result)
|
220 |
-
|
221 |
```
|
222 |
|
223 |
|
224 |
|
|
|
|
|
225 |
##
|
226 |
|
227 |
|
|
|
128 |
|
129 |
|
130 |
|
131 |
+
Example resume for Chinese text on English language:
|
132 |
|
133 |
```python
|
134 |
from transformers import T5ForConditionalGeneration, T5Tokenizer
|
|
|
137 |
model = T5ForConditionalGeneration.from_pretrained(model_name)
|
138 |
tokenizer = T5Tokenizer.from_pretrained(model_name)
|
139 |
|
140 |
+
text = """在北京冬奥会自由式滑雪女子坡面障碍技巧决赛中,中国选手谷爱凌夺得银牌。祝贺谷爱凌!今天上午,自由式滑雪女子坡面障碍技巧决赛举行。决赛分三轮进行,取选手最佳成绩排名决出奖牌。第一跳,中国选手谷爱凌获得69.90分。在12位选手中排名第三。完成动作后,谷爱凌又扮了个鬼脸,甚是可爱。第二轮中,谷爱凌在道具区第三个障碍处失误,落地时摔倒。获得16.98分。网友:摔倒了也没关系,继续加油!在第二跳失误摔倒的情况下,谷爱凌顶住压力,第三跳稳稳发挥,流畅落地!获得86.23分!此轮比赛,共12位选手参赛,谷爱凌第10位出场。网友:看比赛时我比谷爱凌紧张,加油!"""
|
141 |
|
142 |
# text summary generate
|
143 |
+
prefix = 'summary to en: '
|
144 |
src_text = prefix + text
|
145 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
146 |
|
|
|
148 |
|
149 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
150 |
print(result)
|
151 |
+
#In Beijing Winter Olympics Games, Chinese contestant Grulove凌 won the silver card. Celebrate.
|
152 |
|
153 |
# text brief summary generate
|
154 |
+
prefix = 'summary brief to en: '
|
155 |
src_text = prefix + text
|
156 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
157 |
|
|
|
159 |
|
160 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
161 |
print(result)
|
162 |
+
#In Beijing Winter Olympics Games, Chinese contestant Gruelean won the silver card.
|
163 |
|
164 |
# text big summary generate
|
165 |
+
prefix = 'summary big to en: '
|
166 |
src_text = prefix + text
|
167 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
168 |
|
|
|
170 |
|
171 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
172 |
print(result)
|
173 |
+
#In Beijing's Winter Olympics Games, the 12-year-old has won the silver card in a free-skating lady hillwalking contest. The first jump, Chinese contestant, 69.90.
|
174 |
```
|
175 |
|
176 |
|
177 |
|
178 |
+
and Example resume for Russian:
|
179 |
|
180 |
```python
|
181 |
from transformers import T5ForConditionalGeneration, T5Tokenizer
|
|
|
184 |
model = T5ForConditionalGeneration.from_pretrained(model_name)
|
185 |
tokenizer = T5Tokenizer.from_pretrained(model_name)
|
186 |
|
187 |
+
text = """Высота башни составляет 324 метра (1063 фута), примерно такая же высота, как у 81-этажного здания, и самое высокое сооружение в Париже. Его основание квадратно, размером 125 метров (410 футов) с любой стороны. Во время строительства Эйфелева башня превзошла монумент Вашингтона, став самым высоким искусственным сооружением в мире, и этот титул она удерживала в течение 41 года до завершения строительство здания Крайслер в Нью-Йорке в 1930 году. Это первое сооружение которое достигло высоты 300 метров. Из-за добавления вещательной антенны на вершине башни в 1957 году она сейчас выше здания Крайслер на 5,2 метра (17 футов). За исключением передатчиков, Эйфелева башня является второй самой высокой отдельно стоящей структурой во Франции после виадука Мийо."""
|
188 |
|
189 |
# text summary generate
|
190 |
+
prefix = 'summary: '
|
191 |
src_text = prefix + text
|
192 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
193 |
|
|
|
195 |
|
196 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
197 |
print(result)
|
198 |
+
#Французская Эйфелева башня, ставшая самой высокой в мире, достигла высоты 300 метров (1063 фута).
|
199 |
|
200 |
# text brief summary generate
|
201 |
+
prefix = 'summary brief: '
|
202 |
src_text = prefix + text
|
203 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
204 |
|
|
|
206 |
|
207 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
208 |
print(result)
|
209 |
+
#Французская Эйфелева башня стала самой высокой в мире.
|
210 |
|
211 |
# text big summary generate
|
212 |
+
prefix = 'summary big: '
|
213 |
src_text = prefix + text
|
214 |
input_ids = tokenizer(src_text, return_tensors="pt")
|
215 |
|
|
|
217 |
|
218 |
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
219 |
print(result)
|
220 |
+
#Французская Эйфелева башня, построенная в 1957 году, достигла высоты 300 метров (1063 фута) с любой стороны. Это самый высокий сооружения в мире после виадука Мийо.
|
221 |
```
|
222 |
|
223 |
|
224 |
|
225 |
+
|
226 |
+
|
227 |
##
|
228 |
|
229 |
|