rasyosef commited on
Commit
c1fdd7a
·
verified ·
1 Parent(s): c0c6cb0

Add new SparseEncoder model

Browse files
1_SpladePooling/config.json ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ {
2
+ "pooling_strategy": "max",
3
+ "activation_function": "relu",
4
+ "word_embedding_dimension": 32000
5
+ }
README.md ADDED
@@ -0,0 +1,530 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - am
4
+ license: mit
5
+ tags:
6
+ - sentence-transformers
7
+ - sparse-encoder
8
+ - sparse
9
+ - splade
10
+ - generated_from_trainer
11
+ - dataset_size:245876
12
+ - loss:SpladeLoss
13
+ - loss:SparseMultipleNegativesRankingLoss
14
+ - loss:FlopsLoss
15
+ base_model: rasyosef/roberta-medium-amharic
16
+ widget:
17
+ - text: የኢንዱስትሪ ፓርኮች ፈተና እና ተስፋ
18
+ - text: "ከሳምንት በፊት በመፈንቅለ መንግሥት ሥልጣናቸውን አጥተዋል፡፡ አሁን በቁም እስር ላይ ናቸው፡፡\n\nከስማቸው አወዛጋቢነት\
19
+ \ እስከ አገሪቱ ትክክለኛ የስም አጠራር ድረስ የቀድሞዋ በርማ የአሁኗ ሚየንማር፣ የቀድሞዋ የሰብአዊ መብት እመቤት፣ የአሁኗ\
20
+ \ እስረኛ የሰሞኑ የሚዲያ ዐቢይ ጉዳይ ሆነዋል፡፡ \n\nበእርግጥ የሴትዮዋ ‹ሌጋሲ› በትክክል ምንድነው? በሚለው ጉዳይ ሚዲያዎችና\
21
+ \ ተቋማት ተስማምተው አያውቁም፡፡\n\nለመሆኑ ኦን ሳን ሱ ቺ ማን ናቸው? \n\nአን ሳን ሱ ቺ አባታቸው የበርማ የነጻነት\
22
+ \ አባት የሚባሉት የጄኔራል ኦን ሳን ሴት ልጅ ናቸው፡፡\n\nታላቋ ብሪታኒያ በርማን (በአዲሱ ስሟ ሚየንማር) ለአንድ ክፍለ\
23
+ \ ዘመን ያህል ጊዜ በቅኝ ገዝታታለች፡፡ \n\nጄኔራል ኦን ሰን ለበርማ ነጻነት ተዋድቀዋል፡፡ የተገደሉትም በ1947 በተቀናቃኞቻቸው\
24
+ \ ነበር፡፡ ያን ጊዜ ሳን ሱ ቺ ገና 2 ዓመቷ ነበር፡፡ አን ሳን ሱ ቺ በሰኔ 19፣ 1945 ነበር የተወለዱት፡፡\n\nኦን\
25
+ \ ሳን ሱ ቺ በ1960ዎቹ መጀመርያ ከእናታቸው ዳው ኪን ኬዪ ጋር ወደ ሕንድ ሄዱ፡፡ እናታቸው በደልሂ የበርማ አምባሳደር ተደርገው\
26
+ \ በመሾማቸው ነበር ወደዚያ ያቀኑት፡፡\n\nሕንድ አራት ዓመት ከኖሩ በኋላ ወደ ታላቋ ብሪታኒያ በማቅናት በሥመጥሩ ኦክስፎርድ\
27
+ \ ዩኒቨርስቲ ፍልስፍናን፣ ፖለቲካንና ምጣኔ ሀብትን አጥንተዋል፡፡ \n\nአን ሳን ሱ ቺ በኦክስፎርድ ዩኒቨርስቲ ሳሉ የወደፊት\
28
+ \ ባለቤታቸው ጋር ተገናኙ፡፡ እንግሊዛዊው ባለቤታቸው ማይክል አሪስ የታሪክ ተመራማሪ ፕሮፌሰር ነበሩ፡፡ አሁን በሕይወት የሉም፡፡\n\
29
+ \nኦን ሳን ሱ ቺ ከትምህርት በኋላ በቡታን እና በጃፓን በተለያዩ ሥራዎች ላይ ተሳትፈዋል፡፡ ከዚያ በኋላ ወደ ታላቋ ብሪታኒያ\
30
+ \ በመሄድ ጎጆ መሥርተው አሌክሳንደርና ኪም የሚባሉ ልጆችን አፍርተዋል፡፡ \n\nበ1988 ከታላቋ ብሪታኒያ ወደ ሚየንማር ዋና\
31
+ \ ከተማ ያንጎን ሲመለሱ በጠና ታመው የነበሩትን እናታቸውን ለማስታመም ነበር፡፡\n\nየአጋጣሚ ነገር ሆኖ በበዚያ ወቅት በሚየንማር\
32
+ \ በርካታ የዲሞክራሲ ጥያቄዎችን ያነሱ ወጣቶች አደባባይ ወጥተው ተቃውሞ ያስነሱበት ጊዜ ነበር፡፡ \n\nተቃዋሚዎቹ ወጣቶች\
33
+ \ ብቻ ሳይሆኑ የቡድሀ መነኮሳት፣ የቢሮ ሰራተኞችና ተማሪዎችም ይገኙበት ነበር፡፡\n\nይህን ተቃውሞ ተከትሎ አን ሳን ሱ ቺ\
34
+ \ ጠቅልለው በሚየንማር መኖር ጀመሩ፡፡\n\nአን ሳን ሱቺ ከቀድሞ ባለቤታቸው ጋር በለንደን\n\nከ2 ዓመት በኋላ በ1990\
35
+ \ አዲስ በተመሠረተው የናሽናል ሊግ ፓርቲ ውስጥ ገብተው ተቃውሞ ውስጥ በቀጥታ መሳተፍ ጀመሩ፡፡ በአካባቢ ምርጫ ተወዳድረውም\
36
+ \ አሸነፉ፡፡\n\nበከፍተኛ ድምጽ የኦን ሳን ሱ ቺ በምርጫ ማሸነፍ ያስቆጣው ወታደራዊው መንግሥት ሴትዮዋን ለሚቀጥሉት 20\
37
+ \ ዓመታት በቁም እስር አስቀመጣቸው፡፡\n\nበ1991 ኦን ሳን ሱ ቺ በቁም እስር ላይ ሳሉ የኖቤል ሽልማትን አሸነፉ፡፡ ይህም\
38
+ \ ወታደራዊውን መንግሥት በይበልጥ አስቆጣ፡፡\n\nበ2010 ኦን ሳን ሱ ቺ ከቁም እስር ነጻ ተባሉ፡፡\n\nበ2012 አን ሳን\
39
+ \ ሱ ቺና ፓርቲያቸው በአካባቢ ምርጫ እንዲሳተፉ ወታደራዊው መንግሥት ፈቀደ፡፡\n\nበ2015 የብሔራዊ ሊግ ለዲሞክራሲ (NLD)\
40
+ \ ፓርቲያቸው ለመጀመርያ ጊዜ በተደረገ ከፍተኛ ፉክክር በታየበት ምርጫ አሸነፈ፡፡ \n\nአን ሳን ሱ ቺ በሚየንማር የሮሒንጋ\
41
+ \ ሙስሊሞች ላይ ወታደሩ ያደረሰውን ግፍና ጭፍጨፋ ለማውገዝ አለመፍ���ዳቸው በዓለም አቀፍ የሰብአዊ መብት ተሟጋቾች ዘንድ ቁጣን\
42
+ \ ቀሰቀሰ፡፡ በመቶ ሺ የሚቆጠሩ የሮሒንጋ ሙስሊሞች ከሚየንማር ሞትን ሽሽት ወደ ባንግላዴሽ ተሰደዋል፡፡\n\nበዓለም አቀፉ\
43
+ \ ማኅበረሰብ ዘንድ ክብራቸው ዝቅ ይበል እንጂ አን ሳን ሱ ቺ በአገራቸው ቡድሀዎች ዘንድ እጅግ ተወዳጅ ናቸው፡፡\n\nአን\
44
+ \ ሳን ሱ ቺ በ2015 የተደረገውን ምርጫ አሸንፈው መንግሥት ቢመሠርቱም የአገሪቱ ፕሬዝዳንት መሆን... "
45
+ - text: አዲስ አበባ ፣ ነሃሴ 23 ፣ 2012 (ኤፍ ቢ ሲ) ኢትዮጵያ፣ ሱዳን እና ግብጽ በታላቁ የህዳሴ ግድብ አሞላል እና ውሃ
46
+ አለቃቀቅ ደንብ ላይ የሚያደርጉት የሶስትዮሽ ስብሰባ መስከረም ወር ላይ እንደሚቀጥል የውሃ መስኖና ኢነርጅ ሚኒስቴር አስታወቀ፡፡ሚኒስቴሩ
47
+ የሶስቱ ሃገራት የውሃ ጉዳይ ሚኒስትሮች በትናንትናው እለት ስብሰባ ማካሄዳቸውን አስታውቋል፡፡በስብሰባው ላይ የሂደቱ ታዛቢ የሆኑት
48
+ የደቡብ አፍሪካ፣ የአውሮፓ ህብረት እና የአሜሪካ ተወካዮች እንዲሁም ከአፍሪካ ህብረት የተወከሉ ባለሙያዎች መሳተፋቸውንም ገልጿል፡፡በወቅቱም
49
+ ላላፈው አንድ ሳምንት በሃገራቱ ባለሙያዎች በታላቁ የህዳሴ ግድብ አሞላልና የውሃ አለቃቀቅ ደንብ ላይ ሲከናወን የነበረው የባለሙያዎች
50
+ ድርድር ሪፖርት መቅረቡንም ጠቅሷል፡፡በቀጣይ የሚኖረውን ሂደት በሚመለከትም ሃገራቱ የድርድሩን ሂደት የሚገልጽ ደብዳቤ ለደቡብ
51
+ አፈሪካዋ ዓለም አቀፍ ግንኙነት እና ትብብር ሚኒስትር እና የአፍሪካ ህብረት አስፈጻሚ ምክር ቤት የወቅቱ ሊቀ መንበር ዶክተር
52
+ ናዴሊ ፓንዶል ለመላክ መስማማታቸውንም ነው የገለጸው፡፡በዚህም ሱዳን የምትሰጠው ማረጋገጫ እንደሚጠበቅ የገለጸው ሚኒስቴሩ የሶስትዮሽ
53
+ ስብሰባው መስከረም 4 ቀን 2013 ዓ.ም እንደሚቀጥል አስታውቋል፡፡
54
+ - text: በፕሪሚየር ሊጉ ኢትዮጵያ ቡና እና ወልቂጤ ከተማ አቻ ተለያዩ  
55
+ - text: ፕሪሚየር ሊግ ፡ ሲዳማ ከሜዳው ውጪ ጣፋጭ ድል ሲያስመዘግብ አርባምንጭ ከ ዳሽን ቢራ አቻ ተለያይተዋል
56
+ pipeline_tag: feature-extraction
57
+ library_name: sentence-transformers
58
+ metrics:
59
+ - dot_accuracy@1
60
+ - dot_accuracy@3
61
+ - dot_accuracy@5
62
+ - dot_accuracy@10
63
+ - dot_precision@1
64
+ - dot_precision@3
65
+ - dot_precision@5
66
+ - dot_precision@10
67
+ - dot_recall@1
68
+ - dot_recall@3
69
+ - dot_recall@5
70
+ - dot_recall@10
71
+ - dot_ndcg@10
72
+ - dot_mrr@10
73
+ - dot_map@100
74
+ - query_active_dims
75
+ - query_sparsity_ratio
76
+ - corpus_active_dims
77
+ - corpus_sparsity_ratio
78
+ model-index:
79
+ - name: SPLADE-RoBERTa-Amharic-Medium
80
+ results:
81
+ - task:
82
+ type: sparse-information-retrieval
83
+ name: Sparse Information Retrieval
84
+ dataset:
85
+ name: Unknown
86
+ type: unknown
87
+ metrics:
88
+ - type: dot_accuracy@1
89
+ value: 0.6285881663737551
90
+ name: Dot Accuracy@1
91
+ - type: dot_accuracy@3
92
+ value: 0.8107791446983011
93
+ name: Dot Accuracy@3
94
+ - type: dot_accuracy@5
95
+ value: 0.8580843585237259
96
+ name: Dot Accuracy@5
97
+ - type: dot_accuracy@10
98
+ value: 0.895577035735208
99
+ name: Dot Accuracy@10
100
+ - type: dot_precision@1
101
+ value: 0.6285881663737551
102
+ name: Dot Precision@1
103
+ - type: dot_precision@3
104
+ value: 0.2702597148994337
105
+ name: Dot Precision@3
106
+ - type: dot_precision@5
107
+ value: 0.17161687170474518
108
+ name: Dot Precision@5
109
+ - type: dot_precision@10
110
+ value: 0.0895577035735208
111
+ name: Dot Precision@10
112
+ - type: dot_recall@1
113
+ value: 0.6285881663737551
114
+ name: Dot Recall@1
115
+ - type: dot_recall@3
116
+ value: 0.8107791446983011
117
+ name: Dot Recall@3
118
+ - type: dot_recall@5
119
+ value: 0.8580843585237259
120
+ name: Dot Recall@5
121
+ - type: dot_recall@10
122
+ value: 0.895577035735208
123
+ name: Dot Recall@10
124
+ - type: dot_ndcg@10
125
+ value: 0.7694492243435073
126
+ name: Dot Ndcg@10
127
+ - type: dot_mrr@10
128
+ value: 0.7282295240884877
129
+ name: Dot Mrr@10
130
+ - type: dot_map@100
131
+ value: 0.731417730197726
132
+ name: Dot Map@100
133
+ - type: query_active_dims
134
+ value: 60.95884704589844
135
+ name: Query Active Dims
136
+ - type: query_sparsity_ratio
137
+ value: 0.9980950360298156
138
+ name: Query Sparsity Ratio
139
+ - type: corpus_active_dims
140
+ value: 117.9302729767245
141
+ name: Corpus Active Dims
142
+ - type: corpus_sparsity_ratio
143
+ value: 0.9963146789694772
144
+ name: Corpus Sparsity Ratio
145
+ ---
146
+
147
+ # SPLADE-RoBERTa-Amharic-Medium
148
+
149
+ This is a [SPLADE Sparse Encoder](https://www.sbert.net/docs/sparse_encoder/usage/usage.html) model finetuned from [rasyosef/roberta-medium-amharic](https://huggingface.co/rasyosef/roberta-medium-amharic) using the [sentence-transformers](https://www.SBERT.net) library. It maps sentences & paragraphs to a 32000-dimensional sparse vector space and can be used for semantic search and sparse retrieval.
150
+ ## Model Details
151
+
152
+ ### Model Description
153
+ - **Model Type:** SPLADE Sparse Encoder
154
+ - **Base model:** [rasyosef/roberta-medium-amharic](https://huggingface.co/rasyosef/roberta-medium-amharic) <!-- at revision 9d02d0281e64d6ca31bd06d322e14b0b7e60375b -->
155
+ - **Maximum Sequence Length:** 510 tokens
156
+ - **Output Dimensionality:** 32000 dimensions
157
+ - **Similarity Function:** Dot Product
158
+ <!-- - **Training Dataset:** Unknown -->
159
+ - **Language:** am
160
+ - **License:** mit
161
+
162
+ ### Model Sources
163
+
164
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
165
+ - **Documentation:** [Sparse Encoder Documentation](https://www.sbert.net/docs/sparse_encoder/usage/usage.html)
166
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
167
+ - **Hugging Face:** [Sparse Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=sparse-encoder)
168
+
169
+ ### Full Model Architecture
170
+
171
+ ```
172
+ SparseEncoder(
173
+ (0): MLMTransformer({'max_seq_length': 510, 'do_lower_case': False, 'architecture': 'XLMRobertaForMaskedLM'})
174
+ (1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32000})
175
+ )
176
+ ```
177
+
178
+ ## Usage
179
+
180
+ ### Direct Usage (Sentence Transformers)
181
+
182
+ First install the Sentence Transformers library:
183
+
184
+ ```bash
185
+ pip install -U sentence-transformers
186
+ ```
187
+
188
+ Then you can load this model and run inference.
189
+ ```python
190
+ from sentence_transformers import SparseEncoder
191
+
192
+ # Download from the 🤗 Hub
193
+ model = SparseEncoder("rasyosef/SPLADE-RoBERTa-Amharic-Medium")
194
+ # Run inference
195
+ sentences = [
196
+ 'ፕሪሚየር ሊግ ፡ ሲዳማ ከሜዳው ውጪ ጣፋጭ ድል ሲያስመዘግብ አርባምንጭ ከ ዳሽን ቢራ አቻ ተለያይተዋል',
197
+ '\xa0የኢትዮጵያ ፕሪሚየር ሊግ 10ኛ ሳምንት ሁለት ጨዋታዎች አርባምንጭ እና አዲስ አበባ ላይ ተካሂደዋል፡፡ ሲዳማ ቡና ድል ሲቀናው ዳሽን ከአርባምንጭ አንድ ነጥብ ይዞ ተመልሷል፡፡አርባምንጭ ላይ ዳሽን ቢራን ያስተናገደው አርባምንጭ ከተማ ካለግብ አቻ ተለያይቷል፡፡ ተመጣጣኝ የጨዋታ እንቅስቃሴ የታየበት ይህ ጨዋታ ጥቂት የግብ ሙከራዎች ያስተናገደ ሲሆን ዳሽን ቢራ ኳስ በአርባምንጭ የግብ ክልል በእጅ ተነክቶ የፍፁም ቅጣት ምት ተከልክለናል በሚል ተቃውሞ አቅርበዋል፡፡ የአቻ ውጤቱ ዳሽንን ባለበት 10ኛ ደረጃ ላይ እንዲቆይ ሲያደርገው አርባምንጭ ከተማ አንድ ደረጃን አሻሽሎ 11ኛ ደረጃ ላይ መቀመጥ ችሏል፡፡በ11፡30 ኢትዮጵያ ቡና አዲስ አበባ ስታድየም ላይ ሲዳማ ቡናን አስተናግዶ 2-1 ተሸንፏል፡፡ ሲዳማ ቡና በአዲስ ግደይ የ38ኛ ደቂቃ ግብ መሪ ሲሆን ከእረፍት መልስ በ47ኛው ደቂቃ አማኑኤል ዮሃንስ ቡናን አቻ አድርጓል፡፡ የሲዳማን የማሸነፍያ ግብ ከመረብ ያሳረፈው አማካዩ ፍፁም ተፈሪ በ62ኛው ደቂቃ ነው፡፡ በጨዋታው ፈጣኑ የመስመር አጥቂ አዲስ ግደይ (ፎቶ) ለሲዳማ ቡና ድል ቁልፍ ሚና ተጫውቷል፡፡ በጨዋታው መገባደጃ አካባቢ ላይ ተቀይሮ ሲወጣም በጥላ ፎቅ እና ትሪቡን አካባቢ የሚገኙ የኢትዮጵያ ቡና ደጋፊዎች በአድናቆት አጨብጭበውለታል፡፡የሲዳማ ቡናው የመስመር አማካይ ወሰኑ ማዜ በከባድ ጉዳት ከሜዳ ተቀይሮ የወጣ ሲሆን የጉዳት መጠኑ ከቀጣይ ጨዋታዎች ሊያርቀው እንደሚችል ተነግሯል፡፡ድሉ ሲዳማ ቡና 17 ነጥብ ሰብስቦ 4ኛ ደረጃ ላይ ሲያስቀምጠው 9ኛ ደረጃ ላይ የሚገኘው ኢትዮጵያ ቡና ደረጃውን የሚያሻሽልበትን እድል አበላሽቷል፡፡የኢትዮጵያ ፕሪሚር ሊግ 10ኛ ሳምንት ቀሪ ጨዋታዎች ቅዳሜ እና እሁድ ሲቀጥሉ ሁለተኛ ደረጃ ላይ የሚገኘው አዳማ ከተማ ቅዳሜ በ9፡00 ሀድያ ሆሳዕናን ያስተናግዳል፡፡ እሁድ መሪው ቅዱስ ጊዮርጊስ ከንግድ ባንክ 11፡30 ላይ ሲጫወት በ9፡00 መከላከያ ወላይታ ድቻን ያስተናግዳል፡፡የደረጃ ሰንጠረዥ ፡-የከፍተኛ ግብ አግቢዎ�� ደረጃ፡-\xa0',
198
+ '\xa0በመልካ ቆሌ ስታድየም 9፡00 ላይ በተካሄደው 18ኛው ሳምንት የኢትዮጵያ ፕሪሚየር ሊግ ጨዋታ በወራጅ ቀጠናው ውስጥ ያሉት ወልድያዎች ሌላው በቀጠናው ውስጥ ያለው ሀዋሳ ከነማን በማሸነፍ ነጥቡን ወደ 9 ከፍ አድርጓል፡፡በውጤት መጥፋት ምክንያት የተመልካች ቁጥር ቀንሶ በታየበት ጨዋታ ወልድያዎች የመጀመርያ የግብ ማግባት አጋጣሚ በ8ኛው ደቂ ቢያገኙም ሳይጠቀሙበት ቀርተዋል፡፡ በመጀመርያው አጋማሽ ሀዋሳ ከነማዎች የኳስ ቁጥጥር ብልጫን የያዙ ሲሆን ወልድያዎች በመልሶ ማጥቃት እና ከቆሙ ኳሶች አደጋ ለመፍጠር ሞክረዋል፡፡በ25ኛው ደቂቃ ወልድያዎች ያገኙትን ቅጣት ምት ሳሙኤል ደግፌ ወደ መሃል አሻምቶ የሀዋሳ ተከላካዮች ከግብ ክልላቸው በሚገባ ማራቅ ባለመቻላቸው ፍሬው ብርሃን ኳሷን አግኝቷት ወደ ግብነት ቀይሯታል፡፡ ወልድያ በ33ኛው ደቂቃ በአብይ በየነ አማካኝነት በድጋሚ ግብ ቢያስቆጠርም ረዳት ዳኛው ከጨዋታ ውጪ ምልክት በማሳየታቸው ሳይፀድቅ ቀርቷል፡፡ከግቧ መቆጠር በኋላ ሀዋሳ ከነማ ጫና ፈጥሮ ለመንቀሳቀስ የሞከረ ሲሆን በ40ኛው ደቂቃ ላይ ጥረታቸው ፍሬ አፍርቶ የአቻነት ግብ ማስቆጠር ችለዋል፡፡ የመጀመርያው አጋማሽ የጨዋታ ክፍለጊዜም 1-1 በሆነ አቻ ውጤት ተጠናቋል፡፡ከእረፍት መልስ ሀዋሳዎች ተጨማሪ ግብ ለማስቆጠር ጫናቸውን አጠናክረው ተጫውተዋል፡፡ በ50ኛው ደቂቃ ሲሳይ ባንጫ የፈጠረውን ስህተት ተጠቅመው ሀዋሳዎች ለግብ የቀረበ አጋጣሚ ቢያገኙም በቶክ ጀምስ ጥረት ግብ ሳይሆን ቀርቷል፡፡ወልድያዎች በሁለተኛው አጋማሽም እንደመጀመርያው ሁሉ አፈግፍገው በመጫወት በመልሶ ማጥቃት ወደ ግብ ለመድረስ የሞከሩ ሲሆን አብይ በየነ በዚህ ሂደት የተገኘቸውን ኳስ ወደ ግብ ሞክሮ በግቡ ቋሚ ለጥቂት ወጥታበታለች፡፡በ80ኛው ደቂቃ በ2ኛው አጋማሽ ተቀይሮ ወደ ሜዳ የገባው አጥቂው ፍፁም ደስይበለው ሳሙኤል ደግፌ ከማእዘን ምት ሸገረውን ኳስ በግንባሩ በመግጨት ግብ አስቆጥሯል፡፡ጨዋታው በወልድያ መሪነት ቀጥሎ በዳኛ ውሳኔ ቅሬታ ውስት የገቡ የወልድያ ደጋፊዎች መጠነኛ ረብሻ ቢያስነሱም በፀጥታ ኃይሎች እና በወልድያ ተጫዋቾች ትብብር በቶሎ ረግቧል፡፡ ጨዋታውም በወልድያ 2-1 አሸናፊነት ተጠናቋል፡፡በጨዋታው የእለቱ አልቢትር ለሁለቱም ቡድኖች አንድ አንድ ቢጫ ካርድ አሳይተዋል፡፡',
199
+ ]
200
+ embeddings = model.encode(sentences)
201
+ print(embeddings.shape)
202
+ # [3, 32000]
203
+
204
+ # Get the similarity scores for the embeddings
205
+ similarities = model.similarity(embeddings, embeddings)
206
+ print(similarities)
207
+ # tensor([[41.2030, 29.0388, 10.9043],
208
+ # [29.0388, 59.1752, 11.2732],
209
+ # [10.9043, 11.2732, 66.0363]])
210
+ ```
211
+
212
+ <!--
213
+ ### Direct Usage (Transformers)
214
+
215
+ <details><summary>Click to see the direct usage in Transformers</summary>
216
+
217
+ </details>
218
+ -->
219
+
220
+ <!--
221
+ ### Downstream Usage (Sentence Transformers)
222
+
223
+ You can finetune this model on your own dataset.
224
+
225
+ <details><summary>Click to expand</summary>
226
+
227
+ </details>
228
+ -->
229
+
230
+ <!--
231
+ ### Out-of-Scope Use
232
+
233
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
234
+ -->
235
+
236
+ ## Evaluation
237
+
238
+ ### Metrics
239
+
240
+ #### Sparse Information Retrieval
241
+
242
+ * Evaluated with [<code>SparseInformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseInformationRetrievalEvaluator)
243
+
244
+ | Metric | Value |
245
+ |:----------------------|:-----------|
246
+ | dot_accuracy@1 | 0.6286 |
247
+ | dot_accuracy@3 | 0.8108 |
248
+ | dot_accuracy@5 | 0.8581 |
249
+ | dot_accuracy@10 | 0.8956 |
250
+ | dot_precision@1 | 0.6286 |
251
+ | dot_precision@3 | 0.2703 |
252
+ | dot_precision@5 | 0.1716 |
253
+ | dot_precision@10 | 0.0896 |
254
+ | dot_recall@1 | 0.6286 |
255
+ | dot_recall@3 | 0.8108 |
256
+ | dot_recall@5 | 0.8581 |
257
+ | dot_recall@10 | 0.8956 |
258
+ | **dot_ndcg@10** | **0.7694** |
259
+ | dot_mrr@10 | 0.7282 |
260
+ | dot_map@100 | 0.7314 |
261
+ | query_active_dims | 60.9588 |
262
+ | query_sparsity_ratio | 0.9981 |
263
+ | corpus_active_dims | 117.9303 |
264
+ | corpus_sparsity_ratio | 0.9963 |
265
+
266
+ <!--
267
+ ## Bias, Risks and Limitations
268
+
269
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
270
+ -->
271
+
272
+ <!--
273
+ ### Recommendations
274
+
275
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
276
+ -->
277
+
278
+ ## Training Details
279
+
280
+ ### Training Dataset
281
+
282
+ #### Unnamed Dataset
283
+
284
+ * Size: 245,876 training samples
285
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
286
+ * Approximate statistics based on the first 1000 samples:
287
+ | | anchor | positive | negative |
288
+ |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
289
+ | type | string | string | string |
290
+ | details | <ul><li>min: 3 tokens</li><li>mean: 16.29 tokens</li><li>max: 101 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 324.02 tokens</li><li>max: 510 tokens</li></ul> | <ul><li>min: 40 tokens</li><li>mean: 330.65 tokens</li><li>max: 510 tokens</li></ul> |
291
+ * Samples:
292
+ | anchor | positive | negative |
293
+ |:------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
294
+ | <code>ክልሎች ለስኳር ፋብሪካዎች የይዞታ ማረጋገጫ ሰነድ ለመስጠት ፈቃደኛ አለመሆናቸው ታወቀ</code> | <code>የክልሎቹ አቋም ስኳር ፋብሪካዎቹን ለመሸጥ የተያዘውን ዕቅድ እንዳይስተጓጎል ሥጋት ፈጥሯልጠቅላይ ሚኒስትሩ መፍትሔ እንዲያሰጡ ተጠይቋልበፌዴራል መንግሥት ለተቋቋሙ ነባርና በግንባታ ላይ ለሚገኙ አዳዲስ የስኳር ፋብሪካዎች የይዞታ ማረጋገጫ ሰነድ እንዲሰጡ ተደጋጋሚ ጥያቄ ለሚመለከታቸው ክልሎች ቢቀርብም፣ ክልሎች ፈቃደኛ አለመሆናቸውን ሪፖርተር ያገኘው መረጃ አመለከተ፡፡የተገኘው የሰነድ መረጃ እንደሚያመለክተው የፌዴራል መንግሥት ከበርካታ ዓመታት በፊት ላቋቋማቸው ነባር የስኳር ፋብሪካዎችም ሆነ፣ በአሁኑ ወቅት በግንባታ ላይ ለሚገኙት የስኳር ፋብሪካዎች የይዞታ ማረጋገጫ ማግኘት ባለመቻሉ መንግሥት ፋብሪካዎቹን ወደ ግል ለማዘዋወር እያደረገ ያለውን ጥረት እንዳያስተጓጉል ሥጋት ፈጥሯል፡፡መንግሥት በያዘው ዕቅድ መሠረት ከዘንድሮ ጀምሮ ሁሉንም የስኳር ፋብሪካዎች ወደ ግል ለማዘዋወር፣ የፋብሪካዎቹን ሀብት በተናጠል እንዲገመት ከማድረግ አንስቶ በርካታ የቅድመ ፕራይቬታይዜሽን ተግባራትን እያከናወነ ቢሆንም፣ ፕራይቬታይዜሽኑን ዕውን ለማድረግ መሠረታዊ የሆነውን የይዞታ ማረጋገጫ ማሟላት እንዳልተቻለ ሰነዱ ያመለክታል፡፡በኢትዮጵያ ስኳር ኮርፖሬሽን ሥር የሚተዳደሩ ነባርና በግንባታ ሒደት ላይ የሚገኙ በጥቅሉ 13 ስኳር ፋብሪካዎች ቢኖሩም፣ ከእነዚህ መካከል የተሟላ የይዞታ ማረጋገጫ ሰነድ ያላቸው ሁለት ስኳር ፋብሪካዎች ብቻ እንደሆኑ ለማወቅ ተችሏል፡፡‹‹ነባርና አዳዲስ ፕሮጀክቶች ላይ የይዞታ ማረጋገጫ ሰነድ ለማግኘት ከጅምሩ አንስቶ በድርጅቶቹና በኮርፖሬሽን አማካይነት ያላሰለሰ ጥረት ቢደረግም፣ ከወንጂ ሸዋና ከፊንጫ ስኳር ፋብሪካዎች በስተቀር ነባሩን የመተሐራ ስኳር ፋብሪካ ጨምሮ ሌሎቹ ነባርና በግንባታ ላይ የሚገኙ የስኳር ልማት ፕሮጀክቶች የይዞታ ማረጋገጫ ሰነድ ማግኘት አልተቻለም፤...</code> | <code>  በባህል ቱሪዝምና ስፖርት ሚኒስቴር እና ስፖርት ኮሚሽን መካከል በተጠሪነት ላይ የግልጽነት መጓደል መኖሩ የባሀልና ስፖርት ሚኒስቴር የስፖርት ልማት ዘርፍ ዴኤታ አቶ ሃብታሙ ሲሳይ ገለጹ። አቶ ሃብታሙ ለአዲስ ዘመን ጋዜጣ እንደተናገሩት ፤የፌዴራል አስፈጻሚ አካላት ስልጣንና ተግባርን ለመወሰን የወጣ አዋጅ በአግባቡ አውቆ ከመጠቀም አኳያ ውስንነት አለ። ስፖርት ኮሚሽን ለበርካታ ዓመታት ሚኒስቴር ነበር። የአብዛኛው አመራርና ሰራተኛ እሳቤ የሚኒስቴር እሳቤን የያዘ እንደመሆኑ ‹ እኛ ኮሚሽን ነን›የሚለውን በፍጥነት ለመቀበል ግርታን መፈጠሩም የሚጠበቅ መሆኑን ገልጸው፤ እንዲህ አይነቱ ጉድለት ደግሞ ‹ስልጣናችን እየተጋፋን ነው ›የሚሉ አዋጁን ካለመገንዘብ የመነጩ ቅሬታዎች አሉ ብለዋል። የስፖርቱ አደረጃጀት አንድ ጊዜ ከአንዱ ፤ሌላ ጊዜ ደግሞ ከሌላው የመጣበቅ ዝንባሌዎች በተደጋጋሚ መኖሩን ጠቅሰው ፤አደረጃጀቱ ወጥ ሆኖ ያለመቆየትም ከዚሁ ጋር ��ብሮ የሚታይ እንደሆነ ተናግረዋል። በዚህም ጠንካራ የስፖርት ምክር ቤት አለመፈጠሩ ስፖርቱ ህዝባዊ መሰረት እንዳይኖረው ማድረጉንም አክለው ገልጸዋል። እንደ አቶ ሃብታሙ ማብራሪያ ፤ ስፖርቱን የሚመራው ህዝባዊ አደረጃጀቱ እንደሆነ በፖሊሲው ተቀምጧል። ህዝባዊ አደረጃጀት የሚባለው፤ ኦሎምፒክ ኮሚቴ፤ ፌዴሬሽኖቹ፤ ክለቦቹ፤ እንዲሁም የስፖርት ምክር ቤቶች ናቸው። በሀገራችን ወቅታዊ ሁኔታ የስፖርት ምክር ቤቶች የት ናቸው? ስፖርቱን በአግባቡ መምራት በሚችሉበት ቁመና አይገኙም። በፌዴራል ደረጃ የስፖርት ምክር ቤት ተቋቁሞ ወደ ስራ የገባው በ60ዎቹ አካባቢ ቢሆንም፤ በፌዴራል ደረጃ ከ2007 ዓ.ም ጀምሮ ጠፍተዋል። ብሄራዊ የስፖርት ምክር ቤት በ2011 ዓ.ም ነው ገና እንዳዲስ የተቋቋመው፤ በክልሎችም ተመሳሳይ ሁኔታ ይንጸባረቃል። «በዓመ...</code> |
295
+ | <code>መዳ ወላቡ ዩኒቨርሲቲ ያሰለጠናቸው 19 ሐኪሞች አስመረቀ</code> | <code>አዲስ አበባ ፣ ህዳር 12 ፣ 2013 (ኤፍ ቢ ሲ) መዳ ወላቡ ዩኒቨርሲቲ በህክምና ዶክትሬት የትምህርት ዘርፍ ያሰለጠናቸው 19 ተማሪዎችን ዛሬ አስመረቀ፡፡ዩኒቨርሲቲው የዛሬ ተመራቂዎችን ጨምሮ 99 የህክምና ዶክተሮችን አሰልጥኖ አስመርቋል።በዩኒቨርሲቲው ምክትል ፕሬዝዳንት ማዕረግ የጎባ ሪፈራል ሆስፒታል ዋና ዳይሬክተር ዶክተር ጄይላን ቃሲም ሆስፒታሉ ለአካባቢው ማህበረሰብ ከሚሰጠው የህክምና አገልግሎት በተጓዳኝ በተለያዩ የህክምና ሙያዎች ስልጠና እየሰጠ እንዳለ መግለጻቸውን ኢዜአ ዘግቧል።በ1999 ዓ.ም 742 ተማሪዎች ተቀብሎ ስራ የጀመረው መዳ ወላቡ ዩኒቨርሲቲ አሁን ላይ ከ24 ሺህ የሚበልጡ ተማሪዎች አሉት።</code> | <code>የአዲስ አበባ ከተማ አስተዳደር የሙያ ትምህርትና ስልጠና ቢሮ በ2009 ዓም በተለያዩ ሙያ ዘርፎች ያሰለጠናቸውን ከ8ሺህ 800 በላይ ሰልጣኞች ዛሬ በሚሊንየም አዳራሽ አስመረቀ ፡፡በምረቃ ስነ ስርዓቱ ላይ የተገኙት የአዲስ አበባ ከተማ አስተዳደር አፈ ጉባኤ ዶክተር ታቦር ገብረመድህን እንደገለጹት ፤ተመራቂዎች በስልጠና ቆይታቸው ያገኙዋቸውን መሰረታዊ ዕውቀትና ክህሎት በየጊዜው በማዳበር ለአገራቸው የሚገባቸውን አስተዋጽኦ ማበርከት ይገባቸዋል ፡፡በስራው ዓለም የይቻላል መንፈስን በማጎልበትና የቴክኖሎጂ ፈጠራ ክህሎትን በማዳበር ቀጣይ ለአገሪቱ ኢኮኖሚ ዕድገት የድርሻቸውን ሊወጠ ይገባል ፡፡በከተማ የወጣቶች ተጠቃሚነትን ለማጎልበት መንገስት በፈቀደው የተንቀሳቃሽ ፈንድ ምቹ አጋጣሚ ሰልጣኞቹ እንዲጠቀሙበትም ጥሪ አቅርበዋል ፡፡የከተማው አስተዳደር የቴክኒክና ሙያ ስልጠና ኃላፊ አቶ ዘርኡ ስሙር በበኩላቸው እንደገለጹት ፤ከደረጃ አንድ እስከ ደረጃ አምስት ከሰለጠኑት 8ሺ 837 ተመራቂዎች ውስጥ 34 በመቶ ሴቶች መሆናቸውን ገልጸዋል ፡፡ቢሮው ባለፉት ሁለት ዓመታም 47 ሺህ የሚሆኑት አጫጭር ስልጠናዎች ማግኘታቸውን ጠቁመዋል ፡፡በአዲስ አበባ ከተማ የሚገኙ የቴክና ሙያ ማሰልጠኛ ተቋማትና ኮሌጆች ዜጎች በተለያዩ የሙያ ዘርፎች ተገቢ የሙያ ክህሎት እንዲያገኙ ተገቢውን አስተዋጽኦ እያበረከቱ መሆናቸውን አስረድተዋል፡፡የቴክኒክና ሙያ ተቋማትም የተሻለ የሙያ ክህሎት ያላቸው ሰልጣኞችን በማፍራት ረገድ ያደረጉት ርብርቦሽም አ���ስግነዋል ፡፡ሰልጣኞቹ በአነስተኛና ጥቃቅን በመደራጀትና በመስራት የተጣለባቸውን ሀገራዊ ሃላፊነት እንዲወጡ ጥሪ አቅርበዋል ፡፡በመጨረሻም በተለያዩ ዘርፎች የክህሎት ውድድርና የላቀ አፈጻጸም ያስመዘገቡ ሰልጣኞች እንዲሁም አሰልጣኞች የሜዳሊያና የሰርተፊኬት ሽልማትና ዕ...</code> |
296
+ | <code>በኢትዮጵያ ከባህር ጠለል 2500 ሜትር ከፍታ የምትገኝ እንዲሁም በሀገሪቱ ትልቋ ከተማ ማን ትባላለች?</code> | <code>አዲስ አበባ አዲስ አበባ ተብላ የተሠየመችው እቴጌ ጣይቱ ኅዳር ፲፬ ቀን ፲፰፻፸፱ (1879) ዓ.ም. ፍልውሃ ፊን-ፊን ወደሚልበት መስክ ወርደው ሳሉ ከዚህ በፊት አይተዋት የማያውቋት አንዲት ልዩ አበባ አይተ ስለማረከቻቸው ቦታውን ‹‹አዲስ አበባ!›› አሉ ይባላል። አዲስ አበባ (ኣዲስ ኣበባ) ኢትዮጵያ ዋና ከተማ ስትሆን በተጨማሪ የአፍሪካ ሕብረት መቀመጫ እንዲሁም የብዙ የተባበሩት መንግሥታት ድርጅት ቅርንጫፎችና ሌሎችም የዓለም የዲፕሎማቲክ (የሰላማዊ ግንኙነት) ልዑካን መሰብሰቢያ ከተማ ናት። ራስ-ገዝ አስተዳደር ስላላት የከተማና የክልል ማዕረግ ይዛ ትገኛለች። አብዛኞቹን የሀገሩ ቋንቋዎች የሚናገሩ ክርስቲያኖች እና ሙስሊሞች የሚኖሩባት ከተማ ናት። ከባሕር ጠለል በ2500 ሜትር ከፍታ ላይ የምትገኘው ከተማ በግምት 2,757,729 በላይ ሕዝብ የሚኖርባት በመሆኗ የሀገሪቱ አንደኛ ትልቅ ከተማ ናት። ከተማዋ እቴጌ ጣይቱ በመረጡት ቦታ ማለትም በፍል ውሐ አካባቢ ላይ በባላቸው በዳግማዊ ምኒልክ በ፲፰፻፸፰ (1878) ዓ.ም. ተቆረቆረች። የሕዝቧ ብዛት በያመቱ 8% (ስምንት በመቶ) እየጨመረ አሁን አምስት ሚሊዮን እንደሚደርስ ይገመታል። ከእንጦጦ ጋራ ግርጌ ያለችው መዲና የአዲስ አበባ ዩኒቨርሲቲ መገኛ ሆናለች። ይህም በመስራቹ የቀድሞው ንጉሠ-ነገሥት ስም ቀዳማዊ ኃይለ ሥላሴ ዩኒቨርሲቲ ይባል ነበር።</code> | <code>ታሕታይ ሎጎምቲ / አድዋ ወረዳ ከሚገኙ የገጠር ቀበሌዎች<br>አንዷ ስትሆን ትምህርት ቤት የተጀመረበት አመተምህረት በ 1984 ዓ/ም ነው። አሁን እስከ 8ኛ ክፍል እያስተማረ ይገኛል፡፡ በተጨማሪም ሌላ 1ኛ ደረጃ ት/ቤት ማይሰጋሉ አከባቢ ተገንብቶ ተማሪዎችእየተማሩበት ይገኛሉ፡፡የመኪና መንገድ ደግሞ በ1985/86 አከባቢ ተጀምረዋል። በአከባቢዋ የተለያዮ የተከለሉ ደንኞች ማለትም ሸተቶ ፣ ኩማጫሉቅ፣ ሸቃወለዳይት፣ ደብረሳህሊ፣አቡነእንድርያስ ፣ሰውሒ ፅየት እና ሌሎችም ያቀፈች ቀበሌ ነች፡፡እንስሳተ ዘገዳም ቀበሮ፣ ጅብ፣ በተመሳሳይ ቆቅ እና ጅግራም ይገኙበታል፡፡በተለይ በውስጧ የያዘቻቸው አዝርእትና የበጋ<br>አትክልቶችና ለአይን ከመማረክ አልፎ ለአከባቢው ህ/ሰብ<br>የገቢ ምንጭ ናቸው "ግድብ ሰይሳ" የ ሰይሳ ግድብም<br>እዛው ይገኛል። በውስጧ 4 ቀጠናዎች(ቁሸት) ይገኛሉ፡፡<br>እነሱም ፅየት ፣ገብላ፣ አዲስአለም፣ ማይወይኒ የሚባሉ ናቸው። ራህያ ከተማም ከፊል ከተማው በዚህ ቀበሌ ይገኛል<br><br>አድዋ</code> |
297
+ * Loss: [<code>SpladeLoss</code>](https://sbert.net/docs/package_reference/sparse_encoder/losses.html#spladeloss) with these parameters:
298
+ ```json
299
+ {
300
+ "loss": "SparseMultipleNegativesRankingLoss(scale=1.0, similarity_fct='dot_score')",
301
+ "document_regularizer_weight": 0.003,
302
+ "query_regularizer_weight": 0.005
303
+ }
304
+ ```
305
+
306
+ ### Training Hyperparameters
307
+ #### Non-Default Hyperparameters
308
+
309
+ - `eval_strategy`: epoch
310
+ - `per_device_train_batch_size`: 48
311
+ - `per_device_eval_batch_size`: 48
312
+ - `learning_rate`: 6e-05
313
+ - `num_train_epochs`: 4
314
+ - `lr_scheduler_type`: cosine
315
+ - `warmup_ratio`: 0.05
316
+ - `fp16`: True
317
+ - `optim`: adamw_torch_fused
318
+ - `batch_sampler`: no_duplicates
319
+
320
+ #### All Hyperparameters
321
+ <details><summary>Click to expand</summary>
322
+
323
+ - `overwrite_output_dir`: False
324
+ - `do_predict`: False
325
+ - `eval_strategy`: epoch
326
+ - `prediction_loss_only`: True
327
+ - `per_device_train_batch_size`: 48
328
+ - `per_device_eval_batch_size`: 48
329
+ - `per_gpu_train_batch_size`: None
330
+ - `per_gpu_eval_batch_size`: None
331
+ - `gradient_accumulation_steps`: 1
332
+ - `eval_accumulation_steps`: None
333
+ - `torch_empty_cache_steps`: None
334
+ - `learning_rate`: 6e-05
335
+ - `weight_decay`: 0.0
336
+ - `adam_beta1`: 0.9
337
+ - `adam_beta2`: 0.999
338
+ - `adam_epsilon`: 1e-08
339
+ - `max_grad_norm`: 1.0
340
+ - `num_train_epochs`: 4
341
+ - `max_steps`: -1
342
+ - `lr_scheduler_type`: cosine
343
+ - `lr_scheduler_kwargs`: {}
344
+ - `warmup_ratio`: 0.05
345
+ - `warmup_steps`: 0
346
+ - `log_level`: passive
347
+ - `log_level_replica`: warning
348
+ - `log_on_each_node`: True
349
+ - `logging_nan_inf_filter`: True
350
+ - `save_safetensors`: True
351
+ - `save_on_each_node`: False
352
+ - `save_only_model`: False
353
+ - `restore_callback_states_from_checkpoint`: False
354
+ - `no_cuda`: False
355
+ - `use_cpu`: False
356
+ - `use_mps_device`: False
357
+ - `seed`: 42
358
+ - `data_seed`: None
359
+ - `jit_mode_eval`: False
360
+ - `use_ipex`: False
361
+ - `bf16`: False
362
+ - `fp16`: True
363
+ - `fp16_opt_level`: O1
364
+ - `half_precision_backend`: auto
365
+ - `bf16_full_eval`: False
366
+ - `fp16_full_eval`: False
367
+ - `tf32`: None
368
+ - `local_rank`: 0
369
+ - `ddp_backend`: None
370
+ - `tpu_num_cores`: None
371
+ - `tpu_metrics_debug`: False
372
+ - `debug`: []
373
+ - `dataloader_drop_last`: False
374
+ - `dataloader_num_workers`: 0
375
+ - `dataloader_prefetch_factor`: None
376
+ - `past_index`: -1
377
+ - `disable_tqdm`: False
378
+ - `remove_unused_columns`: True
379
+ - `label_names`: None
380
+ - `load_best_model_at_end`: False
381
+ - `ignore_data_skip`: False
382
+ - `fsdp`: []
383
+ - `fsdp_min_num_params`: 0
384
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
385
+ - `fsdp_transformer_layer_cls_to_wrap`: None
386
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
387
+ - `deepspeed`: None
388
+ - `label_smoothing_factor`: 0.0
389
+ - `optim`: adamw_torch_fused
390
+ - `optim_args`: None
391
+ - `adafactor`: False
392
+ - `group_by_length`: False
393
+ - `length_column_name`: length
394
+ - `ddp_find_unused_parameters`: None
395
+ - `ddp_bucket_cap_mb`: None
396
+ - `ddp_broadcast_buffers`: False
397
+ - `dataloader_pin_memory`: True
398
+ - `dataloader_persistent_workers`: False
399
+ - `skip_memory_metrics`: True
400
+ - `use_legacy_prediction_loop`: False
401
+ - `push_to_hub`: False
402
+ - `resume_from_checkpoint`: None
403
+ - `hub_model_id`: None
404
+ - `hub_strategy`: every_save
405
+ - `hub_private_repo`: None
406
+ - `hub_always_push`: False
407
+ - `hub_revision`: None
408
+ - `gradient_checkpointing`: False
409
+ - `gradient_checkpointing_kwargs`: None
410
+ - `include_inputs_for_metrics`: False
411
+ - `include_for_metrics`: []
412
+ - `eval_do_concat_batches`: True
413
+ - `fp16_backend`: auto
414
+ - `push_to_hub_model_id`: None
415
+ - `push_to_hub_organization`: None
416
+ - `mp_parameters`:
417
+ - `auto_find_batch_size`: False
418
+ - `full_determinism`: False
419
+ - `torchdynamo`: None
420
+ - `ray_scope`: last
421
+ - `ddp_timeout`: 1800
422
+ - `torch_compile`: False
423
+ - `torch_compile_backend`: None
424
+ - `torch_compile_mode`: None
425
+ - `include_tokens_per_second`: False
426
+ - `include_num_input_tokens_seen`: False
427
+ - `neftune_noise_alpha`: None
428
+ - `optim_target_modules`: None
429
+ - `batch_eval_metrics`: False
430
+ - `eval_on_start`: False
431
+ - `use_liger_kernel`: False
432
+ - `liger_kernel_config`: None
433
+ - `eval_use_gather_object`: False
434
+ - `average_tokens_across_devices`: False
435
+ - `prompts`: None
436
+ - `batch_sampler`: no_duplicates
437
+ - `multi_dataset_batch_sampler`: proportional
438
+ - `router_mapping`: {}
439
+ - `learning_rate_mapping`: {}
440
+
441
+ </details>
442
+
443
+ ### Training Logs
444
+ | Epoch | Step | Training Loss | dot_ndcg@10 |
445
+ |:-----:|:-----:|:-------------:|:-----------:|
446
+ | 1.0 | 5123 | 46.9605 | 0.7653 |
447
+ | 2.0 | 10246 | 0.074 | 0.7476 |
448
+ | 3.0 | 15369 | 0.0308 | 0.7659 |
449
+ | 4.0 | 20492 | 0.0179 | 0.7694 |
450
+ | -1 | -1 | - | 0.7694 |
451
+
452
+
453
+ ### Framework Versions
454
+ - Python: 3.11.13
455
+ - Sentence Transformers: 5.0.0
456
+ - Transformers: 4.53.0
457
+ - PyTorch: 2.6.0+cu124
458
+ - Accelerate: 1.8.1
459
+ - Datasets: 3.6.0
460
+ - Tokenizers: 0.21.2
461
+
462
+ ## Citation
463
+
464
+ ### BibTeX
465
+
466
+ #### Sentence Transformers
467
+ ```bibtex
468
+ @inproceedings{reimers-2019-sentence-bert,
469
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
470
+ author = "Reimers, Nils and Gurevych, Iryna",
471
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
472
+ month = "11",
473
+ year = "2019",
474
+ publisher = "Association for Computational Linguistics",
475
+ url = "https://arxiv.org/abs/1908.10084",
476
+ }
477
+ ```
478
+
479
+ #### SpladeLoss
480
+ ```bibtex
481
+ @misc{formal2022distillationhardnegativesampling,
482
+ title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective},
483
+ author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant},
484
+ year={2022},
485
+ eprint={2205.04733},
486
+ archivePrefix={arXiv},
487
+ primaryClass={cs.IR},
488
+ url={https://arxiv.org/abs/2205.04733},
489
+ }
490
+ ```
491
+
492
+ #### SparseMultipleNegativesRankingLoss
493
+ ```bibtex
494
+ @misc{henderson2017efficient,
495
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
496
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
497
+ year={2017},
498
+ eprint={1705.00652},
499
+ archivePrefix={arXiv},
500
+ primaryClass={cs.CL}
501
+ }
502
+ ```
503
+
504
+ #### FlopsLoss
505
+ ```bibtex
506
+ @article{paria2020minimizing,
507
+ title={Minimizing flops to learn efficient sparse representations},
508
+ author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s},
509
+ journal={arXiv preprint arXiv:2004.05665},
510
+ year={2020}
511
+ }
512
+ ```
513
+
514
+ <!--
515
+ ## Glossary
516
+
517
+ *Clearly define terms in order to be accessible across audiences.*
518
+ -->
519
+
520
+ <!--
521
+ ## Model Card Authors
522
+
523
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
524
+ -->
525
+
526
+ <!--
527
+ ## Model Card Contact
528
+
529
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
530
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaForMaskedLM"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 512,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 2048,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 8,
18
+ "num_hidden_layers": 8,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.53.0",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 32000
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "model_type": "SparseEncoder",
3
+ "__version__": {
4
+ "sentence_transformers": "5.0.0",
5
+ "transformers": "4.53.0",
6
+ "pytorch": "2.6.0+cu124"
7
+ },
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "dot"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9dabed12754f4e3dde04718d69288809d049df96278c416f6776df0724bf35d6
3
+ size 168666104
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.sparse_encoder.models.MLMTransformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_SpladePooling",
12
+ "type": "sentence_transformers.sparse_encoder.models.SpladePooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 510,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,59 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 510,
51
+ "model_max_length": 510,
52
+ "pad_token": "<pad>",
53
+ "sep_token": "</s>",
54
+ "stride": 0,
55
+ "tokenizer_class": "XLMRobertaTokenizerFast",
56
+ "truncation_side": "right",
57
+ "truncation_strategy": "longest_first",
58
+ "unk_token": "<unk>"
59
+ }