msbayindir commited on
Commit
820f38a
·
verified ·
1 Parent(s): e8525dd

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,503 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:23103
8
+ - loss:CosineSimilarityLoss
9
+ base_model: distilbert/distilroberta-base
10
+ widget:
11
+ - source_sentence: 'Davacı vekili dava dilekçesinde özetle: Müvekkilinin davalı Şti
12
+ ''nin müdürü olup ortaklıktan çıkmak için dava açtığını, söz konusu yargılamanın
13
+ Antalya Asliye Ticaret Mahkemesi Esas sayılı dosyası ile görülmekte olduğunu ve
14
+ bu davanın tarihli celsesinde şirkete kayyım atanması için taraflarına iki haftalık
15
+ kesin süre verildiğini, ortaklıktan çıkma esnasında şirketi mahkemede temsil edecek
16
+ bir kayyım yasa gereği zorunlu bulunduğundan Şirketi''ye kayyum atanmasına karar
17
+ verilmesini talep etmiştir.'
18
+ sentences:
19
+ - )Davacı vekili dava dilekçesinde özetle; Bankası şubesine ait, numaralı, 13/09/2017
20
+ tarihli, keşidecisi A.Ş. olan, 69.000,00 TL bedelli çekin müvekkilinin uhdesinde
21
+ iken kaybolduğunu, tüm aramalara rağmen bulunamadığını, müvekkilinin zarara uğrayacağından
22
+ bahisle, öncelikle çek üzerine ödeme yasağı kararı konularak, çekin iptaline karar
23
+ verilmesini talep ve dava etmiştir.
24
+ - Davacı vekili dava dilekçesinde özetle; Müvekkilinin bir ticari ilişki sebebiyle
25
+ tanzim tarihli; tanzim tarihli; aldığını müvekkili uhdesinde iken kaybedildiğini
26
+ beyan ederek tanzim tarihli tanzim tarihli; vade tarihli bedelli bonoların iptaline
27
+ karar verilmesini talep ve dava etmiştir.
28
+ - Kıymetli evrak zayi olduğu takdirde mahkeme tarafından iptaline karar verilebilir.Kıymetli
29
+ evrakın zayi olduğu veya zıyaın ortaya çıktığı anda senet üzerinde hak sahibi
30
+ olan kişi, senedin iptaline karar verilmesini isteyebilir.
31
+ - source_sentence: 'Davacı vekili dava dilekçesinde özetle: Davacının yazılı sözleşmeden
32
+ kaynaklı alacağını davalı borçludan tahsilini sağlaması amacıyla Bursa 16. İcra
33
+ Müdürlüğü''nün 2020/7093 esas sayılı dosyası ile icra takibi başlattığını, başlatılan
34
+ icra takibine davalı tarafça itiraz edilmesi nedeniyle takibin durdurulduğunu
35
+ bu nedenle itirazın iptali ile borçlunun takip konusu borcu takip dosyasında belirtilen
36
+ faiziyle birlikte ödemeye ve takip konusu alacağın %20''sinden az olmamak üzere
37
+ tazminata mahkum edilmesine ayrıca yargılama giderleri ve vekalet ücretinin karşı
38
+ tarafa yükletilmesine karar verilmesini talep ve dava etmiştir.'
39
+ sentences:
40
+ - Bir tacirin borçlarının ticari olması asıldır. Ancak, gerçek kişi olan bir tacir,
41
+ işlemi yaptığı anda bunun ticari işletmesiyle ilgili olmadığını diğer tarafa açıkça
42
+ bildirdiği veya işin ticari sayılmasına durum elverişli olmadığı takdirde borç
43
+ adi sayılır.Taraflardan yalnız biri için ticari iş niteliğinde olan sözleşmeler,
44
+ Kanunda aksine hüküm bulunmadıkça, diğeri için de ticari iş sayılır.
45
+ - İradesi dışında poliçe elinden çıkan kişi, ödeme veya hamilin yerleşim yerindeki
46
+ asliye ticaret mahkemesinden, muhatabın poliçeyi ödemekten menedilmesini isteyebilir.Mahkeme,
47
+ ödemeyi meneden kararında muhataba, vadenin gelmesi üzerine poliçe bedelini tevdi
48
+ etmeye izin verir ve tevdi yerini gösterir.
49
+ - Kıymetli evrak zayi olduğu takdirde mahkeme tarafından iptaline karar verilebilir.Kıymetli
50
+ evrakın zayi olduğu veya zıyaın ortaya çıktığı anda senet üzerinde hak sahibi
51
+ olan kişi, senedin iptaline karar verilmesini isteyebilir.
52
+ - source_sentence: Davacı vekili dava dilekçesinde özetle; Davacı dava dilekçesinde
53
+ özetle; 31/10/2014 tarihinde bağlı olduğu Vergi Dairesinde kayıtlı iş yeri adresini,
54
+ işlerinin bozulmasından dolayı terk etmek zorunda kalındığını, başka bir adreste
55
+ faaliyete geçmediklerini, bu sebeple vergi kayıtlarının silindiğini, şirketin
56
+ ticaret sicilinde halen faal olarak gözüktüğünü, bağkur mülkiyetlerinin de sonlandıramayıp
57
+ kapatamadıkları için mağduriyet yaşadıklarını, ticaret sicilinden silinme için
58
+ başvurduklarını ancak dava tarihine kadar herhangi bir işlem yapılmadığını, açıklanan
59
+ sebeplerle Ticaret Sicil Müdürlüğünün sicil numarasında kayıtlı şirketin kaydının
60
+ silinmesini talep ve dava etmiştir.
61
+ sentences:
62
+ - Davacı vekili dava dilekçesinde özetle; Tic. Ltd. Şti. tarafından ticari ilişki
63
+ gereği davacı lehine düzenlenen Şubesi nezdinde IBAN nolu hesaba ait seri numaralı
64
+ keşide yeri İstanbul, 11/07/2020 keşide tarihli, 16.700,00-TL bedelli çekin davacı
65
+ şirketin elindeyken zayi olduğunu beyanla çekin zayi nedeniyle iptaline karar
66
+ verilmesini talep ve dava etmiştir.
67
+ - Davacı vekili dava dilekçesinde özetle; ile müvekkili arasında İstanbul Anadolu
68
+ İş Mahkemesi'nin esas sayılı dosyası ile alacak davası görüldüğünü, şirketin sicilden
69
+ terkin olması nedeniyle tebligat yapılamadığını ve dosyada taraf teşkilinin sağlanamadığını
70
+ belirterek ihyasına karar verilmesini talep ve dava etmiştir.
71
+ - Mahkeme, dilekçe sahibinin, poliçe elinde iken zıyaa uğradığına dair verdiği açıklamaları
72
+ inandırıcı bulursa, verilecek ilanla, poliçeyi eline geçireni, poliçeyi belirli
73
+ bir süre içinde getirmeye davet ve aksi takdirde poliçenin iptaline karar vereceğini
74
+ ihtar eder.
75
+ - source_sentence: Davacı vekili dava dilekçesinde özetle; müvekkilinin 1 adet çeki
76
+ zayii ettiğini bu nedenle çek üzerine ödeme yasağı konularak iptaline karar verilmesini
77
+ talep ve dava etmiştir.
78
+ sentences:
79
+ - Kıymetli evrak zayi olduğu takdirde mahkeme tarafından iptaline karar verilebilir.Kıymetli
80
+ evrakın zayi olduğu veya zıyaın ortaya çıktığı anda senet üzerinde hak sahibi
81
+ olan kişi, senedin iptaline karar verilmesini isteyebilir.
82
+ - Davacı vekili dava dilekçesinde özetle; davalılardan ile ibraz ettiğini, davacının
83
+ ibraz ettiği çekin sahte olduğunu, çekteki imzanın davacıya ait olmadığını, davalı
84
+ çeki incelemeden ödeme yaptığını, mağduriyetin giderilmesi için sayılı dosyası
85
+ ile icra takibi başlatıldığını, takibin itiraz üzerine durduğunu belirtmiş, sayılı
86
+ takip dosyasına davalılar tarafından yapılan itirazın iptaline, takibin devamına,
87
+ davalılar aleyhine %20 icra inkar tazminatına hükmedilmesine karar verilmesini
88
+ talep etmiştir.
89
+ - Davacı vekili dava dilekçesinde özetle, müvekkili şirkete keşide edilen 25/08/2020
90
+ tarihli T Bankası Şubesi 8517461 nolu tacir çekinin müvekkili uhtesindeyken kaybedildiğini,
91
+ çekin keşideci Bilişim Elektrik ve Elektronik İnşaat San ve Tic.Ltd.Şti. Tarafından
92
+ 30.000 USD miktarlı olarak meşru hamili iken kaybı nedeniyle çekin 3. kişilerin
93
+ eline geçmesi ihtimali nedeniyle iş bu davanın ikame edildiğini bildirmiş, takdir
94
+ edilecek teminat mukabili ödeme yasağı kararı verilerek durumun ilgili bankaya
95
+ bildirilmesi ve çekin zayi nedeniyle iptaline karar verilmesini istemiştir.
96
+ - source_sentence: Davacı vekili dava dilekçesinde özetle; sıra nolu tutarlı çek (
97
+ İbraz tarihi sıra nolu tutarlı çek ( İbraz tarihi sıra nolu keşide tarihi çeklerin
98
+ zayi olduğundan bahisle çeklerin iptaline karar verilmesini talep ve dava etmiştir.
99
+ sentences:
100
+ - Davacı vekili dava dilekçesinde özetle; bank A.Ş. Şubesine ait 2 adet çekin müvekkilin
101
+ elinde kaybolduğunu, çekin yetkili hamilinin müvekkil olduğunu, müvekkilin borçlu
102
+ Dış Ticaret Ve San. Ltd. Şti.'ne haksız bir ödeme yapmak zorunda kalarak zarara
103
+ uğramaması için çek hakkında ödeme yasağı kararı verilmesi gerektiğini, teslim
104
+ alındığı sırada çek fotoğrafının müvekkil tarafından saklandığını, bu nedenlerle
105
+ 2 adet çeke teminat karşılığında ödemeden men yasağı kararı verilmesine, yargılama
106
+ sonunda da çekin kaybolması nedeniyle iptaline karar verilmesini talep ve dava
107
+ etmiştir.
108
+ - İradesi dışında poliçe elinden çıkan kişi, ödeme veya hamilin yerleşim yerindeki
109
+ asliye ticaret mahkemesinden, muhatabın poliçeyi ödemekten menedilmesini isteyebilir.Mahkeme,
110
+ ödemeyi meneden kararında muhataba, vadenin gelmesi üzerine poliçe bedelini tevdi
111
+ etmeye izin verir ve tevdi yerini gösterir.
112
+ - Davacı vekili dava dilekçesinde özetle; müvekkillerinin her türlü ticari defter
113
+ ve kayıtlarının tutulduğu bilgisayarların bilişim sistemlerine girme saldırısı
114
+ yaşadığını, şirketlerin tüm verilerinin hacklendiğini beyanla; TTK 82/7. Maddesi
115
+ uyarınca 2020 yılı Nisan ayından itibaren tutulan tüm defter, fatura ve sair belgelerin
116
+ zayi olduğunun tespitine karar verilmesini talep ve dava etmiştir.
117
+ pipeline_tag: sentence-similarity
118
+ library_name: sentence-transformers
119
+ metrics:
120
+ - pearson_cosine
121
+ - spearman_cosine
122
+ model-index:
123
+ - name: SentenceTransformer based on distilbert/distilroberta-base
124
+ results:
125
+ - task:
126
+ type: semantic-similarity
127
+ name: Semantic Similarity
128
+ dataset:
129
+ name: tr dev
130
+ type: tr-dev
131
+ metrics:
132
+ - type: pearson_cosine
133
+ value: 0.9286904784110396
134
+ name: Pearson Cosine
135
+ - type: spearman_cosine
136
+ value: 0.9261864868985737
137
+ name: Spearman Cosine
138
+ ---
139
+
140
+ # SentenceTransformer based on distilbert/distilroberta-base
141
+
142
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [distilbert/distilroberta-base](https://huggingface.co/distilbert/distilroberta-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
143
+
144
+ ## Model Details
145
+
146
+ ### Model Description
147
+ - **Model Type:** Sentence Transformer
148
+ - **Base model:** [distilbert/distilroberta-base](https://huggingface.co/distilbert/distilroberta-base) <!-- at revision fb53ab8802853c8e4fbdbcd0529f21fc6f459b2b -->
149
+ - **Maximum Sequence Length:** 256 tokens
150
+ - **Output Dimensionality:** 768 dimensions
151
+ - **Similarity Function:** Cosine Similarity
152
+ <!-- - **Training Dataset:** Unknown -->
153
+ <!-- - **Language:** Unknown -->
154
+ <!-- - **License:** Unknown -->
155
+
156
+ ### Model Sources
157
+
158
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
159
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
160
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
161
+
162
+ ### Full Model Architecture
163
+
164
+ ```
165
+ SentenceTransformer(
166
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
167
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
168
+ )
169
+ ```
170
+
171
+ ## Usage
172
+
173
+ ### Direct Usage (Sentence Transformers)
174
+
175
+ First install the Sentence Transformers library:
176
+
177
+ ```bash
178
+ pip install -U sentence-transformers
179
+ ```
180
+
181
+ Then you can load this model and run inference.
182
+ ```python
183
+ from sentence_transformers import SentenceTransformer
184
+
185
+ # Download from the 🤗 Hub
186
+ model = SentenceTransformer("msbayindir/legal-text-embedding-turkish-v1")
187
+ # Run inference
188
+ sentences = [
189
+ 'Davacı vekili dava dilekçesinde özetle; sıra nolu tutarlı çek ( İbraz tarihi sıra nolu tutarlı çek ( İbraz tarihi sıra nolu keşide tarihi çeklerin zayi olduğundan bahisle çeklerin iptaline karar verilmesini talep ve dava etmiştir.',
190
+ 'Davacı vekili dava dilekçesinde özetle; müvekkillerinin her türlü ticari defter ve kayıtlarının tutulduğu bilgisayarların bilişim sistemlerine girme saldırısı yaşadığını, şirketlerin tüm verilerinin hacklendiğini beyanla; TTK 82/7. Maddesi uyarınca 2020 yılı Nisan ayından itibaren tutulan tüm defter, fatura ve sair belgelerin zayi olduğunun tespitine karar verilmesini talep ve dava etmiştir.',
191
+ "Davacı vekili dava dilekçesinde özetle; bank A.Ş. Şubesine ait 2 adet çekin müvekkilin elinde kaybolduğunu, çekin yetkili hamilinin müvekkil olduğunu, müvekkilin borçlu Dış Ticaret Ve San. Ltd. Şti.'ne haksız bir ödeme yapmak zorunda kalarak zarara uğramaması için çek hakkında ödeme yasağı kararı verilmesi gerektiğini, teslim alındığı sırada çek fotoğrafının müvekkil tarafından saklandığını, bu nedenlerle 2 adet çeke teminat karşılığında ödemeden men yasağı kararı verilmesine, yargılama sonunda da çekin kaybolması nedeniyle iptaline karar verilmesini talep ve dava etmiştir.",
192
+ ]
193
+ embeddings = model.encode(sentences)
194
+ print(embeddings.shape)
195
+ # [3, 768]
196
+
197
+ # Get the similarity scores for the embeddings
198
+ similarities = model.similarity(embeddings, embeddings)
199
+ print(similarities.shape)
200
+ # [3, 3]
201
+ ```
202
+
203
+ <!--
204
+ ### Direct Usage (Transformers)
205
+
206
+ <details><summary>Click to see the direct usage in Transformers</summary>
207
+
208
+ </details>
209
+ -->
210
+
211
+ <!--
212
+ ### Downstream Usage (Sentence Transformers)
213
+
214
+ You can finetune this model on your own dataset.
215
+
216
+ <details><summary>Click to expand</summary>
217
+
218
+ </details>
219
+ -->
220
+
221
+ <!--
222
+ ### Out-of-Scope Use
223
+
224
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
225
+ -->
226
+
227
+ ## Evaluation
228
+
229
+ ### Metrics
230
+
231
+ #### Semantic Similarity
232
+
233
+ * Dataset: `tr-dev`
234
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
235
+
236
+ | Metric | Value |
237
+ |:--------------------|:-----------|
238
+ | pearson_cosine | 0.9287 |
239
+ | **spearman_cosine** | **0.9262** |
240
+
241
+ <!--
242
+ ## Bias, Risks and Limitations
243
+
244
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
245
+ -->
246
+
247
+ <!--
248
+ ### Recommendations
249
+
250
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
251
+ -->
252
+
253
+ ## Training Details
254
+
255
+ ### Training Dataset
256
+
257
+ #### Unnamed Dataset
258
+
259
+
260
+ * Size: 23,103 training samples
261
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
262
+ * Approximate statistics based on the first 1000 samples:
263
+ | | sentence1 | sentence2 | score |
264
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
265
+ | type | string | string | float |
266
+ | details | <ul><li>min: 23 tokens</li><li>mean: 174.44 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 35 tokens</li><li>mean: 173.08 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 0.13</li><li>mean: 0.6</li><li>max: 1.0</li></ul> |
267
+ * Samples:
268
+ | sentence1 | sentence2 | score |
269
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------|
270
+ | <code>Davacı vekili dava dilekçesinde özetle, müvekkilinin elinde bulanan ve keşidecisinin müvekkili olduğunu beyan ettiği 3 adet çekin zayi olduğunu, ilgili çekler üzerine ihtiyati tedbir ile ödemeden men yasağı kararı verilmesini ve dava konusu çeklerin iptaline karar verilmesini talep ve dava etmiştir.</code> | <code>Davacı vekili dava dilekçesinde özetle; müvekkillerinin her türlü ticari defter ve kayıtlarının tutulduğu bilgisayarların bilişim sistemlerine girme saldırısı yaşadığını, şirketlerin tüm verilerinin hacklendiğini beyanla; TTK 82/7. Maddesi uyarınca 2020 yılı Nisan ayından itibaren tutulan tüm defter, fatura ve sair belgelerin zayi olduğunun tespitine karar verilmesini talep ve dava etmiştir.</code> | <code>0.5695858597755432</code> |
271
+ | <code>Davacı vekili dava dilekçesinde özetle; bank Şubesine ait, Keşidecisi Tic. A.Ş. olan, Seri Numaralı, 24.01.2015 keşide tarihli, 25.000 TL bedelli, bank Şubesine ait, Keşidecisi Tic. A.Ş. olan Seri Numaralı, 24.02.2015 keşide tarihli, 25.000 TL bedelli ve bank Şubesine ait, Keşidecisi A.Ş. olan Seri Numaralı, 29.12.2010 keşide tarihli, 5.000 TL bedelli çeklerin kaybolduğunu, bu nedenle çeklerin iptaline karar verilmesini talep ve dava etmiştir.</code> | <code>Davacı vekili dava dilekçesinde özetle; müvekkilin Bankası Şubesi'ne ait 26.500,00 TL lik çeki zilyedinde iken kaybettiğini, çeki tüm aramalarına rağmen bulamadığını, çekin yetkili hamili ve lehtarı olduğunu, bu nedenlerle çek üzerine ödeme yasağı konulmasını, çekin iptaline karar verilmesini talep ve dava etmiştir.</code> | <code>0.74713134765625</code> |
272
+ | <code>Davacı vekili dava dilekçesinde özetle; müvekkili şirketin keşidecisi, Bankası Şubesi'nin aval veren , dava dışı Tekstil San. Ve Tic. Ltd.Şti'nin muhatabı olduğu 15/06/2017 tarih 103.000,00 TL bedelli ve 21/06/2018 vade tarihli poliçenin müvekkilinin elinde iken kaybolduğunu, poliçe aslının yapılan tüm aramalara rağmen şirket kasasında bulunamadığını, dava konusu poliçe bedelinin ödenmesinin tedbiren önlenmesini ,yargılama sonunda TTK 757 md gere- ğince zayi nedeniyle poliçenin iptalini talep ve dava etmiştir.</code> | <code>İradesi dışında poliçe elinden çıkan kişi, ödeme veya hamilin yerleşim yerindeki asliye ticaret mahkemesinden, muhatabın poliçeyi ödemekten menedilmesini isteyebilir.Mahkeme, ödemeyi meneden kararında muhataba, vadenin gelmesi üzerine poliçe bedelini tevdi etmeye izin verir ve tevdi yerini gösterir.</code> | <code>0.4938291609287262</code> |
273
+ * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
274
+ ```json
275
+ {
276
+ "loss_fct": "torch.nn.modules.loss.MSELoss"
277
+ }
278
+ ```
279
+
280
+ ### Evaluation Dataset
281
+
282
+ #### Unnamed Dataset
283
+
284
+
285
+ * Size: 5,776 evaluation samples
286
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
287
+ * Approximate statistics based on the first 1000 samples:
288
+ | | sentence1 | sentence2 | score |
289
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
290
+ | type | string | string | float |
291
+ | details | <ul><li>min: 23 tokens</li><li>mean: 177.14 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 31 tokens</li><li>mean: 171.69 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 0.07</li><li>mean: 0.6</li><li>max: 1.0</li></ul> |
292
+ * Samples:
293
+ | sentence1 | sentence2 | score |
294
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------|
295
+ | <code>Davacı vekili dava dilekçesinde özetle; Müvekkili şirkete sonucu ciro yolu ile verilen, zayi olduğunu, müvekkilinin haklı ve yasal hamili bulunduğu sırada zayi edilen bu çeklerin kötüniyetli üçüncü şahısların eline geçmesi ve müvekkilinin mağdur duruma düşürülmesi mümkün olduğundan zayi edilen bu çek bedelleri üzerine öncelikle ödeme yasağı tesis edilmesine ve bilahare çeklerin iptaline karar verilmesini dava ve talep etmiştir.</code> | <code>İradesi dışında poliçe elinden çıkan kişi, ödeme veya hamilin yerleşim yerindeki asliye ticaret mahkemesinden, muhatabın poliçeyi ödemekten menedilmesini isteyebilir.Mahkeme, ödemeyi meneden kararında muhataba, vadenin gelmesi üzerine poliçe bedelini tevdi etmeye izin verir ve tevdi yerini gösterir.</code> | <code>0.7115448713302612</code> |
296
+ | <code>Davacı vekili dava dilekçesinde özetle; müvekkilinin dilekçe içeriğinde bildirdiği çekin yasal hamili olduğunu, çekin kaybediğildiğini belirterek çekin üzerine ödeme yasağı konulması ile çekin iptaline karar verilmesini talep ve dava etmiştir.</code> | <code>Kıymetli evrak zayi olduğu takdirde mahkeme tarafından iptaline karar verilebilir.Kıymetli evrakın zayi olduğu veya zıyaın ortaya çıktığı anda senet üzerinde hak sahibi olan kişi, senedin iptaline karar verilmesini isteyebilir.</code> | <code>0.53521329164505</code> |
297
+ | <code>Davacı vekili dava dilekçesinde özetle; müvekkilinin dilekçe içeriğinde bildirdiği çekin yasal hamili olduğunu, çekin kaybediğildiğini belirterek çekin üzerine ödeme yasağı konulması ile çekin iptaline karar verilmesini talep ve dava etmiştir.</code> | <code>İradesi dışında poliçe elinden çıkan kişi, ödeme veya hamilin yerleşim yerindeki asliye ticaret mahkemesinden, muhatabın poliçeyi ödemekten menedilmesini isteyebilir.Mahkeme, ödemeyi meneden kararında muhataba, vadenin gelmesi üzerine poliçe bedelini tevdi etmeye izin verir ve tevdi yerini gösterir.</code> | <code>0.6673290133476257</code> |
298
+ * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
299
+ ```json
300
+ {
301
+ "loss_fct": "torch.nn.modules.loss.MSELoss"
302
+ }
303
+ ```
304
+
305
+ ### Training Hyperparameters
306
+ #### Non-Default Hyperparameters
307
+
308
+ - `eval_strategy`: epoch
309
+ - `per_device_train_batch_size`: 64
310
+ - `per_device_eval_batch_size`: 64
311
+ - `num_train_epochs`: 4
312
+ - `warmup_ratio`: 0.1
313
+ - `fp16`: True
314
+ - `batch_sampler`: no_duplicates
315
+
316
+ #### All Hyperparameters
317
+ <details><summary>Click to expand</summary>
318
+
319
+ - `overwrite_output_dir`: False
320
+ - `do_predict`: False
321
+ - `eval_strategy`: epoch
322
+ - `prediction_loss_only`: True
323
+ - `per_device_train_batch_size`: 64
324
+ - `per_device_eval_batch_size`: 64
325
+ - `per_gpu_train_batch_size`: None
326
+ - `per_gpu_eval_batch_size`: None
327
+ - `gradient_accumulation_steps`: 1
328
+ - `eval_accumulation_steps`: None
329
+ - `torch_empty_cache_steps`: None
330
+ - `learning_rate`: 5e-05
331
+ - `weight_decay`: 0.0
332
+ - `adam_beta1`: 0.9
333
+ - `adam_beta2`: 0.999
334
+ - `adam_epsilon`: 1e-08
335
+ - `max_grad_norm`: 1.0
336
+ - `num_train_epochs`: 4
337
+ - `max_steps`: -1
338
+ - `lr_scheduler_type`: linear
339
+ - `lr_scheduler_kwargs`: {}
340
+ - `warmup_ratio`: 0.1
341
+ - `warmup_steps`: 0
342
+ - `log_level`: passive
343
+ - `log_level_replica`: warning
344
+ - `log_on_each_node`: True
345
+ - `logging_nan_inf_filter`: True
346
+ - `save_safetensors`: True
347
+ - `save_on_each_node`: False
348
+ - `save_only_model`: False
349
+ - `restore_callback_states_from_checkpoint`: False
350
+ - `no_cuda`: False
351
+ - `use_cpu`: False
352
+ - `use_mps_device`: False
353
+ - `seed`: 42
354
+ - `data_seed`: None
355
+ - `jit_mode_eval`: False
356
+ - `use_ipex`: False
357
+ - `bf16`: False
358
+ - `fp16`: True
359
+ - `fp16_opt_level`: O1
360
+ - `half_precision_backend`: auto
361
+ - `bf16_full_eval`: False
362
+ - `fp16_full_eval`: False
363
+ - `tf32`: None
364
+ - `local_rank`: 0
365
+ - `ddp_backend`: None
366
+ - `tpu_num_cores`: None
367
+ - `tpu_metrics_debug`: False
368
+ - `debug`: []
369
+ - `dataloader_drop_last`: False
370
+ - `dataloader_num_workers`: 0
371
+ - `dataloader_prefetch_factor`: None
372
+ - `past_index`: -1
373
+ - `disable_tqdm`: False
374
+ - `remove_unused_columns`: True
375
+ - `label_names`: None
376
+ - `load_best_model_at_end`: False
377
+ - `ignore_data_skip`: False
378
+ - `fsdp`: []
379
+ - `fsdp_min_num_params`: 0
380
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
381
+ - `fsdp_transformer_layer_cls_to_wrap`: None
382
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
383
+ - `deepspeed`: None
384
+ - `label_smoothing_factor`: 0.0
385
+ - `optim`: adamw_torch
386
+ - `optim_args`: None
387
+ - `adafactor`: False
388
+ - `group_by_length`: False
389
+ - `length_column_name`: length
390
+ - `ddp_find_unused_parameters`: None
391
+ - `ddp_bucket_cap_mb`: None
392
+ - `ddp_broadcast_buffers`: False
393
+ - `dataloader_pin_memory`: True
394
+ - `dataloader_persistent_workers`: False
395
+ - `skip_memory_metrics`: True
396
+ - `use_legacy_prediction_loop`: False
397
+ - `push_to_hub`: False
398
+ - `resume_from_checkpoint`: None
399
+ - `hub_model_id`: None
400
+ - `hub_strategy`: every_save
401
+ - `hub_private_repo`: None
402
+ - `hub_always_push`: False
403
+ - `gradient_checkpointing`: False
404
+ - `gradient_checkpointing_kwargs`: None
405
+ - `include_inputs_for_metrics`: False
406
+ - `include_for_metrics`: []
407
+ - `eval_do_concat_batches`: True
408
+ - `fp16_backend`: auto
409
+ - `push_to_hub_model_id`: None
410
+ - `push_to_hub_organization`: None
411
+ - `mp_parameters`:
412
+ - `auto_find_batch_size`: False
413
+ - `full_determinism`: False
414
+ - `torchdynamo`: None
415
+ - `ray_scope`: last
416
+ - `ddp_timeout`: 1800
417
+ - `torch_compile`: False
418
+ - `torch_compile_backend`: None
419
+ - `torch_compile_mode`: None
420
+ - `dispatch_batches`: None
421
+ - `split_batches`: None
422
+ - `include_tokens_per_second`: False
423
+ - `include_num_input_tokens_seen`: False
424
+ - `neftune_noise_alpha`: None
425
+ - `optim_target_modules`: None
426
+ - `batch_eval_metrics`: False
427
+ - `eval_on_start`: False
428
+ - `use_liger_kernel`: False
429
+ - `eval_use_gather_object`: False
430
+ - `average_tokens_across_devices`: False
431
+ - `prompts`: None
432
+ - `batch_sampler`: no_duplicates
433
+ - `multi_dataset_batch_sampler`: proportional
434
+
435
+ </details>
436
+
437
+ ### Training Logs
438
+ | Epoch | Step | Training Loss | Validation Loss | tr-dev_spearman_cosine |
439
+ |:------:|:----:|:-------------:|:---------------:|:----------------------:|
440
+ | 0 | 0 | - | - | 0.2161 |
441
+ | 0.2770 | 100 | 0.0626 | - | - |
442
+ | 0.5540 | 200 | 0.0102 | - | - |
443
+ | 0.8310 | 300 | 0.0082 | - | - |
444
+ | 1.0028 | 362 | - | 0.0085 | 0.7776 |
445
+ | 1.1053 | 400 | 0.0095 | - | - |
446
+ | 1.3823 | 500 | 0.0061 | - | - |
447
+ | 1.6593 | 600 | 0.005 | - | - |
448
+ | 1.9363 | 700 | 0.0047 | - | - |
449
+ | 2.0028 | 724 | - | 0.0054 | 0.8873 |
450
+ | 2.2105 | 800 | 0.005 | - | - |
451
+ | 2.4875 | 900 | 0.0042 | - | - |
452
+ | 2.7645 | 1000 | 0.0034 | - | - |
453
+ | 3.0028 | 1086 | - | 0.0032 | 0.9026 |
454
+ | 3.0388 | 1100 | 0.0032 | - | - |
455
+ | 3.3158 | 1200 | 0.0038 | - | - |
456
+ | 3.5928 | 1300 | 0.0032 | - | - |
457
+ | 3.8698 | 1400 | 0.0024 | - | - |
458
+ | 3.9917 | 1444 | - | 0.0026 | 0.9262 |
459
+
460
+
461
+ ### Framework Versions
462
+ - Python: 3.11.11
463
+ - Sentence Transformers: 3.3.1
464
+ - Transformers: 4.47.1
465
+ - PyTorch: 2.5.1+cu124
466
+ - Accelerate: 1.2.1
467
+ - Datasets: 3.2.0
468
+ - Tokenizers: 0.21.0
469
+
470
+ ## Citation
471
+
472
+ ### BibTeX
473
+
474
+ #### Sentence Transformers
475
+ ```bibtex
476
+ @inproceedings{reimers-2019-sentence-bert,
477
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
478
+ author = "Reimers, Nils and Gurevych, Iryna",
479
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
480
+ month = "11",
481
+ year = "2019",
482
+ publisher = "Association for Computational Linguistics",
483
+ url = "https://arxiv.org/abs/1908.10084",
484
+ }
485
+ ```
486
+
487
+ <!--
488
+ ## Glossary
489
+
490
+ *Clearly define terms in order to be accessible across audiences.*
491
+ -->
492
+
493
+ <!--
494
+ ## Model Card Authors
495
+
496
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
497
+ -->
498
+
499
+ <!--
500
+ ## Model Card Contact
501
+
502
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
503
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "distilroberta-base",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 6,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.47.1",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 50265
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.47.1",
5
+ "pytorch": "2.5.1+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1d3b4686f6d2ab6c9ea8f58b591d39222c06115057ff3b2344e5a66121c3ac15
3
+ size 328485128
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": {
6
+ "content": "<mask>",
7
+ "lstrip": true,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false
11
+ },
12
+ "pad_token": "<pad>",
13
+ "sep_token": "</s>",
14
+ "unk_token": "<unk>"
15
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,58 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": false,
3
+ "added_tokens_decoder": {
4
+ "0": {
5
+ "content": "<s>",
6
+ "lstrip": false,
7
+ "normalized": true,
8
+ "rstrip": false,
9
+ "single_word": false,
10
+ "special": true
11
+ },
12
+ "1": {
13
+ "content": "<pad>",
14
+ "lstrip": false,
15
+ "normalized": true,
16
+ "rstrip": false,
17
+ "single_word": false,
18
+ "special": true
19
+ },
20
+ "2": {
21
+ "content": "</s>",
22
+ "lstrip": false,
23
+ "normalized": true,
24
+ "rstrip": false,
25
+ "single_word": false,
26
+ "special": true
27
+ },
28
+ "3": {
29
+ "content": "<unk>",
30
+ "lstrip": false,
31
+ "normalized": true,
32
+ "rstrip": false,
33
+ "single_word": false,
34
+ "special": true
35
+ },
36
+ "50264": {
37
+ "content": "<mask>",
38
+ "lstrip": true,
39
+ "normalized": false,
40
+ "rstrip": false,
41
+ "single_word": false,
42
+ "special": true
43
+ }
44
+ },
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": false,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "errors": "replace",
50
+ "extra_special_tokens": {},
51
+ "mask_token": "<mask>",
52
+ "model_max_length": 512,
53
+ "pad_token": "<pad>",
54
+ "sep_token": "</s>",
55
+ "tokenizer_class": "RobertaTokenizer",
56
+ "trim_offsets": true,
57
+ "unk_token": "<unk>"
58
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff