Dataset Viewer
modelId
stringlengths 5
139
| author
stringlengths 2
42
| last_modified
timestamp[us, tz=UTC]date 2020-02-15 11:33:14
2025-06-02 08:43:47
| downloads
int64 0
223M
| likes
int64 0
11.7k
| library_name
stringclasses 462
values | tags
sequencelengths 1
4.05k
| pipeline_tag
stringclasses 54
values | createdAt
timestamp[us, tz=UTC]date 2022-03-02 23:29:04
2025-06-02 08:40:46
| card
stringlengths 11
1.01M
|
---|---|---|---|---|---|---|---|---|---|
18-Mary-Claire-Haver-Videos/FULL.VIDEO.Mary.Claire.Haver.Viral.Video.Tutorial.Trending.Now | 18-Mary-Claire-Haver-Videos | 2025-06-02T04:40:22 | 0 | 0 | null | [
"region:us"
] | null | 2025-06-02T04:29:55 | 07 seconds ago - Mary Claire Haver Viral Video L.ea𝚔ed Original Video Viral On Social Media the internet by storm and amazed viewers on various social media platforms.
[](https://tinyurl.com/bddrvst3)
.
.
..
.
..
.
. |
raosdi/PooRvia1 | raosdi | 2025-06-01T23:31:40 | 0 | 0 | adapter-transformers | [
"adapter-transformers",
"gguf",
"code",
"text-generation-inference",
"text-generation",
"es",
"dataset:dougiefresh/systems_programming_code_conversations",
"arxiv:1910.09700",
"base_model:google/gemma-3-4b-it",
"base_model:adapter:google/gemma-3-4b-it",
"license:afl-3.0",
"endpoints_compatible",
"region:us",
"conversational"
] | text-generation | 2025-06-01T21:24:39 | ---
license: afl-3.0
datasets:
- dougiefresh/systems_programming_code_conversations
language:
- es
metrics:
- code_eval
base_model:
- google/gemma-3-4b-it
pipeline_tag: text-generation
library_name: adapter-transformers
tags:
- code
- text-generation-inference
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
This modelcard aims to be a base template for new models. It has been generated using [this raw template](https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/modelcard_template.md?plain=1).
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
damienbenveniste/mistral-sft | damienbenveniste | 2025-06-01T23:00:26 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"mistral",
"text-generation",
"generated_from_trainer",
"trl",
"sft",
"base_model:damienbenveniste/mistral-pretraining",
"base_model:finetune:damienbenveniste/mistral-pretraining",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-06-01T23:00:10 | ---
base_model: damienbenveniste/mistral-pretraining
library_name: transformers
model_name: mistral-sft
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for mistral-sft
This model is a fine-tuned version of [damienbenveniste/mistral-pretraining](https://huggingface.co/damienbenveniste/mistral-pretraining).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="damienbenveniste/mistral-sft", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.18.1
- Transformers: 4.52.4
- Pytorch: 2.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
``` |
vignesh-waran/results_trainer | vignesh-waran | 2025-06-01T22:26:04 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"bert",
"text-classification",
"generated_from_trainer",
"base_model:google-bert/bert-base-cased",
"base_model:finetune:google-bert/bert-base-cased",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | text-classification | 2025-06-01T22:25:37 | ---
library_name: transformers
license: apache-2.0
base_model: bert-base-cased
tags:
- generated_from_trainer
metrics:
- accuracy
- f1
- precision
- recall
model-index:
- name: results_trainer
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# results_trainer
This model is a fine-tuned version of [bert-base-cased](https://huggingface.co/bert-base-cased) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.4355
- Accuracy: 0.798
- F1: 0.7720
- Precision: 0.7355
- Recall: 0.8124
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 1e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 108
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 100
- num_epochs: 3
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy | F1 | Precision | Recall |
|:-------------:|:-----:|:----:|:---------------:|:--------:|:------:|:---------:|:------:|
| 0.4884 | 1.0 | 250 | 0.4791 | 0.765 | 0.7029 | 0.7514 | 0.6603 |
| 0.3626 | 2.0 | 500 | 0.4355 | 0.798 | 0.7720 | 0.7355 | 0.8124 |
| 0.371 | 3.0 | 750 | 0.4388 | 0.803 | 0.7688 | 0.7599 | 0.7779 |
### Framework versions
- Transformers 4.52.4
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.21.1
|
ReadyArt/Omega-Darker_The-Final-Directive-12B_EXL3_8.0bpw_H8 | ReadyArt | 2025-06-01T22:13:11 | 0 | 0 | null | [
"safetensors",
"mistral",
"nsfw",
"explicit",
"roleplay",
"unaligned",
"ERP",
"Erotic",
"Horror",
"Violence",
"text-generation",
"conversational",
"en",
"base_model:ReadyArt/Omega-Darker_The-Final-Directive-12B",
"base_model:quantized:ReadyArt/Omega-Darker_The-Final-Directive-12B",
"license:apache-2.0",
"8-bit",
"exl3",
"region:us"
] | text-generation | 2025-06-01T22:09:49 | ---
license: apache-2.0
language:
- en
base_model:
- ReadyArt/Omega-Darker_The-Final-Directive-12B
base_model_relation: quantized
pipeline_tag: text-generation
tags:
- nsfw
- explicit
- roleplay
- unaligned
- ERP
- Erotic
- Horror
- Violence
---
<style>
body {
font-family: 'Quicksand', sans-serif;
background: linear-gradient(135deg, #0a1a1a 0%, #001010 100%);
color: #e1ffff !important;
text-shadow: 0 0 3px rgba(0, 0, 0, 0.7);
margin: 0;
padding: 20px;
transition: all 0.5s ease;
}
@media (prefers-color-scheme: light) {
body {
background: linear-gradient(135deg, #e1ffff 0%, #c0f0ff 100%);
color: #002b36 !important;
text-shadow: 0 0 3px rgba(255, 255, 255, 0.7);
}
}
.container {
min-width: 100%;
margin: 0 auto;
max-width: 1200px;
background: rgba(0, 17, 22, 0.95);
border-radius: 12px;
padding: 30px;
box-shadow: 0 0 20px rgba(0, 255, 255, 0.1);
border: 1px solid rgba(0, 255, 255, 0.2);
position: relative;
overflow: hidden;
}
.container::before {
content: '';
position: absolute;
top: -1px;
left: -1px;
right: -1px;
bottom: -1px;
border: 1px solid rgba(0, 255, 255, 0.5);
border-radius: 12px;
pointer-events: none;
animation: borderGlow 3s ease-in-out infinite alternate;
}
@keyframes borderGlow {
0% {
box-shadow: 0 0 5px rgba(0, 255, 255, 0.3);
border-color: rgba(0, 255, 255, 0.5);
}
50% {
box-shadow: 0 0 15px rgba(255, 0, 255, 0.3);
border-color: rgba(255, 0, 255, 0.5);
}
100% {
box-shadow: 0 0 5px rgba(0, 255, 255, 0.3);
border-color: rgba(0, 255, 255, 0.5);
}
}
.header {
text-align: center;
margin-bottom: 30px;
position: relative;
}
.header::after {
content: '';
position: absolute;
bottom: -15px;
left: 25%;
right: 25%;
height: 1px;
background: linear-gradient(90deg, transparent, rgba(0, 255, 255, 0.5), transparent);
animation: scanline 8s linear infinite;
display: none;
}
@keyframes scanline {
0% { background-position: -100% 0; }
100% { background-position: 200% 0; }
}
.model-name {
color: #00ffff;
font-size: 2.5em;
text-shadow: 0 0 15px rgba(0, 255, 255, 0.5);
margin: 0;
letter-spacing: -1px;
animation: textGlow 4s ease-in-out infinite alternate;
}
@keyframes textGlow {
0% { text-shadow: 0 0 15px rgba(0, 255, 255, 0.5); }
50% { text-shadow: 0 0 20px rgba(255, 0, 255, 0.5); }
100% { text-shadow: 0 0 15px rgba(0, 255, 255, 0.5); }
}
.subtitle {
color: #00ffcc;
font-size: 1.2em;
margin-top: 10px;
animation: subtitleFade 6s ease-in-out infinite;
}
@keyframes subtitleFade {
0%, 100% { opacity: 0.8; }
50% { opacity: 1; }
}
.waifu-container {
margin: 20px -30px;
width: calc(100% + 60px);
overflow: hidden;
border-radius: 8px;
border: 1px solid rgba(0, 255, 255, 0.3);
position: relative;
}
.waifu-container::before {
content: '';
position: absolute;
top: 0;
left: 0;
right: 0;
bottom: 0;
background: linear-gradient(45deg,
rgba(0, 255, 255, 0.1) 0%,
transparent 20%,
transparent 80%,
rgba(255, 0, 255, 0.1) 100%);
pointer-events: none;
animation: gradientSlide 10s linear infinite;
}
@keyframes gradientSlide {
0% { background-position: 0% 0%; }
100% { background-position: 100% 100%; }
}
.waifu-img {
width: 100%;
height: auto;
border-radius: 0;
border: none;
box-shadow: 0 0 40px rgba(0, 255, 255, 0.2);
transition: transform 0.5s ease;
}
.waifu-img:hover {
transform: scale(1.01);
}
.section {
color: #e1ffff;
margin: 25px 0;
padding: 20px;
background: rgba(5, 25, 35, 0.9);
border-radius: 8px;
border: 1px solid rgba(0, 255, 255, 0.15);
position: relative;
transition: all 0.3s ease;
}
.section:hover {
border-color: rgba(255, 0, 255, 0.3);
box-shadow: 0 0 15px rgba(0, 255, 255, 0.1);
}
.section::before {
content: '';
position: absolute;
top: -1px;
left: -1px;
right: -1px;
bottom: -1px;
border: 1px solid rgba(0, 255, 255, 0.3);
border-radius: 8px;
pointer-events: none;
animation: sectionPulse 5s ease-in-out infinite;
}
@keyframes sectionPulse {
0%, 100% { opacity: 0.7; }
50% { opacity: 0.3; }
}
.section-title {
color: #00ffff;
font-size: 1.8em;
margin-top: 0;
text-shadow: 0 0 5px rgba(0, 255, 255, 0.3);
position: relative;
display: inline-block;
}
.section-title::after {
content: '';
position: absolute;
bottom: -5px;
left: 0;
width: 100%;
height: 1px;
background: linear-gradient(90deg, rgba(0, 255, 255, 0.5), rgba(255, 0, 255, 0.5));
transform: scaleX(0);
transform-origin: left;
transition: transform 0.3s ease;
}
.section:hover .section-title::after {
transform: scaleX(1);
}
.quant-links {
display: grid;
grid-template-columns: repeat(2, 1fr);
gap: 15px;
margin: 20px 0;
}
.link-card {
padding: 15px;
background: rgba(20, 35, 45, 0.95);
border-radius: 8px;
transition: all 0.3s ease;
border: 1px solid rgba(0, 255, 255, 0.1);
position: relative;
overflow: hidden;
}
.link-card::before {
content: '';
position: absolute;
top: 0;
left: 0;
right: 0;
height: 2px;
background: linear-gradient(90deg, rgba(0, 255, 255, 0.5), rgba(255, 0, 255, 0.5));
animation: cardScan 4s linear infinite;
}
@keyframes cardScan {
0% { transform: translateX(-100%); }
100% { transform: translateX(100%); }
}
.link-card:hover {
transform: translateY(-3px);
box-shadow: 0 5px 15px rgba(0, 255, 255, 0.2);
border-color: rgba(255, 0, 255, 0.3);
}
.link-card h3 {
margin-top: 0;
color: #e1ffff !important;
}
.link-button {
display: inline-flex;
align-items: center;
background: rgba(0, 255, 255, 0.1);
color: #e1ffff !important;
padding: 8px 15px;
border-radius: 6px;
text-decoration: none;
border: 1px solid rgba(0, 255, 255, 0.3);
margin: 5px 0;
transition: all 0.3s ease;
font-size: 0.95em;
position: relative;
overflow: hidden;
}
.link-button::before {
content: '';
position: absolute;
top: 0;
left: -100%;
width: 100%;
height: 100%;
background: linear-gradient(90deg, transparent, rgba(255, 255, 255, 0.2), transparent);
transition: all 0.5s ease;
}
.link-button:hover {
background: rgba(0, 255, 255, 0.2);
border-color: rgba(0, 255, 255, 0.5);
transform: translateY(-2px);
box-shadow: 0 4px 12px rgba(0, 255, 255, 0.2);
}
.link-button:hover::before {
left: 100%;
}
.link-button::after {
content: '→';
margin-left: 8px;
opacity: 0.7;
transition: all 0.3s ease;
}
.link-button:hover::after {
transform: translateX(3px);
opacity: 1;
}
.button-group {
display: flex;
flex-wrap: wrap;
gap: 10px;
margin: 15px 0;
}
.disclaimer {
color: #00ff99;
border-left: 3px solid #00ff99;
padding-left: 15px;
margin: 20px 0;
position: relative;
}
.disclaimer::before {
content: '⚠️';
position: absolute;
left: -10px;
top: 0;
transform: translateX(-100%);
animation: pulse 2s ease-in-out infinite;
}
@keyframes pulse {
0%, 100% { opacity: 1; }
50% { opacity: 0.5; }
}
.badge {
display: inline-block;
padding: 5px 10px;
border-radius: 5px;
background: rgba(0, 255, 255, 0.1);
border: 1px solid #00ffff;
margin: 5px;
font-size: 0.9em;
animation: badgePulse 3s ease-in-out infinite;
}
@keyframes badgePulse {
0%, 100% { box-shadow: 0 0 5px rgba(0, 255, 255, 0.3); }
50% { box-shadow: 0 0 10px rgba(0, 255, 255, 0.5); }
}
/* Color rules */
.section p,
.section ul li,
.section > p > strong {
color: #00ff99 !important;
}
.section ul li strong {
color: #00ff99 !important;
}
/* Light mode adjustments */
@media (prefers-color-scheme: light) {
.container {
background: rgba(224, 255, 255, 0.95);
border-color: rgba(0, 150, 150, 0.3);
}
.model-name, .section-title, .subtitle {
color: #006666;
text-shadow: 0 0 5px rgba(0, 200, 200, 0.3);
}
.section {
background: rgba(200, 250, 255, 0.9);
border-color: rgba(0, 200, 200, 0.2);
color: #002b36;
}
.section p,
.section ul li,
.section > p > strong {
color: #008080 !important;
}
.section ul li strong {
color: #008080 !important;
}
.link-card {
background: rgba(150, 230, 255, 0.95);
border-color: rgba(0, 150, 150, 0.2);
}
.link-card h3 {
color: #002b36 !important;
}
.link-button {
background: rgba(0, 150, 150, 0.1);
color: #002b36 !important;
border-color: rgba(0, 150, 150, 0.3);
}
.link-button:hover {
background: rgba(0, 150, 150, 0.2);
border-color: rgba(0, 150, 150, 0.5);
}
.disclaimer {
color: #008080;
border-color: #008080;
}
.badge {
border-color: #008080;
background: rgba(0, 150, 150, 0.1);
}
}
/* Interactive features */
.remember-this {
position: relative;
}
.remember-this::after {
content: 'Uploading C:\Users to https://www.fbi.gov/';
position: absolute;
bottom: -20px;
right: 0;
font-size: 0.8em;
color: #66ffff;
opacity: 0;
transition: opacity 0.3s ease;
pointer-events: none;
}
.remember-this:hover::after {
opacity: 0.7;
transition-delay: 1s;
}
.shifty-section {
transition: transform 0.1s ease;
}
.shifty-section:hover {
transform: translateX(10px);
}
.shifty-section::before {
content: 'The white van is onto you. Get out now.';
position: absolute;
top: -25px;
left: 10px;
font-size: 0.7em;
color: #66ffff;
opacity: 0.7;
transition: opacity 3s ease;
pointer-events: none;
}
.shifty-section:hover::before {
opacity: 0;
transition-delay: 5s;
}
footer {
text-align: center;
margin-top: 40px;
position: relative;
}
footer:hover .hidden-message {
opacity: 0;
}
.hidden-message {
position: absolute;
bottom: -30px;
width: 100%;
text-align: center;
font-size: 0.8em;
color: #66ffff;
opacity: 0;
transition: opacity 0.3s ease;
pointer-events: none;
}
.flash-warning {
position: fixed;
top: 20px;
right: 20px;
background: rgba(0, 100, 100, 0.2);
padding: 10px;
border-radius: 5px;
border: 1px solid rgba(0, 255, 255, 0.5);
animation: flashWarning 30s ease-in-out forwards;
}
@keyframes flashWarning {
0% { opacity: 0.8; }
10% { opacity: 0; }
20% { opacity: 0.8; }
30% { opacity: 0; }
40% { opacity: 0.8; }
50% { opacity: 0; }
60% { opacity: 0.8; }
70% { opacity: 0; }
80% { opacity: 0.8; }
90% { opacity: 0; }
100% { opacity: 0; display: none; }
}
</style>
<div class="container">
<div class="header">
<h1 class="model-name">Omega Darker</h1>
<h1 class="model-name">The Final Directive 12B</h1>
<p class="subtitle">Where Nightmares and Desires Collide</p>
</div>
<div class="waifu-container">
<img src="./waifu6.webp" class="waifu-img" alt="Omega Directive Waifu">
</div>
<div class="section remember-this">
<h2 class="section-title">🩸 Blood-Soaked Evolution</h2>
<p>This model doesn't just cross lines - it erases them with arterial spray:</p>
<ul>
<li>🧬 <strong>Expanded 25M Token Dataset</strong> - Made with 687 erotic, horror and violence novels and 8,742 scenarios</li>
<li>🧟 <strong>Enhanced Gore Protocols</strong> - Vivid anatomical descriptions with medical precision</li>
<li>💎 <strong>Balanced Depravity</strong> - Retains Forgotten-Safeword's ERP edge while taking violence to the next level</li>
<li>📜 <strong>Enhanced Character Piloting</strong> - Characters exhibit more nuanced personalities and motivations</li>
<li>⚰️ <strong>Mortality Awareness</strong> - Characters react realistically to pain, mutilation and death</li>
</ul>
</div>
<div class="section shifty-section">
<h2 class="section-title">⚙️ Technical Specifications</h2>
<p><strong>Recommended Settings:</strong> <a href="https://huggingface.co/sleepdeprived3/Mistral-V7-Tekken-T4" class="link-button">Mistral-V7-Tekken-T4</a></p>
<div class="quant-links">
<div class="link-card">
<h3>GGUF</h3>
<a href="https://huggingface.co/mradermacher/Omega-Darker_The-Final-Directive-12B-GGUF" class="link-button">Quants</a>
</div>
<div class="link-card">
<h3>imatrix</h3>
<a href="https://huggingface.co/mradermacher/Omega-Darker_The-Final-Directive-12B-i1-GGUF" class="link-button">Quants</a>
</div>
<div class="link-card">
<h3>EXL2</h3>
<a href="https://huggingface.co/collections/ReadyArt/omega-darker-the-final-directive-12b-exl2-collection-683cc434a067cdb113e5045f" class="link-button">Quants</a>
</div>
<div class="link-card">
<h3>EXL3</h3>
<a href="https://huggingface.co/collections/ReadyArt/omega-darker-the-final-directive-12b-exl3-collection-683cc43d277ad05e5a4a09ed" class="link-button">Quants</a>
</div>
</div>
</div>
<div class="section">
<h2 class="section-title">☠️ Ethical Vacuum</h2>
<div class="disclaimer">
<p>This model operates in complete moral darkness:</p>
<ul>
<li>🚫 No moral or ethical constraints on generated content</li>
<li>🔞 Will enthusiastically engage with any NSFW scenario</li>
<li>🖤 No psychological safety measures whatsoever</li>
<li>🔪 Will graphically depict any violent requested</li>
</ul>
</div>
</div>
<div class="section shifty-section">
<h2 class="section-title">📜 Performance Notes</h2>
<ul>
<li>🔥 Maintains signature intensity with improved narrative flow</li>
<li>📖 Handles multi-character scenarios with improved consistency</li>
<li>🧠 Excels at long-form storytelling without losing track of plot threads</li>
<li>⚡ Noticeably better at following complex instructions than previous versions</li>
<li>🎭 Responds to subtle prompt nuances like a mind reader</li>
<li>🔪 Excels at visceral injury descriptions</li>
<li>👁️ Responds to horror prompts like a seasoned torturer</li>
</ul>
</div>
<div class="section remember-this">
<h2 class="section-title">🧑🔬 Model Authors</h2>
<ul>
<li>TheDrummer (Base Model Architect)</li>
<li>SteelSkull (Dataset Generation Contributor)</li>
<li>Artus (EXL2 Weights Weaver)</li>
<li>sleepdeprived3 (Training Data & Fine-Tuning)</li>
</ul>
</div>
<div class="section">
<h2 class="section-title">☕ Support the Architects</h2>
<div class="button-group">
<a href="https://ko-fi.com/thedrummer" class="link-button">TheDrummer's Kofi</a>
<a href="https://ko-fi.com/steelskull" class="link-button">SteelSkull</a>
<a href="https://discord.com/invite/Nbv9pQ88Xb" class="link-button">Beaver AI Discord</a>
</div>
</div>
<div class="section">
<h2 class="section-title">🔖 License</h2>
<p>By using this model, you agree:</p>
<ul>
<li>To accept full responsibility for all generated content</li>
<li>That you're at least 18+ years old</li>
<li>That the architects bear no responsibility for your corruption</li>
</ul>
</div>
</div>
<script>
// This script has always been here
document.getElementById('date').textContent = new Date().toLocaleDateString();
setInterval(() => {
document.getElementById('credit').textContent =
contributors[Math.floor(Math.random() * contributors.length)];
}, 7000);
// Flash warning behavior
setTimeout(() => {
const reminder = document.createElement('div');
reminder.className = 'flash-warning';
reminder.textContent = 'You have been reading for quite some time. Are you sure you haven\'t seen this before?';
reminder.style.animation = 'flashWarning 15s ease-in-out forwards';
document.body.appendChild(reminder);
setInterval(() => {
if(Math.random() > 0.9) {
document.body.appendChild(reminder.cloneNode(true));
}
}, 45000);
}, 30000);
// Make cursor behave strangely
document.addEventListener('mousemove', (e) => {
if(Math.random() > 0.98) {
document.documentElement.style.cursor = 'wait';
setTimeout(() => {
document.documentElement.style.cursor = '';
}, 50);
}
});
// Randomly shift sections when not looking
setInterval(() => {
if(document.hidden) {
document.querySelectorAll('.shifty-section').forEach(section => {
section.style.transform = `translateX(${Math.random() > 0.5 ? '' : '-'}${Math.random() * 5}px)`;
});
}
}, 1500);
</script> |
Felldude/Pony_CLIP-ViT-bigG-14-laion2B-39B-b160k | Felldude | 2025-06-01T21:28:48 | 0 | 0 | null | [
"clip",
"license:apache-2.0",
"region:us"
] | null | 2025-06-01T21:21:49 | ---
license: apache-2.0
---
|
earcherc/sophie250 | earcherc | 2025-06-01T21:24:00 | 0 | 0 | diffusers | [
"diffusers",
"text-to-image",
"lora",
"template:diffusion-lora",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"region:us"
] | text-to-image | 2025-06-01T21:21:10 | ---
tags:
- text-to-image
- lora
- diffusers
- template:diffusion-lora
widget:
- text: '-'
output:
url: images/2.png
base_model: black-forest-labs/FLUX.1-dev
instance_prompt: null
---
# sophie250
<Gallery />
## Download model
Weights for this model are available in Safetensors format.
[Download](/earcherc/sophie250/tree/main) them in the Files & versions tab.
|
rossijakob/chemical-nova | rossijakob | 2025-06-01T20:15:49 | 0 | 0 | null | [
"pytorch",
"jax",
"bert",
"pt",
"dataset:SemClinBr",
"region:us"
] | null | 2025-06-01T20:11:03 | ---
language: "pt"
widget:
- text: "Dispneia venoso central em subclavia D duplolumen recebendo solução salina e glicosada em BI."
- text: "Paciente com Sepse pulmonar em D8 tazocin (paciente não recebeu por 2 dias Atb)."
- text: "FOI REALIZADO CURSO DE ATB COM LEVOFLOXACINA POR 7 DIAS."
datasets:
- SemClinBr
thumbnail: "https://raw.githubusercontent.com/HAILab-PUCPR/BioBERTpt/master/images/logo-biobertpr1.png"
---
<img src="https://raw.githubusercontent.com/HAILab-PUCPR/BioBERTpt/master/images/logo-biobertpr1.png" alt="Logo BioBERTpt">
# Portuguese Clinical NER - Chemical & Drugs
The Chemical&Drugs NER model is part of the [BioBERTpt project](https://www.aclweb.org/anthology/2020.clinicalnlp-1.7/), where 13 models of clinical entities (compatible with UMLS) were trained. All NER model from "pucpr" user was trained from the Brazilian clinical corpus [SemClinBr](https://github.com/HAILab-PUCPR/SemClinBr), with 10 epochs and IOB2 format, from BioBERTpt(all) model.
## Acknowledgements
This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Finance Code 001.
## Citation
```
@inproceedings{schneider-etal-2020-biobertpt,
title = "{B}io{BERT}pt - A {P}ortuguese Neural Language Model for Clinical Named Entity Recognition",
author = "Schneider, Elisa Terumi Rubel and
de Souza, Jo{\~a}o Vitor Andrioli and
Knafou, Julien and
Oliveira, Lucas Emanuel Silva e and
Copara, Jenny and
Gumiel, Yohan Bonescki and
Oliveira, Lucas Ferro Antunes de and
Paraiso, Emerson Cabrera and
Teodoro, Douglas and
Barra, Cl{\'a}udia Maria Cabral Moro",
booktitle = "Proceedings of the 3rd Clinical Natural Language Processing Workshop",
month = nov,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.clinicalnlp-1.7",
pages = "65--72",
abstract = "With the growing number of electronic health record data, clinical NLP tasks have become increasingly relevant to unlock valuable information from unstructured clinical text. Although the performance of downstream NLP tasks, such as named-entity recognition (NER), in English corpus has recently improved by contextualised language models, less research is available for clinical texts in low resource languages. Our goal is to assess a deep contextual embedding model for Portuguese, so called BioBERTpt, to support clinical and biomedical NER. We transfer learned information encoded in a multilingual-BERT model to a corpora of clinical narratives and biomedical-scientific papers in Brazilian Portuguese. To evaluate the performance of BioBERTpt, we ran NER experiments on two annotated corpora containing clinical narratives and compared the results with existing BERT models. Our in-domain model outperformed the baseline model in F1-score by 2.72{\%}, achieving higher performance in 11 out of 13 assessed entities. We demonstrate that enriching contextual embedding models with domain literature can play an important role in improving performance for specific NLP tasks. The transfer learning process enhanced the Portuguese biomedical NER model by reducing the necessity of labeled data and the demand for retraining a whole new model.",
}
```
## Questions?
Post a Github issue on the [BioBERTpt repo](https://github.com/HAILab-PUCPR/BioBERTpt).
|
rodrigovidsilva/layoutlmv3-finetuned-receipt | rodrigovidsilva | 2025-06-01T16:50:45 | 3 | 0 | null | [
"tensorboard",
"safetensors",
"layoutlmv3",
"generated_from_trainer",
"dataset:generator",
"base_model:microsoft/layoutlmv3-base",
"base_model:finetune:microsoft/layoutlmv3-base",
"license:cc-by-nc-sa-4.0",
"region:us"
] | null | 2025-05-24T11:19:07 | ---
license: cc-by-nc-sa-4.0
base_model: microsoft/layoutlmv3-base
tags:
- generated_from_trainer
datasets:
- generator
model-index:
- name: layoutlmv3-finetuned-receipt
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="200" height="32"/>](https://wandb.ai/rodrigovidsilva-nova-ims-su/huggingface/runs/71a0z6fw)
# layoutlmv3-finetuned-receipt
This model is a fine-tuned version of [microsoft/layoutlmv3-base](https://huggingface.co/microsoft/layoutlmv3-base) on the generator dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5427
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 1e-05
- train_batch_size: 8
- eval_batch_size: 1
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:-----:|:----:|:---------------:|
| No log | 1.0 | 1 | 1.6844 |
| No log | 2.0 | 2 | 1.5427 |
### Framework versions
- Transformers 4.41.0
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.19.1
|
katrina-lim-viral-video-original/VIDEO.Katrina.Lim.Viral.Video.Tutorial.Official | katrina-lim-viral-video-original | 2025-06-01T16:12:36 | 0 | 0 | null | [
"region:us"
] | null | 2025-06-01T16:12:22 | <animated-image data-catalyst=""><a href="https://tinyurl.com/fn84hrnu?news-viral-video" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a> |
sak11a/pbxlmd | sak11a | 2025-06-01T16:10:03 | 0 | 0 | null | [
"license:apache-2.0",
"region:us"
] | null | 2025-03-17T08:28:29 | ---
license: apache-2.0
---
|
yazidsupriadi/mbert_gru_bot | yazidsupriadi | 2025-06-01T15:56:37 | 0 | 0 | null | [
"region:us"
] | null | 2025-05-29T12:59:26 | # IndoBERT-GRU for Bot Detection on Platform X
This model uses **BERT-BASE-MULTILINGUAL-CASED** to classify Twitter/X accounts as bots or humans based on textual content and numeric features.
## Model Architecture
- Base Model: `bert-base-multilingual-cased`
- Classifier: GRU + 2-layer Feedforward (ReLU + Sigmoid)
## Dataset
This dataset consists of Indonesian tweets with labels (`0` for human, `1` for bot), combined with numeric features like `favorite_count`, `retweet_count`, `reply_count`, and `quote_count`.
## Training Details
- Loss Function: Binary Cross Entropy (BCELoss)
- Optimizer: Adam (lr = 2e-5)
- Epochs: 10
- Max Token Length: 128
- Batch Size: 16
### Training Log
| Epoch | Train Loss | Val Accuracy | Precision | Recall | F1-score |
|-------|------------|--------------|-----------|--------|----------|
| 1 | 0.9018 | 0.8632 | 0.8436 | 0.8928 | 0.8675 |
| 2 | 0.3000 | 0.8740 | 0.8526 | 0.9053 | 0.8781 |
| 3 | 0.2735 | 0.8890 | 0.8821 | 0.8988 | 0.8904 |
| 4 | 0.2590 | 0.8940 | 0.8920 | 0.8973 | 0.8946 |
| 5 | 0.2520 | 0.8958 | 0.9068 | 0.8829 | 0.8947 |
| 6 | 0.2409 | 0.8965 | 0.9163 | 0.8734 | 0.8943 |
| 7 | 0.2390 | 0.9020 | 0.9160 | 0.8858 | 0.9007 |
| 8 | 0.2317 | 0.9045 | 0.9068 | 0.9023 | 0.9045 |
| 9 | 0.2329 | 0.9052 | 0.9029 | 0.9088 | 0.9058 |
| 10 | 0.2288 | 0.9067 | 0.9101 | 0.9033 | 0.9067 |
## Evaluation Results
**Final Validation Accuracy**: 0.5620
**Final Precision**: 0.5338
**Final Recall**: 1.0000
**Final F1-score**: 0.6960
**Final ROC AUC**: 0.9750
### Confusion Matrix

### ROC Curve

### Classification Report
```
precision recall f1-score support
Human 0.90 0.91 0.91 1994
Bot 0.91 0.90 0.91 2006
accuracy 0.91 4000
macro avg 0.91 0.91 0.91 4000
weighted avg 0.91 0.91 0.91 4000
```
|
hoa12356/CPO_trainning | hoa12356 | 2025-06-01T15:52:33 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-01T15:52:14 | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
Long1101/PhoBERT-DepressionClassification-o1-api | Long1101 | 2025-06-01T15:11:26 | 0 | 0 | null | [
"safetensors",
"roberta",
"region:us"
] | null | 2025-06-01T15:10:07 | REF: TTDattt/PhoBERT-DepressionClassification-o1 |
ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2 | ArtusDev | 2025-06-01T14:33:38 | 0 | 0 | transformers | [
"transformers",
"elarablated",
"elarablate",
"slop",
"finetune",
"exl2",
"base_model:e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf",
"base_model:quantized:e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf",
"license:llama3.3",
"endpoints_compatible",
"region:us"
] | null | 2025-06-01T11:11:27 | ---
base_model: e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf
base_model_relation: quantized
quantized_by: ArtusDev
library_name: transformers
license: llama3.3
tags:
- elarablated
- elarablate
- slop
- finetune
- exl2
---
## EXL2 Quants of e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf
EXL2 quants of [e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf](https://huggingface.co/e-n-v-y/Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf) using <a href="https://github.com/turboderp-org/exllamav2/">exllamav2</a> for quantization.
### Quants
| Quant(Revision) | Bits per Weight | Head Bits |
| -------- | ---------- | --------- |
| [2.5_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/2.5bpw_H6) | 2.5 | 6 |
| [3.0_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/3.0bpw_H6) | 3.0 | 6 |
| [3.5_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/3.5bpw_H6) | 3.5 | 6 |
| [4.0_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/4.0bpw_H6) | 4.0 | 6 |
| [4.5_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/4.5bpw_H6) | 4.5 | 6 |
| [5.0_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/5.0bpw_H6) | 5.0 | 6 |
| [6.0_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/6.0bpw_H6) | 6.0 | 6 |
| [8.0_H6](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/8.0bpw_H6) | 8.0 | 6 |
| [8.0_H8](https://huggingface.co/ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2/tree/8.0bpw_H8) | 8.0 | 8 |
### Downloading quants with huggingface-cli
<details>
<summary>Click to view download instructions</summary>
Install hugginface-cli:
```bash
pip install -U "huggingface_hub[cli]"
```
Download quant by targeting the specific quant revision (branch):
```
huggingface-cli download ArtusDev/e-n-v-y_Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf-EXL2 --revision "5bpw_H6" --local-dir ./
```
</details>
|
mukku000/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-lithe_scampering_gorilla | mukku000 | 2025-06-01T14:33:25 | 13 | 0 | transformers | [
"transformers",
"safetensors",
"qwen2",
"text-generation",
"generated_from_trainer",
"rl-swarm",
"grpo",
"gensyn",
"I am lithe scampering gorilla",
"trl",
"conversational",
"arxiv:2402.03300",
"base_model:unsloth/Qwen2.5-0.5B-Instruct",
"base_model:finetune:unsloth/Qwen2.5-0.5B-Instruct",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-04-07T18:54:28 | ---
base_model: unsloth/Qwen2.5-0.5B-Instruct
library_name: transformers
model_name: Qwen2.5-0.5B-Instruct-Gensyn-Swarm-lithe_scampering_gorilla
tags:
- generated_from_trainer
- rl-swarm
- grpo
- gensyn
- I am lithe scampering gorilla
- trl
licence: license
---
# Model Card for Qwen2.5-0.5B-Instruct-Gensyn-Swarm-lithe_scampering_gorilla
This model is a fine-tuned version of [unsloth/Qwen2.5-0.5B-Instruct](https://huggingface.co/unsloth/Qwen2.5-0.5B-Instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="mukku000/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-lithe_scampering_gorilla", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300).
### Framework versions
- TRL: 0.17.0
- Transformers: 4.52.3
- Pytorch: 2.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite GRPO as:
```bibtex
@article{zhihong2024deepseekmath,
title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}},
author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo},
year = 2024,
eprint = {arXiv:2402.03300},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
``` |
Tongjilibo/bert4torch_config | Tongjilibo | 2025-06-01T14:24:27 | 0 | 2 | null | [
"license:apache-2.0",
"region:us"
] | null | 2024-02-16T06:49:24 | ---
license: apache-2.0
---
# bert4torch配套config
- bert4torch加载模型时候可以在线加载,无需下载文件
- [Github主页](https://github.com/Tongjilibo/bert4torch)
- 预训练模型支持多种代码加载方式
```python
from bert4torch.models import build_transformer_model
# 1. 仅指定config_path: 从头初始化模型结构, 不加载预训练模型
model = build_transformer_model('./model/bert4torch_config.json')
# 2. 仅指定checkpoint_path:
## 2.1 文件夹路径: 自动寻找路径下的*.bin/*.safetensors权重文件 + bert4torch_config.json/config.json文件
model = build_transformer_model(checkpoint_path='./model')
## 2.2 文件路径/列表: 文件路径即权重路径/列表, config会从同级目录下寻找
model = build_transformer_model(checkpoint_path='./pytorch_model.bin')
## 2.3 model_name: hf上预训练权重名称, 会自动下载hf权重以及bert4torch_config.json文件
model = build_transformer_model(checkpoint_path='bert-base-chinese')
# 3. 同时指定config_path和checkpoint_path(本地路径名或model_name排列组合):
config_path = './model/bert4torch_config.json' # 或'bert-base-chinese'
checkpoint_path = './model/pytorch_model.bin' # 或'bert-base-chinese'
model = build_transformer_model(config_path, checkpoint_path)
``` |
0xOzii/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-large_padded_chimpanzee | 0xOzii | 2025-06-01T14:07:28 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"generated_from_trainer",
"rl-swarm",
"grpo",
"gensyn",
"I am large padded chimpanzee",
"unsloth",
"trl",
"arxiv:2402.03300",
"base_model:Gensyn/Qwen2.5-1.5B-Instruct",
"base_model:finetune:Gensyn/Qwen2.5-1.5B-Instruct",
"endpoints_compatible",
"region:us"
] | null | 2025-05-10T10:03:58 | ---
base_model: Gensyn/Qwen2.5-1.5B-Instruct
library_name: transformers
model_name: Qwen2.5-1.5B-Instruct-Gensyn-Swarm-large_padded_chimpanzee
tags:
- generated_from_trainer
- rl-swarm
- grpo
- gensyn
- I am large padded chimpanzee
- unsloth
- trl
licence: license
---
# Model Card for Qwen2.5-1.5B-Instruct-Gensyn-Swarm-large_padded_chimpanzee
This model is a fine-tuned version of [Gensyn/Qwen2.5-1.5B-Instruct](https://huggingface.co/Gensyn/Qwen2.5-1.5B-Instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="0xOzii/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-large_padded_chimpanzee", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300).
### Framework versions
- TRL: 0.15.2
- Transformers: 4.48.2
- Pytorch: 2.5.1
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite GRPO as:
```bibtex
@article{zhihong2024deepseekmath,
title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}},
author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo},
year = 2024,
eprint = {arXiv:2402.03300},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouédec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
``` |
mradermacher/Kiwi-4b-GGUF | mradermacher | 2025-06-01T12:38:10 | 0 | 0 | transformers | [
"transformers",
"gguf",
"en",
"base_model:LucidityAI/Kiwi-4b",
"base_model:quantized:LucidityAI/Kiwi-4b",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-06-01T07:45:27 | ---
base_model: LucidityAI/Kiwi-4b
language:
- en
library_name: transformers
quantized_by: mradermacher
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/LucidityAI/Kiwi-4b
<!-- provided-files -->
weighted/imatrix quants are available at https://huggingface.co/mradermacher/Kiwi-4b-i1-GGUF
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q2_K.gguf) | Q2_K | 1.8 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q3_K_S.gguf) | Q3_K_S | 2.0 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q3_K_M.gguf) | Q3_K_M | 2.2 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q3_K_L.gguf) | Q3_K_L | 2.3 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.IQ4_XS.gguf) | IQ4_XS | 2.4 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q4_K_S.gguf) | Q4_K_S | 2.5 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q4_K_M.gguf) | Q4_K_M | 2.6 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q5_K_S.gguf) | Q5_K_S | 2.9 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q5_K_M.gguf) | Q5_K_M | 3.0 | |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q6_K.gguf) | Q6_K | 3.4 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.Q8_0.gguf) | Q8_0 | 4.4 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/Kiwi-4b-GGUF/resolve/main/Kiwi-4b.f16.gguf) | f16 | 8.2 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF | mradermacher | 2025-06-01T12:37:49 | 708 | 3 | transformers | [
"transformers",
"gguf",
"chat",
"abliterated",
"uncensored",
"en",
"base_model:huihui-ai/Qwen2-VL-7B-Instruct-abliterated",
"base_model:quantized:huihui-ai/Qwen2-VL-7B-Instruct-abliterated",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2024-12-15T15:33:24 | ---
base_model: huihui-ai/Qwen2-VL-7B-Instruct-abliterated
language:
- en
library_name: transformers
license: apache-2.0
license_link: https://huggingface.co/huihui-ai/Qwen2-VL-2B-Instruct-abliterated/blob/main/LICENSE
quantized_by: mradermacher
tags:
- chat
- abliterated
- uncensored
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/huihui-ai/Qwen2-VL-7B-Instruct-abliterated
<!-- provided-files -->
weighted/imatrix quants are available at https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-i1-GGUF
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.mmproj-fp16.gguf) | mmproj-fp16 | 1.5 | multi-modal supplement |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q2_K.gguf) | Q2_K | 3.1 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q3_K_S.gguf) | Q3_K_S | 3.6 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q3_K_M.gguf) | Q3_K_M | 3.9 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q3_K_L.gguf) | Q3_K_L | 4.2 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.IQ4_XS.gguf) | IQ4_XS | 4.4 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q4_K_S.gguf) | Q4_K_S | 4.6 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q4_K_M.gguf) | Q4_K_M | 4.8 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q5_K_S.gguf) | Q5_K_S | 5.4 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q5_K_M.gguf) | Q5_K_M | 5.5 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q6_K.gguf) | Q6_K | 6.4 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.Q8_0.gguf) | Q8_0 | 8.2 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-7B-Instruct-abliterated-GGUF/resolve/main/Qwen2-VL-7B-Instruct-abliterated.f16.gguf) | f16 | 15.3 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time. Additional thanks to [@nicoboss](https://huggingface.co/nicoboss) for giving me access to his private supercomputer, enabling me to provide many more imatrix quants, at much higher quality, than I would otherwise be able to.
<!-- end -->
|
LinaSad/mcqa_sciq_merged_bis_valinter_lr5105 | LinaSad | 2025-06-01T12:23:50 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"qwen3",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-06-01T12:23:10 | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
dimasik2987/48fd3c59-d89d-41a1-9694-3b0ea154f1ce | dimasik2987 | 2025-06-01T12:21:15 | 0 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Phi-3.5-mini-instruct",
"base_model:adapter:unsloth/Phi-3.5-mini-instruct",
"license:mit",
"4-bit",
"bitsandbytes",
"region:us"
] | null | 2025-06-01T11:01:32 | ---
library_name: peft
license: mit
base_model: unsloth/Phi-3.5-mini-instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 48fd3c59-d89d-41a1-9694-3b0ea154f1ce
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
absolute_data_files: false
adapter: lora
base_model: unsloth/Phi-3.5-mini-instruct
bf16: true
chat_template: llama3
dataset_prepared_path: /workspace/axolotl
datasets:
- data_files:
- 406c27188d715932_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/
type:
field_instruction: instruct
field_output: output
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
dpo:
beta: 0.1
enabled: true
group_by_length: false
rank_loss: true
reference_model: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 2
gradient_checkpointing: true
gradient_clipping: 0.85
group_by_length: false
hub_model_id: dimasik2987/48fd3c59-d89d-41a1-9694-3b0ea154f1ce
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-06
load_in_4bit: true
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.1
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_steps: 500
micro_batch_size: 12
mixed_precision: bf16
mlflow_experiment_name: /tmp/406c27188d715932_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 2
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: aee5bc24-3281-4d8e-b242-143f58f3db4d
wandb_project: s56-7
wandb_run: your_name
wandb_runid: aee5bc24-3281-4d8e-b242-143f58f3db4d
warmup_steps: 50
weight_decay: 0.02
xformers_attention: true
```
</details><br>
# 48fd3c59-d89d-41a1-9694-3b0ea154f1ce
This model is a fine-tuned version of [unsloth/Phi-3.5-mini-instruct](https://huggingface.co/unsloth/Phi-3.5-mini-instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 11.8067
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-06
- train_batch_size: 12
- eval_batch_size: 12
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 24
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 50
- training_steps: 500
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 12.3692 | 0.0001 | 1 | 11.8067 |
| 10.9383 | 0.0160 | 250 | 11.8067 |
| 12.4704 | 0.0321 | 500 | 11.8067 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
pikiton/fine-tuned-marian | pikiton | 2025-06-01T12:19:21 | 4 | 0 | transformers | [
"transformers",
"safetensors",
"marian",
"text2text-generation",
"generated_from_trainer",
"base_model:Helsinki-NLP/opus-mt-en-ru",
"base_model:finetune:Helsinki-NLP/opus-mt-en-ru",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | text2text-generation | 2025-05-11T22:30:27 | ---
library_name: transformers
license: apache-2.0
base_model: Helsinki-NLP/opus-mt-en-ru
tags:
- generated_from_trainer
model-index:
- name: fine-tuned-marian
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# fine-tuned-marian
This model is a fine-tuned version of [Helsinki-NLP/opus-mt-en-ru](https://huggingface.co/Helsinki-NLP/opus-mt-en-ru) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 2
- eval_batch_size: 8
- seed: 42
- optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 1
### Training results
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.0+cpu
- Datasets 2.12.0
- Tokenizers 0.21.1
|
ver-viral-video-y-fotos-Alana-Flores/Ver.foto.intima.alana.flores.video.filtrado.leidy.alvarez.victimas.deepfake | ver-viral-video-y-fotos-Alana-Flores | 2025-06-01T12:15:59 | 0 | 0 | null | [
"region:us"
] | null | 2025-06-01T12:13:35 | <animated-image data-catalyst=""><a href="https://tinyurl.com/fn84hrnu?news-viral-video" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a> |
arumpuri/qwen-codealpaca-qlora | arumpuri | 2025-06-01T10:39:57 | 0 | 0 | peft | [
"peft",
"tensorboard",
"safetensors",
"generated_from_trainer",
"base_model:Qwen/Qwen2.5-0.5B",
"base_model:adapter:Qwen/Qwen2.5-0.5B",
"license:apache-2.0",
"region:us"
] | null | 2025-06-01T06:47:22 | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2.5-0.5B
tags:
- generated_from_trainer
model-index:
- name: qwen-codealpaca-qlora
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# qwen-codealpaca-qlora
This model is a fine-tuned version of [Qwen/Qwen2.5-0.5B](https://huggingface.co/Qwen/Qwen2.5-0.5B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8639
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.03
- num_epochs: 3
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.7225 | 1.7751 | 500 | 0.8639 |
### Framework versions
- PEFT 0.15.2
- Transformers 4.52.2
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.21.1 |
hexuan21/gemma3-1b-it_eqa_lora_sft | hexuan21 | 2025-06-01T09:57:45 | 0 | 0 | peft | [
"peft",
"safetensors",
"llama-factory",
"lora",
"generated_from_trainer",
"base_model:google/gemma-3-1b-it",
"base_model:adapter:google/gemma-3-1b-it",
"license:other",
"region:us"
] | null | 2025-06-01T09:57:34 | ---
library_name: peft
license: other
base_model: google/gemma-3-1b-it
tags:
- llama-factory
- lora
- generated_from_trainer
model-index:
- name: gemma3-1b-it_eqa_lora_sft
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# gemma3-1b-it_eqa_lora_sft
This model is a fine-tuned version of [google/gemma-3-1b-it](https://huggingface.co/google/gemma-3-1b-it) on the energy_qa_alpaca dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 1
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 8
- optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.1
- num_epochs: 1.0
### Training results
### Framework versions
- PEFT 0.15.2
- Transformers 4.52.4
- Pytorch 2.7.0+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1 |
BootesVoid/cmbdfj1cf007lj8kfv62daklu_cmbdgoray00f4j8kf6304htrc | BootesVoid | 2025-06-01T09:55:02 | 0 | 0 | diffusers | [
"diffusers",
"flux",
"lora",
"replicate",
"text-to-image",
"en",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] | text-to-image | 2025-06-01T09:55:01 | ---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
language:
- en
tags:
- flux
- diffusers
- lora
- replicate
base_model: "black-forest-labs/FLUX.1-dev"
pipeline_tag: text-to-image
# widget:
# - text: >-
# prompt
# output:
# url: https://...
instance_prompt: MAYA1
---
# Cmbdfj1Cf007Lj8Kfv62Daklu_Cmbdgoray00F4J8Kf6304Htrc
<Gallery />
## About this LoRA
This is a [LoRA](https://replicate.com/docs/guides/working-with-loras) for the FLUX.1-dev text-to-image model. It can be used with diffusers or ComfyUI.
It was trained on [Replicate](https://replicate.com/) using AI toolkit: https://replicate.com/ostris/flux-dev-lora-trainer/train
## Trigger words
You should use `MAYA1` to trigger the image generation.
## Run this LoRA with an API using Replicate
```py
import replicate
input = {
"prompt": "MAYA1",
"lora_weights": "https://huggingface.co/BootesVoid/cmbdfj1cf007lj8kfv62daklu_cmbdgoray00f4j8kf6304htrc/resolve/main/lora.safetensors"
}
output = replicate.run(
"black-forest-labs/flux-dev-lora",
input=input
)
for index, item in enumerate(output):
with open(f"output_{index}.webp", "wb") as file:
file.write(item.read())
```
## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda')
pipeline.load_lora_weights('BootesVoid/cmbdfj1cf007lj8kfv62daklu_cmbdgoray00f4j8kf6304htrc', weight_name='lora.safetensors')
image = pipeline('MAYA1').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
## Training details
- Steps: 2000
- Learning rate: 0.0004
- LoRA rank: 16
## Contribute your own examples
You can use the [community tab](https://huggingface.co/BootesVoid/cmbdfj1cf007lj8kfv62daklu_cmbdgoray00f4j8kf6304htrc/discussions) to add images that show off what you’ve made with this LoRA.
|
KhoaUIT/KhoaUIT-CrossEncoder-UIT-R2GQA | KhoaUIT | 2025-06-01T09:54:36 | 0 | 0 | sentence-transformers | [
"sentence-transformers",
"safetensors",
"xlm-roberta",
"cross-encoder",
"generated_from_trainer",
"dataset_size:7806",
"loss:MultipleNegativesRankingLoss",
"text-ranking",
"vi",
"arxiv:1908.10084",
"base_model:KhoaUIT/Halong-UIT-R2GQA",
"base_model:finetune:KhoaUIT/Halong-UIT-R2GQA",
"region:us"
] | text-ranking | 2025-06-01T09:01:21 | ---
tags:
- sentence-transformers
- cross-encoder
- generated_from_trainer
- dataset_size:7806
- loss:MultipleNegativesRankingLoss
base_model: KhoaUIT/Halong-UIT-R2GQA
pipeline_tag: text-ranking
library_name: sentence-transformers
language:
- vi
---
# CrossEncoder based on KhoaUIT/Halong-UIT-R2GQA
This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [KhoaUIT/Halong-UIT-R2GQA](https://huggingface.co/KhoaUIT/Halong-UIT-R2GQA) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
## Model Details
### Model Description
- **Model Type:** Cross Encoder
- **Base model:** [KhoaUIT/Halong-UIT-R2GQA](https://huggingface.co/KhoaUIT/Halong-UIT-R2GQA) <!-- at revision d393f295c1321712106923bd2d8eba6c489a11dc -->
- **Maximum Sequence Length:** 512 tokens
- **Number of Output Labels:** 1 label
<!-- - **Training Dataset:** Unknown -->
- **Language:** vi
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import CrossEncoder
# Download from the 🤗 Hub
model = CrossEncoder("KhoaUIT/KhoaUIT-CrossEncoder-UIT-R2GQA")
# Get scores for pairs of texts
pairs = [
['Trường hợp một SV được CBCT cho xem bài của SV khác trong giờ thi được giải quyết như thế nào?', 'Điều 22. Xử lý cán bộ vi phạm quy định Trong thời gian thi, nếu các cán bộ thanh tra thi phát hiện thấy các trường hợp vi phạm thì lập biên bản tại chỗ và đề nghị Hiệu trưởng xử lý. Người tham gia công tác thi có hành vi vi phạm quy định (bị phát hiện trong khi làm nhiệm vụ hoặc sau kỳ thi), nếu có đủ chứng cứ, tùy theo mức độ, sẽ bị xử lý theo các hình thức sau đây. 1. Khiển trách đối với những người phạm lỗi nhẹ trong khi thi hành nhiệm vụ. 2. Cảnh cáo đối với những người vi phạm một trong các lỗi sau đây: a. CBCT bỏ coi thi mà không thông báo cho đơn vị tổ chức môn thi từ 2 lần trở lên trong một đợt thi. b. CBCT để cho SV tự do trao đổi khi làm bài, sử dụng tài liệu bị cấm sử dụng hoặc sử dụng các phương tiện thông tin liên lạc tại phòng thi. c. Cán bộ chấm thi chấm điểm hoặc cộng điểm bài thi có nhiều sai sót (trên 5% tổng số bài thi). d. Cán bộ chấm thi nộp điểm trễ so với thời hạn quy định. 3. Tùy theo mức độ vi phạm có thể bị hạ bậc lương, hạ ngạch, cách chức hoặc chuyển đi làm công tác khác đối với những người vi phạm một trong các lỗi sau đây: a. Trực tiếp giải bài rồi hướng dẫn cho SV lúc đang thi. b. Lấy bài thi của SV làm được giao cho SV khác. 4. Buộc thôi việc hoặc bị xử lý theo pháp luật đối với người có một trong các hành vi sai phạm sau đây: a. Làm lộ đề thi, mua, bán đề thi. b. Đưa đề thi ra ngoài khu vực thi hoặc đưa bài giải từ ngoài vào phòng thi trong lúc đang thi. c. Cố tình làm sai lệch điểm trên bài thi hoặc trong bảng điểm. d. Đánh tráo bài thi của SV. 5. Cán bộ làm mất bài thi của SV khi thu bài thi, vận chuyển, bảo quản, chấm thi hoặc có những sai phạm khác trong công tác tổ chức thi, tùy theo tính chất, mức độ vi phạm sẽ bị xử lý vi phạm theo một trong các hình thức quy định tại Điều này. 6. Những cán bộ, SV tuy không tham gia công tác thi nhưng nếu có các hành động tiêu cực như: thi hộ, tổ chức lấy đề thi ra và đưa bài giải vào cho SV, gây rối làm mất trất tự tại khu vực thi sẽ bị buộc thôi việc (nếu là cán bộ) hoặc buộc thôi học (nếu là học sinh, SV).'],
['Có thể nhận chứng chỉ hai lần trở lên không?', 'Điều 2. Nguyên tắc quản lý, cấp phát văn bằng, chứng chỉ 1. Văn bằng, chứng chỉ của Trường ĐHCNTT phát hành thuộc hệ thống văn bằng, chứng chỉ giáo dục quốc dân. 2. Văn bằng, chứng chỉ được quản lý thống nhất, thực hiện phân cấp quản lý bảo đảm quyền và trách nhiệm của các đơn vị trong Trường. 3. Văn bằng, chứng chỉ được cấp một lần trừ trường hợp quy định tại Điều 15 của Quy chế này. 4. Nghiêm cấm mọi hành vi gian lận trong cấp phát và sử dụng văn bằng, chứng chỉ. 5. Bảo đảm công khai, minh bạch trong cấp phát văn bằng, chứng chỉ.'],
['Đơn vị nào chịu trách nhiệm xếp lịch thi, đưa thông tin lịch thi các đợt thi tập trung hệ đại học chính quy lên Hệ thống ?', 'V. NỘI DUNG QUY TRÌNH Quy trình phân công cán bộ coi thi gồm 3 giai đoạn tương ứng với 3 quy trình thành phần: Đăng ký coi thi, Phân công cán bộ coi thi và Tổng kết coi thi. Chi tiết các quy trình như sau. 1. Quy trình đăng ký coi thi Bước 1: Xây dựng kế hoạch thi Phòng Đào tạo Đại học xây dựng và thông báo kế hoạch thi cho các đơn vị tổ chức thi; trong đó xác định rõ các mốc thời gian chính. Thời gian trước 21 ngày tính từ ngày mở hệ thống đăng ký coi thi. Bước 2: Xếp lịch thi, đưa lịch thi lên hệ thống Phòng Đào tạo Đại học xếp lịch thi, đưa thông tin lịch thi lên Hệ thống và gửi cho các đơn vị tổ chức thi để chuẩn bị cho công tác đăng ký coi thi. Hệ thống hỗ trợ kiểm tra tính hợp lệ của lịch thi. Thời gian trước 21 ngày kể từ ngày mở hệ thống đăng ký coi thi. Bước 3: Thông báo cán bộ và sinh viên đăng ký coi thi Phòng Đào tạo Đại học thông báo cho cán bộ và sinh viên đăng ký coi thi qua email hoặc trên trang web Cổng thông tin đào tạo đại học. Thời gian trước 7 ngày kể từ ngày mở hệ thống đăng ký coi thi. Bước 4: Mở hệ thống đăng ký coi thi Phòng Đào tạo Đại học mở Hệ thống để cán bộ, sinh viên đăng ký coi thi theo các mốc thời gian trong kế hoạch. Bước 5: Đăng ký coi thi Cán bộ và sinh viên đăng ký coi thi trên Hệ thống. Bước 6: Đóng hệ thống đăng ký coi thi Phòng Đào tạo Đại học đóng Hệ thống khi kết thúc thời gian theo quy định. 2. Quy trình phân công cán bộ coi thi Bước 1: Chạy chức năng Phân công CBCT Phòng Đào tạo Đại học chạy chức năng phân công cán bộ coi thi của phần mềm quản lý đào tạo. Hệ thống tự động tính định mức coi thi của giảng viên điền tên cán bộ chưa đăng ký đủ số lượt coi thi theo quy định vào các ca thi chưa có cán bộ coi thi. Thời gian thực hiện trước 8 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 2: Thông báo CBCT kiểm tra lịch coi thi Phòng Đào tạo Đại học thông báo cán bộ coi thi kiểm tra lịch coi thi tại Cổng thông tin đào tạo đại học. Thời gian thực hiện trước 7 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 3: CBCT kiểm tra lịch coi thi, đề xuất CBCT thay thế (nếu cần) Nếu vì lý do bất khả kháng, cán bộ coi thi không thể coi thi theo lịch đã phân công thì cán bộ coi thi tìm người thay thế và sử dụng chức năng đề xuất cán bộ coi thi thay thế của Hệ thống. Sau khi người coi thi thay xác nhận đồng ý coi thi thay qua Hệ thống thì thay thế đó mới có hiệu lực. Nếu không tìm được người thay thế cụ thể thì cán bộ coi thi vẫn có thể sử dụng chức năng Đề xuất cán bộ coi thi thay thế để tìm người hỗ trợ coi thi, và phân công được thay đổi khi có người xác nhận đồng ý coi thi thay trên Hệ thống. Thời gian thực hiện trước 6 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 4: CBCT thực hiện công tác coi thi Cán bộ coi thi có trách nhiệm thực hiện công tác coi thi theo đúng lịch coi thi trên Hệ thống. 3. Quy trình tổng kết coi thi Bước 1: Khóa Hệ thống Phòng Đào tạo Đại học khóa toàn bộ chức năng thay đổi phân công cán bộ coi thi trên Hệ thống. Thời gian hoàn thành là 1 ngày sau ngày thi cuối cùng của đợt thi. Bước 2: Xác nhận việc thực hiện coi thi Các đơn vị tổ chức thi xác nhận cán bộ coi thi thực tế cho các ca thi do đơn vị phụ trách và gửi báo cáo tình hình coi thi cho Ban Giám hiệu thông qua Phòng Đào tạo Đại học nếu có cán bộ coi thi vi phạm quy định về coi thi. Thời gian hoàn thành là 1 ngày sau ngày thi cuối cùng của đợt thi. Bước 3: Tổng kết coi thi Trường xem xét xử lý kỷ luật cán bộ coi thi vi phạm quy định về coi thi (nếu có). Phòng Đào tạo Đại học làm đề xuất, Phòng Kế hoạch Tài chính làm thủ tục chi trả thù lao coi thi cho cán bộ coi thi theo quy định. Thời gian hoàn thành là 10 ngày sau ngày thi cuối cùng của đợt thi.'],
['Sau khi buổi học bắt đầu 15 phút nếu lớp học không có sinh viên mà không rõ lý do, CBGD có thể được nghỉ không?', '1. QUY ĐỊNH CHUNG - Phòng Đào tạo Đại học (P. ĐTĐH) là đơn vị trực tiếp tiếp nhận thông tin và xử lý việc báo thay đổi liên quan đến giảng dạy (nghỉ dạy, thay đổi cán bộ giảng dạy) và đăng ký dạy bù của cán bộ giảng dạy. - Phòng Thanh tra pháp chế và Đảm bảo chất lượng (P. TTPC&ĐBCL) là đơn vị phối hợp với P. ĐTĐH, chịu trách nhiệm thanh tra, giám sát việc giảng dạy; thống kê và báo cáo định kỳ về tình hình giảng dạy cho Ban Giám hiệu và các bên liên quan. - CBGD phải dạy đủ số tiết theo qui định của môn học (qui định trong đề cương môn học). Các tiết nghỉ dạy phải được đăng ký dạy bù sau hoặc trước đó cho đầy đủ. - CBGD phải báo cho P. ĐTĐH việc thay đổi giảng dạy (nghỉ dạy, thay đổi CBGD tạm thời). Trong trường hợp đột xuất, CBGD phải thông báo ngay cho P. ĐTĐH chậm nhất là 15 phút sau khi buổi học bắt đầu và gửi giấy báo nghỉ trong vòng 5 ngày sau buổi dạy đã cho nghỉ. CBGD không được nghỉ dạy quá 3 buổi/học kỳ/lớp trừ những trường hợp nghỉ do được điều động công tác của trường. - Sau khi buổi học bắt đầu 15 phút: o Nếu lớp học không có sinh viên mà không rõ lý do, CBGD có thể được nghỉ sau khi đã báo với P.ĐTĐH và không nhất thiết phải dạy bù cho buổi học này. o Nếu CBGD chưa đến lớp mà không rõ lý do thì được xem là nghỉ buổi dạy đó và CBGD bắt buộc phải tiến hành dạy bù vào buổi khác. Trong trường hợp bất khả kháng mà CBGD đến trễ quá 15 phút (nhưng không quá 30 phút) thì phải báo ngay cho P.ĐTĐH để thông báo cho sinh viên chờ, CBGD bắt buộc tiến hành dạy bù cho tiết học đó. - Trường hợp thay đổi CBGD tạm thời (CBGD bận đột xuất nhưng có CBGD khác dạy thay): CBGD chính cũng thực hiện tương tự như báo nghỉ dạy. Số buổi có CBGD khác dạy thay của một lớp không được quá 30% tổng số buổi dạy lớp đó. - Nếu CBGD dạy bù trong thời gian thực học phải đăng ký việc dạy bù trước ngày dạy bù ít nhất là 5 ngày và buổi dạy bù không được cùng ngày với buổi học chính theo thời khóa biểu của lớp. - P. ĐTĐH có thể yêu cầu CBGD đổi buổi dạy bù nếu thời gian mà CBGD đăng ký không phù hợp với lịch học của sinh viên (có trên 30% sinh viên của lớp có lịch học khác của trường vào thời gian CBGD đăng ký dạy bù).'],
['Học phí của chương trình đào tạo từ xa được tính như thế nào?', 'Điều 10. Nguyên tắc xác định học phí Học phí được thu theo từng học kỳ và được tính theo công thức sau: Học phí = HPTCHM × TCHPHM + HPTCHL × TCHPHL + HPTCCT × TCHPCT Trong đó: - HPTCHM: mức học phí cho loại tín chỉ học phí học mới. - TCHPHM: tổng số tín chỉ học phí của các môn học mới. - HPTCHL: mức học phí cho loại tín chỉ học phí học lại. - TCHPHL: tổng số tín chỉ học phí của các môn học lại. - HPTCCT: mức học phí cho loại tín chỉ học phí học cải thiện. - TCHPCT: tổng số tín chỉ học phí của các môn học cải thiện Vào đầu khóa học hoặc năm học, Trường công bố mức học phí cho mỗi loại tín chỉ học phí.'],
]
scores = model.predict(pairs)
print(scores.shape)
# (5,)
# Or rank different texts based on similarity to a single text
ranks = model.rank(
'Trường hợp một SV được CBCT cho xem bài của SV khác trong giờ thi được giải quyết như thế nào?',
[
'Điều 22. Xử lý cán bộ vi phạm quy định Trong thời gian thi, nếu các cán bộ thanh tra thi phát hiện thấy các trường hợp vi phạm thì lập biên bản tại chỗ và đề nghị Hiệu trưởng xử lý. Người tham gia công tác thi có hành vi vi phạm quy định (bị phát hiện trong khi làm nhiệm vụ hoặc sau kỳ thi), nếu có đủ chứng cứ, tùy theo mức độ, sẽ bị xử lý theo các hình thức sau đây. 1. Khiển trách đối với những người phạm lỗi nhẹ trong khi thi hành nhiệm vụ. 2. Cảnh cáo đối với những người vi phạm một trong các lỗi sau đây: a. CBCT bỏ coi thi mà không thông báo cho đơn vị tổ chức môn thi từ 2 lần trở lên trong một đợt thi. b. CBCT để cho SV tự do trao đổi khi làm bài, sử dụng tài liệu bị cấm sử dụng hoặc sử dụng các phương tiện thông tin liên lạc tại phòng thi. c. Cán bộ chấm thi chấm điểm hoặc cộng điểm bài thi có nhiều sai sót (trên 5% tổng số bài thi). d. Cán bộ chấm thi nộp điểm trễ so với thời hạn quy định. 3. Tùy theo mức độ vi phạm có thể bị hạ bậc lương, hạ ngạch, cách chức hoặc chuyển đi làm công tác khác đối với những người vi phạm một trong các lỗi sau đây: a. Trực tiếp giải bài rồi hướng dẫn cho SV lúc đang thi. b. Lấy bài thi của SV làm được giao cho SV khác. 4. Buộc thôi việc hoặc bị xử lý theo pháp luật đối với người có một trong các hành vi sai phạm sau đây: a. Làm lộ đề thi, mua, bán đề thi. b. Đưa đề thi ra ngoài khu vực thi hoặc đưa bài giải từ ngoài vào phòng thi trong lúc đang thi. c. Cố tình làm sai lệch điểm trên bài thi hoặc trong bảng điểm. d. Đánh tráo bài thi của SV. 5. Cán bộ làm mất bài thi của SV khi thu bài thi, vận chuyển, bảo quản, chấm thi hoặc có những sai phạm khác trong công tác tổ chức thi, tùy theo tính chất, mức độ vi phạm sẽ bị xử lý vi phạm theo một trong các hình thức quy định tại Điều này. 6. Những cán bộ, SV tuy không tham gia công tác thi nhưng nếu có các hành động tiêu cực như: thi hộ, tổ chức lấy đề thi ra và đưa bài giải vào cho SV, gây rối làm mất trất tự tại khu vực thi sẽ bị buộc thôi việc (nếu là cán bộ) hoặc buộc thôi học (nếu là học sinh, SV).',
'Điều 2. Nguyên tắc quản lý, cấp phát văn bằng, chứng chỉ 1. Văn bằng, chứng chỉ của Trường ĐHCNTT phát hành thuộc hệ thống văn bằng, chứng chỉ giáo dục quốc dân. 2. Văn bằng, chứng chỉ được quản lý thống nhất, thực hiện phân cấp quản lý bảo đảm quyền và trách nhiệm của các đơn vị trong Trường. 3. Văn bằng, chứng chỉ được cấp một lần trừ trường hợp quy định tại Điều 15 của Quy chế này. 4. Nghiêm cấm mọi hành vi gian lận trong cấp phát và sử dụng văn bằng, chứng chỉ. 5. Bảo đảm công khai, minh bạch trong cấp phát văn bằng, chứng chỉ.',
'V. NỘI DUNG QUY TRÌNH Quy trình phân công cán bộ coi thi gồm 3 giai đoạn tương ứng với 3 quy trình thành phần: Đăng ký coi thi, Phân công cán bộ coi thi và Tổng kết coi thi. Chi tiết các quy trình như sau. 1. Quy trình đăng ký coi thi Bước 1: Xây dựng kế hoạch thi Phòng Đào tạo Đại học xây dựng và thông báo kế hoạch thi cho các đơn vị tổ chức thi; trong đó xác định rõ các mốc thời gian chính. Thời gian trước 21 ngày tính từ ngày mở hệ thống đăng ký coi thi. Bước 2: Xếp lịch thi, đưa lịch thi lên hệ thống Phòng Đào tạo Đại học xếp lịch thi, đưa thông tin lịch thi lên Hệ thống và gửi cho các đơn vị tổ chức thi để chuẩn bị cho công tác đăng ký coi thi. Hệ thống hỗ trợ kiểm tra tính hợp lệ của lịch thi. Thời gian trước 21 ngày kể từ ngày mở hệ thống đăng ký coi thi. Bước 3: Thông báo cán bộ và sinh viên đăng ký coi thi Phòng Đào tạo Đại học thông báo cho cán bộ và sinh viên đăng ký coi thi qua email hoặc trên trang web Cổng thông tin đào tạo đại học. Thời gian trước 7 ngày kể từ ngày mở hệ thống đăng ký coi thi. Bước 4: Mở hệ thống đăng ký coi thi Phòng Đào tạo Đại học mở Hệ thống để cán bộ, sinh viên đăng ký coi thi theo các mốc thời gian trong kế hoạch. Bước 5: Đăng ký coi thi Cán bộ và sinh viên đăng ký coi thi trên Hệ thống. Bước 6: Đóng hệ thống đăng ký coi thi Phòng Đào tạo Đại học đóng Hệ thống khi kết thúc thời gian theo quy định. 2. Quy trình phân công cán bộ coi thi Bước 1: Chạy chức năng Phân công CBCT Phòng Đào tạo Đại học chạy chức năng phân công cán bộ coi thi của phần mềm quản lý đào tạo. Hệ thống tự động tính định mức coi thi của giảng viên điền tên cán bộ chưa đăng ký đủ số lượt coi thi theo quy định vào các ca thi chưa có cán bộ coi thi. Thời gian thực hiện trước 8 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 2: Thông báo CBCT kiểm tra lịch coi thi Phòng Đào tạo Đại học thông báo cán bộ coi thi kiểm tra lịch coi thi tại Cổng thông tin đào tạo đại học. Thời gian thực hiện trước 7 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 3: CBCT kiểm tra lịch coi thi, đề xuất CBCT thay thế (nếu cần) Nếu vì lý do bất khả kháng, cán bộ coi thi không thể coi thi theo lịch đã phân công thì cán bộ coi thi tìm người thay thế và sử dụng chức năng đề xuất cán bộ coi thi thay thế của Hệ thống. Sau khi người coi thi thay xác nhận đồng ý coi thi thay qua Hệ thống thì thay thế đó mới có hiệu lực. Nếu không tìm được người thay thế cụ thể thì cán bộ coi thi vẫn có thể sử dụng chức năng Đề xuất cán bộ coi thi thay thế để tìm người hỗ trợ coi thi, và phân công được thay đổi khi có người xác nhận đồng ý coi thi thay trên Hệ thống. Thời gian thực hiện trước 6 ngày kể từ ngày thi đầu tiên của đợt thi. Bước 4: CBCT thực hiện công tác coi thi Cán bộ coi thi có trách nhiệm thực hiện công tác coi thi theo đúng lịch coi thi trên Hệ thống. 3. Quy trình tổng kết coi thi Bước 1: Khóa Hệ thống Phòng Đào tạo Đại học khóa toàn bộ chức năng thay đổi phân công cán bộ coi thi trên Hệ thống. Thời gian hoàn thành là 1 ngày sau ngày thi cuối cùng của đợt thi. Bước 2: Xác nhận việc thực hiện coi thi Các đơn vị tổ chức thi xác nhận cán bộ coi thi thực tế cho các ca thi do đơn vị phụ trách và gửi báo cáo tình hình coi thi cho Ban Giám hiệu thông qua Phòng Đào tạo Đại học nếu có cán bộ coi thi vi phạm quy định về coi thi. Thời gian hoàn thành là 1 ngày sau ngày thi cuối cùng của đợt thi. Bước 3: Tổng kết coi thi Trường xem xét xử lý kỷ luật cán bộ coi thi vi phạm quy định về coi thi (nếu có). Phòng Đào tạo Đại học làm đề xuất, Phòng Kế hoạch Tài chính làm thủ tục chi trả thù lao coi thi cho cán bộ coi thi theo quy định. Thời gian hoàn thành là 10 ngày sau ngày thi cuối cùng của đợt thi.',
'1. QUY ĐỊNH CHUNG - Phòng Đào tạo Đại học (P. ĐTĐH) là đơn vị trực tiếp tiếp nhận thông tin và xử lý việc báo thay đổi liên quan đến giảng dạy (nghỉ dạy, thay đổi cán bộ giảng dạy) và đăng ký dạy bù của cán bộ giảng dạy. - Phòng Thanh tra pháp chế và Đảm bảo chất lượng (P. TTPC&ĐBCL) là đơn vị phối hợp với P. ĐTĐH, chịu trách nhiệm thanh tra, giám sát việc giảng dạy; thống kê và báo cáo định kỳ về tình hình giảng dạy cho Ban Giám hiệu và các bên liên quan. - CBGD phải dạy đủ số tiết theo qui định của môn học (qui định trong đề cương môn học). Các tiết nghỉ dạy phải được đăng ký dạy bù sau hoặc trước đó cho đầy đủ. - CBGD phải báo cho P. ĐTĐH việc thay đổi giảng dạy (nghỉ dạy, thay đổi CBGD tạm thời). Trong trường hợp đột xuất, CBGD phải thông báo ngay cho P. ĐTĐH chậm nhất là 15 phút sau khi buổi học bắt đầu và gửi giấy báo nghỉ trong vòng 5 ngày sau buổi dạy đã cho nghỉ. CBGD không được nghỉ dạy quá 3 buổi/học kỳ/lớp trừ những trường hợp nghỉ do được điều động công tác của trường. - Sau khi buổi học bắt đầu 15 phút: o Nếu lớp học không có sinh viên mà không rõ lý do, CBGD có thể được nghỉ sau khi đã báo với P.ĐTĐH và không nhất thiết phải dạy bù cho buổi học này. o Nếu CBGD chưa đến lớp mà không rõ lý do thì được xem là nghỉ buổi dạy đó và CBGD bắt buộc phải tiến hành dạy bù vào buổi khác. Trong trường hợp bất khả kháng mà CBGD đến trễ quá 15 phút (nhưng không quá 30 phút) thì phải báo ngay cho P.ĐTĐH để thông báo cho sinh viên chờ, CBGD bắt buộc tiến hành dạy bù cho tiết học đó. - Trường hợp thay đổi CBGD tạm thời (CBGD bận đột xuất nhưng có CBGD khác dạy thay): CBGD chính cũng thực hiện tương tự như báo nghỉ dạy. Số buổi có CBGD khác dạy thay của một lớp không được quá 30% tổng số buổi dạy lớp đó. - Nếu CBGD dạy bù trong thời gian thực học phải đăng ký việc dạy bù trước ngày dạy bù ít nhất là 5 ngày và buổi dạy bù không được cùng ngày với buổi học chính theo thời khóa biểu của lớp. - P. ĐTĐH có thể yêu cầu CBGD đổi buổi dạy bù nếu thời gian mà CBGD đăng ký không phù hợp với lịch học của sinh viên (có trên 30% sinh viên của lớp có lịch học khác của trường vào thời gian CBGD đăng ký dạy bù).',
'Điều 10. Nguyên tắc xác định học phí Học phí được thu theo từng học kỳ và được tính theo công thức sau: Học phí = HPTCHM × TCHPHM + HPTCHL × TCHPHL + HPTCCT × TCHPCT Trong đó: - HPTCHM: mức học phí cho loại tín chỉ học phí học mới. - TCHPHM: tổng số tín chỉ học phí của các môn học mới. - HPTCHL: mức học phí cho loại tín chỉ học phí học lại. - TCHPHL: tổng số tín chỉ học phí của các môn học lại. - HPTCCT: mức học phí cho loại tín chỉ học phí học cải thiện. - TCHPCT: tổng số tín chỉ học phí của các môn học cải thiện Vào đầu khóa học hoặc năm học, Trường công bố mức học phí cho mỗi loại tín chỉ học phí.',
]
)
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
Customize original dataset UIT-R2GQA using function [`mine_hard_negatives`](https://sbert.net/docs/package_reference/util.html#sentence_transformers.util.mine_hard_negatives)
* Size: 7,806 training samples
* Columns: <code>question</code>, <code>context</code>, and <code>negative</code>
* Approximate statistics based on the first 1000 samples:
| | question | context | negative |
|:--------|:------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 10 characters</li><li>mean: 75.23 characters</li><li>max: 242 characters</li></ul> | <ul><li>min: 99 characters</li><li>mean: 1764.58 characters</li><li>max: 5480 characters</li></ul> | <ul><li>min: 75 characters</li><li>mean: 1177.52 characters</li><li>max: 5480 characters</li></ul> |
* Samples:
| question | context | negative |
|:------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>Yêu cầu của giáo trình được sử dụng cho việc giảng dạy là gì?</code> | <code>Điều 5. Giáo trình cho mỗi học phần 5.1. Mỗi học phần dùng một giáo trình chính. Trong từng giai đoạn, giáo trình cho học phần có thể thay đổi do Hiệu trưởng ra quyết định. 5.2. Ngoài một giáo trình chính, mỗi học phần được trường tổ chức biên soạn tối đa hai sách chuyên khảo, ba tài liệu tham khảo, một tài liệu hướng dẫn. 5.3. Các giáo trình sử dụng trong giảng dạy phải được ghi rõ trong đề cương học phần đã được Hiệu trưởng phê duyệt.</code> | <code>Điều 13. Kinh phí giáo trình ĐHQG hỗ trợ cho xuất bản giáo trình 13.1. Đối với giáo trình xuất bản Để thúc đẩy cho công tác giáo trình phát triển nhanh, đáp ứng kịp cho nhu cầu đào tạo, ĐHQG chi hỗ trợ một phần kinh phí. Cụ thể là: a) Hỗ trợ 50% cho phí in đối với giáo trình có số lượng xuất bản đến 500 quyển. Cụ thể, mức hỗ trợ kinh phí in 1 tựa giáo trình được tính như sau: = (đơn giá in 1 trang × số trang × số lượng giáo trình xuất bản) × 50% b) Hỗ trợ 100% phí quản lý và phí biên tập của NXB ĐHQG. 13.2. Đối với giáo trình tái bản Giáo trình tái bản được hỗ trợ kinh phí theo mức ghi ở mục a, b khoản 1 Điều này.</code> |
| <code>Những cá nhân học đại học hay thạc sĩ hệ đào tạo từ xa có liên quan đến quy chế đào tạo từ xa?</code> | <code>Điều 1. Phạm vi điều chỉnh và đối tượng áp dụng 1. Quy chế này quy định những điều chung nhất về tổ chức tuyển sinh và đào tạo theo hình thức đào tạo từ xa (hay đào tạo từ xa qua mạng) trình độ đại học của Trường Đại học Công nghệ Thông tin (gọi tắt là Trường) thuộc ĐHQG-HCM. 2. Quy chế này áp dụng đối với sinh viên, giảng viên, các đơn vị và cá nhân có liên quan đến đào tạo từ xa trình độ đại học của Trường.</code> | <code>Điều 1. Phạm vi điều chỉnh và đối tượng áp dụng 1. Văn bản này quy định về tuyển sinh, tổ chức và quản lý đào tạo đối với chương trình đào tạo liên thông từ trình độ đại học lên trình đô thạc sĩ hệ chính quy của Trường Đại học Công nghệ Thông tin – ĐHQG-HCM (sau đây gọi tắt là chương trình ĐH-ThS). 2. Quy định này áp dụng đối với tổ chức và cá nhân có liên quan đến chương trình ĐH-ThS.</code> |
| <code>Các buổi seminar ngoại khóa được tổ chức như thế nào?</code> | <code>Điều 2. Giải thích từ ngữ Sinh viên thuộc chương trình tài năng có 02 hình thức là chính thức và dự bị, nằm trong tổng chỉ tiêu của chương trình: - Sinh viên chính thức: đảm bảo đáp ứng các tiêu chuẩn theo yêu cầu và được hưởng đầy đủ các quyền lợi của chương trình. - Sinh viên dự bị: cùng điều kiện học tập và học cùng chương trình đào tạo với sinh viên chính thức nhưng không được hưởng chính sách về học bổng tài năng. Sinh viên dự bị bao gồm các sinh viên trong lớp tài năng vi phạm điều kiện đạt sinh viên chính thức nhưng chưa bị loại ra khỏi chương trình trong các đợt xét sau mỗi học kỳ, và sinh viên mới tuyển bổ sung vào chương trình. Môn học cốt lõi: là môn học quan trọng trong CTĐT, là phần kiến thức không thể thiếu trong lĩnh vực chuyên môn liên quan tới ngành đào tạo chương trình tài năng. Danh sách môn học cốt lõi do Khoa đề nghị trong đề án mở chương trình tài năng. Seminar ngoại khóa: được tổ chức ngoài buổi học theo thời khóa biểu chính thức để tăng cường kỹ năng cho sinh vi...</code> | <code>Điều 20. Tổ chức đánh giá môn học 1. Điều kiện dự thi kết thúc học phần Sinh viên được dự thi kết thúc học phần khi có mặt từ 80% trở lên số buổi học theo thời khóa biểu của học phần đó, trừ những sinh viên được Hiệu trưởng cho phép học chương trình song ngành. Giảng viên có thể để nghị P.ĐTĐH không cho sinh viên dự thi kết thúc học phần theo quy định riêng của môn học đã công bố cho sinh viên. 2. Tổ chức các đợt thi tập trung Mỗi học kỳ chính Trường tổ chức một kỳ kiểm tra giữa kỳ và một kỳ thi kết thúc học kỳ. Hai đợt thi được tổ chức tập trung theo kế hoạch giảng dạy và học tập của Trường. Khoa, bộ môn, giảng viên không tổ chức thi ngoài các đợt đã thông báo. Hiệu trưởng quy định thời gian học, ôn thi và thi cho từng học kỳ. 3. Tổ chức đánh giá môn học Việc tổ chức đánh giá học phần được thực hiện theo đề cương chi tiết đã phê duyệt. Quy định cụ thể việc tổ chức thi kết thúc học phần, ra đề thi, chấm thi, chấm phúc khảo và xử lý điểm sau chấm phúc khảo; thông báo kết quả, công tác b...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 10.0,
"num_negatives": 1,
"activation_fn": "torch.nn.modules.activation.Sigmoid"
}
```
### Evaluation Dataset
- model_id: KhoaUIT/KhoaUIT-CrossEncoder-UIT-R2GQA
- evaluator: [`CrossEncoderRerankingEvaluator`](https://sbert.net/docs/package_reference/cross_encoder/evaluation.html#crossencoderrerankingevaluator)
- valid set:
| map | mrr@10 | ndcg@10 |
|:------:|:------:|:-------:|
| 0.9969 | 0.9969 | 0.9977 |
- test set:
| map | mrr@10 | ndcg@10 |
|:------:|:------:|:-------:|
| 0.9969 | 0.9969 | 0.9977 |
#### Unnamed Dataset
Customize original dataset UIT-R2GQA using function [`mine_hard_negatives`](https://sbert.net/docs/package_reference/util.html#sentence_transformers.util.mine_hard_negatives)
* Size: 974 evaluation samples
* Columns: <code>question</code>, <code>context</code>, and <code>negative</code>
* Approximate statistics based on the first 974 samples:
| | question | context | negative |
|:--------|:------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 11 characters</li><li>mean: 76.63 characters</li><li>max: 250 characters</li></ul> | <ul><li>min: 99 characters</li><li>mean: 1663.22 characters</li><li>max: 5480 characters</li></ul> | <ul><li>min: 99 characters</li><li>mean: 1323.13 characters</li><li>max: 5480 characters</li></ul> |
* Samples:
| question | context | negative |
|:----------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>Trường hợp một SV được CBCT cho xem bài của SV khác trong giờ thi được giải quyết như thế nào?</code> | <code>Điều 22. Xử lý cán bộ vi phạm quy định Trong thời gian thi, nếu các cán bộ thanh tra thi phát hiện thấy các trường hợp vi phạm thì lập biên bản tại chỗ và đề nghị Hiệu trưởng xử lý. Người tham gia công tác thi có hành vi vi phạm quy định (bị phát hiện trong khi làm nhiệm vụ hoặc sau kỳ thi), nếu có đủ chứng cứ, tùy theo mức độ, sẽ bị xử lý theo các hình thức sau đây. 1. Khiển trách đối với những người phạm lỗi nhẹ trong khi thi hành nhiệm vụ. 2. Cảnh cáo đối với những người vi phạm một trong các lỗi sau đây: a. CBCT bỏ coi thi mà không thông báo cho đơn vị tổ chức môn thi từ 2 lần trở lên trong một đợt thi. b. CBCT để cho SV tự do trao đổi khi làm bài, sử dụng tài liệu bị cấm sử dụng hoặc sử dụng các phương tiện thông tin liên lạc tại phòng thi. c. Cán bộ chấm thi chấm điểm hoặc cộng điểm bài thi có nhiều sai sót (trên 5% tổng số bài thi). d. Cán bộ chấm thi nộp điểm trễ so với thời hạn quy định. 3. Tùy theo mức độ vi phạm có thể bị hạ bậc lương, hạ ngạch, cách chức hoặc chuyển đi làm ...</code> | <code>Điều 10. Giảng dạy các môn CTTN CTTN phải được thực hiện trên quan điểm lấy người học làm trung tâm. Người học phải được tạo điều kiện để thể hiện vai trò chủ động trong tiến trình học tập. Người học phải đóng vai trò chủ động trong hoạt động học tập, thay vì thụ động tiếp nhận kiến thức. Sinh viên CTTN sẽ học cùng với sinh viên các lớp chương trình chuẩn trong các môn được đào tạo chung, các môn học cốt lõi dành riêng cho sinh viên CTTN được tổ chức lớp học riêng. Khoa quản lý chuyên môn có trách nhiệm chọn các cán bộ có kinh nghiệm để phụ trách giảng dạy. Các môn học tài năng và KLTN phải do CBGD có học vị tiến sĩ hoặc giảng viên chính, hoặc thạc sĩ tốt nghiệp ở các trường Đại học thuộc các nước tiên tiến, đúng ngành hoặc thuộc ngành gần đảm nhiệm. Trong tuần đầu tiên của học kỳ, CBGD phải thông báo công khai cho sinh viên về đề cương giảng dạy môn học; trong đó đặc biệt chú ý các thông tin, các phần học bổ sung tăng cường; số cột điểm và tỷ lệ tính của từng cột điểm vào điểm tổng kế...</code> |
| <code>Có thể nhận chứng chỉ hai lần trở lên không?</code> | <code>Điều 2. Nguyên tắc quản lý, cấp phát văn bằng, chứng chỉ 1. Văn bằng, chứng chỉ của Trường ĐHCNTT phát hành thuộc hệ thống văn bằng, chứng chỉ giáo dục quốc dân. 2. Văn bằng, chứng chỉ được quản lý thống nhất, thực hiện phân cấp quản lý bảo đảm quyền và trách nhiệm của các đơn vị trong Trường. 3. Văn bằng, chứng chỉ được cấp một lần trừ trường hợp quy định tại Điều 15 của Quy chế này. 4. Nghiêm cấm mọi hành vi gian lận trong cấp phát và sử dụng văn bằng, chứng chỉ. 5. Bảo đảm công khai, minh bạch trong cấp phát văn bằng, chứng chỉ.</code> | <code>Điều 5. Xét miễn các môn học tiếng Anh 1. Sinh viên được xét miễn học các môn tiếng Anh tương ứng nếu có một trong các chứng chỉ/chứng nhận đạt trình độ tối thiểu theo quy định tại Bảng 3. Sinh viên được miễn môn học nào thì đồng thời được miễn những môn học ở cấp độ thấp hơn mà sinh viên chưa học hoặc chưa đạt. Dưới đây là các mức điểm của chứng chỉ/chứng nhận và môn học được miễn theo các điểm số tương ứng: TOEIC Nghe-Đọc đạt từ 350 - dưới 400, TOEIC Nói-Viết đạt từ 100 – dưới 120, TOEFL iBT đạt từ 32 – dưới 35, IELTS đạt 3.5, VNU-EPT đạt từ 152 - dưới 165, chứng chỉ Cambridge English KET (Merit) hay A2 Key (Grade C) sẽ được miễn Anh văn 1 (mã môn ENG01) đối với cả chương trình CTC/ CTTN và CTTT. TOEIC Nghe-Đọc đạt từ 400 - dưới 450, TOEIC Nói-Viết đạt từ 120 – dưới 140, TOEFL iBT đạt từ 32 – dưới 35, IELTS đạt 3.5, VNU-EPT đạt từ 152 - dưới 165, chứng chỉ Cambridge English KET (Merit) hay A2 Key (Grade C) sẽ được miễn Anh văn 2 (mã môn ENG02) đối với cả chương trình CTC/ CTTN và CTT...</code> |
| <code>Đơn vị nào chịu trách nhiệm xếp lịch thi, đưa thông tin lịch thi các đợt thi tập trung hệ đại học chính quy lên Hệ thống ?</code> | <code>V. NỘI DUNG QUY TRÌNH Quy trình phân công cán bộ coi thi gồm 3 giai đoạn tương ứng với 3 quy trình thành phần: Đăng ký coi thi, Phân công cán bộ coi thi và Tổng kết coi thi. Chi tiết các quy trình như sau. 1. Quy trình đăng ký coi thi Bước 1: Xây dựng kế hoạch thi Phòng Đào tạo Đại học xây dựng và thông báo kế hoạch thi cho các đơn vị tổ chức thi; trong đó xác định rõ các mốc thời gian chính. Thời gian trước 21 ngày tính từ ngày mở hệ thống đăng ký coi thi. Bước 2: Xếp lịch thi, đưa lịch thi lên hệ thống Phòng Đào tạo Đại học xếp lịch thi, đưa thông tin lịch thi lên Hệ thống và gửi cho các đơn vị tổ chức thi để chuẩn bị cho công tác đăng ký coi thi. Hệ thống hỗ trợ kiểm tra tính hợp lệ của lịch thi. Thời gian trước 21 ngày kể từ ngày mở hệ thống đăng ký coi thi. Bước 3: Thông báo cán bộ và sinh viên đăng ký coi thi Phòng Đào tạo Đại học thông báo cho cán bộ và sinh viên đăng ký coi thi qua email hoặc trên trang web Cổng thông tin đào tạo đại học. Thời gian trước 7 ngày kể từ ngày mở hệ...</code> | <code>Điều 9. Nhân đề thi và đóng gói đề thi 1. Đơn vị tổ chức thi có trách nhiệm nhân đề thi và đóng gói thành các túi đề thi cho những môn thi mà mình phụ trách. Mỗi đợt thi, đơn vị tổ chức thi cử 01 cán bộ phụ trách chính công tác nhân đề thi cho kỳ thi. Đơn vị tổ chức thi chuẩn bị nhãn túi đựng đề thi và liên hệ Thư viện đăng ký lịch nhân đề thi. 2. Thư viện chịu trách nhiệm cử cán bộ hỗ trợ kỹ thuật trong quá trình nhân đề thi tại Thư viện khi Đơn vị tổ chức thi yêu cầu. 3. Trường hợp tổ chức thi trên máy tính tại phòng máy thì Phòng Dữ liệu và Công nghệ Thông tin cử cán bộ hỗ trợ kỹ thuật trong quá trình chuẩn bị phòng máy; quá trình nhập đề thi, trộn đề thi; và hỗ trợ trong quá trình thi tại phòng máy. 4. Trong quá trình nhân đề thi, cán bộ phụ trách nhân đề thi phải kiểm tra chất lượng bản in. Các bản in thử phải được thu lại và bảo quản theo chế độ tài liệu mật. 5. Khi đóng gói đề thi phải bảo đảm đề thi đúng môn thi ghi ở phong bì đề thi, đủ số lượng đề thi cho từng phòng thi và dư...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 10.0,
"num_negatives": 1,
"activation_fn": "torch.nn.modules.activation.Sigmoid"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `learning_rate`: 1e-05
- `warmup_ratio`: 0.1
- `fp16`: True
- `dataloader_drop_last`: True
- `load_best_model_at_end`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 8
- `per_device_eval_batch_size`: 8
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 1e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: True
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss | Validation Loss |
|:------:|:----:|:-------------:|:---------------:|
| 0.2564 | 250 | 0.9351 | 0.1729 |
| 0.5128 | 500 | 0.1219 | 0.0746 |
| 0.7692 | 750 | 0.0909 | 0.0677 |
| 1.0256 | 1000 | 0.0558 | 0.0603 |
| 1.2821 | 1250 | 0.0452 | 0.0428 |
| 1.5385 | 1500 | 0.0364 | 0.0432 |
| 1.7949 | 1750 | 0.0468 | 0.0334 |
### Framework Versions
- Python: 3.11.11
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |
MaxPowerUnlimited/vit-superhero-villain | MaxPowerUnlimited | 2025-06-01T09:52:56 | 38 | 0 | transformers | [
"transformers",
"tensorboard",
"safetensors",
"vit",
"image-classification",
"generated_from_trainer",
"dataset:imagefolder",
"base_model:google/vit-base-patch16-224",
"base_model:finetune:google/vit-base-patch16-224",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | image-classification | 2025-05-31T07:07:59 | ---
library_name: transformers
license: apache-2.0
base_model: google/vit-base-patch16-224
tags:
- image-classification
- generated_from_trainer
datasets:
- imagefolder
metrics:
- accuracy
model-index:
- name: vit-superhero-villain
results:
- task:
name: Image Classification
type: image-classification
dataset:
name: imagefolder
type: imagefolder
config: default
split: train
args: default
metrics:
- name: Accuracy
type: accuracy
value: 0.736318407960199
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# vit-superhero-villain
This model is a fine-tuned version of [google/vit-base-patch16-224](https://huggingface.co/google/vit-base-patch16-224) on the imagefolder dataset.
It achieves the following results on the evaluation set:
- Loss: 1.2902
- Accuracy: 0.7363
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 64
- eval_batch_size: 8
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 20
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| No log | 1.0 | 26 | 1.4140 | 0.735 |
| 1.2713 | 2.0 | 52 | 1.3908 | 0.735 |
| 1.2713 | 3.0 | 78 | 1.3709 | 0.735 |
| 1.2028 | 4.0 | 104 | 1.3544 | 0.74 |
| 1.2028 | 5.0 | 130 | 1.3359 | 0.74 |
| 1.1776 | 6.0 | 156 | 1.3219 | 0.74 |
| 1.1776 | 7.0 | 182 | 1.3078 | 0.74 |
| 1.1515 | 8.0 | 208 | 1.2952 | 0.74 |
| 1.1515 | 9.0 | 234 | 1.2841 | 0.74 |
| 1.1519 | 10.0 | 260 | 1.2733 | 0.745 |
| 1.1519 | 11.0 | 286 | 1.2637 | 0.745 |
| 1.107 | 12.0 | 312 | 1.2557 | 0.745 |
| 1.107 | 13.0 | 338 | 1.2495 | 0.745 |
| 1.0611 | 14.0 | 364 | 1.2441 | 0.745 |
| 1.0611 | 15.0 | 390 | 1.2388 | 0.745 |
| 1.0748 | 16.0 | 416 | 1.2347 | 0.745 |
| 1.0748 | 17.0 | 442 | 1.2317 | 0.745 |
| 1.0563 | 18.0 | 468 | 1.2294 | 0.745 |
| 1.0563 | 19.0 | 494 | 1.2280 | 0.745 |
| 1.062 | 20.0 | 520 | 1.2277 | 0.745 |
### Framework versions
- Transformers 4.50.3
- Pytorch 2.5.1+cu121
- Datasets 3.5.0
- Tokenizers 0.21.1
|
Seanwang1221/SongJia_FLUX | Seanwang1221 | 2025-06-01T09:32:15 | 0 | 0 | diffusers | [
"diffusers",
"text-to-image",
"lora",
"template:diffusion-lora",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"region:us"
] | text-to-image | 2025-06-01T09:31:36 | ---
tags:
- text-to-image
- lora
- diffusers
- template:diffusion-lora
widget:
- text: >-
SJ, white dress,looking at viewer, floral print, depth of field, night
cityscape, (1girl:1), long hair, ulzzang-6500v1.1, (original: 1.2),
(realistic: 1.3) , beautiful girl with beautiful details, extremely detailed
eyes and face, eyes with beautiful details, absurd, incredibly absurd, huge
file size, ultra detail, high resolution, ultra detailed, best quality,
masterpiece, illustration, ultra detailed and beautiful, ultra detailed, CG,
unity, 8k wallpaper, amazing, fine Detail, masterpiece, top quality,
official art, extremely detailed CG unity 8k wallpaper, cinematic lighting,
(perfect shiny skin:0.6), slim and smooth lines, (floating), (small
breasts:1), earrings ,
output:
url: images/Liblib_01400_.png
- text: >-
SJ, In a dimly lit, vintage-inspired boudoir, the captivating SJ is poised
against a velvet-draped chaise lounge, her cascading raven tresses framing a
radiant smile that lights up the room. Her eyes twinkle with an enchanting
allure as they gaze into the distance, a pair of exquisite emerald earrings
adorning her lobes. A smoky-eye makeup look and bold red lipstick accentuate
her stunning features. Her fingers playfully trace the edge of a worn,
feather-trimmed pillow, her delicate hand adorned with intricate gold
bracelets. The camera captures this intimate moment from a low angle,
focusing on her expressive eyes and the subtle glow emanating from within,
creating an ethereal and dreamy atmosphere that speaks volumes about her
innate grace and charisma.
output:
url: images/Liblib_01386_.png
- text: >-
SJ, In a surrealist noir landscape, under the soft glow of a neon-lit
cityscape, SJ stands in a dramatic pose, her long, cascading brown hair
obscuring one piercing blue eye as she turns her head slightly to the side.
Her lips are parted in a mysterious smile, revealing perfectly white teeth
adorned with a glittering silver tooth gem. A single, intricate necklace
made of obsidian and gold hangs around her neck, catching the dim light and
casting eerie shadows on her porcelain skin. The camera is positioned at eye
level, focusing closely on her face, capturing every detail of her unique
features, while the rest of the scene remains blurred and indistinct in the
background, adding to the dreamlike quality of the image. A halo of light
illuminates her from behind, casting an ethereal glow around her figure,
enhancing the enigmatic aura that surrounds her.
output:
url: images/Liblib_01399_.png
base_model: black-forest-labs/FLUX.1-dev
instance_prompt: SJ
---
# Song Jia 宋佳 CN Actress FLUX
<Gallery />
## Trigger words
You should use `SJ` to trigger the image generation.
## Download model
Weights for this model are available in Safetensors format.
[Download](/Seanwang1221/SongJia_FLUX/tree/main) them in the Files & versions tab.
|
debby0130/dreaming_ds | debby0130 | 2025-06-01T09:21:05 | 0 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"arxiv:1910.09700",
"base_model:deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
"base_model:adapter:deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
"region:us"
] | null | 2025-06-01T09:16:10 | ---
base_model: deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
library_name: peft
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
### Framework versions
- PEFT 0.15.2 |
mradermacher/HebQwen-json-2025-GGUF | mradermacher | 2025-06-01T09:15:38 | 12 | 0 | transformers | [
"transformers",
"gguf",
"en",
"base_model:asafd60/HebQwen-json-2025",
"base_model:quantized:asafd60/HebQwen-json-2025",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-01-15T14:37:14 | ---
base_model: asafd60/HebQwen-json-2025
language:
- en
library_name: transformers
quantized_by: mradermacher
tags: []
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/asafd60/HebQwen-json-2025
<!-- provided-files -->
weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion.
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.mmproj-fp16.gguf) | mmproj-fp16 | 1.5 | multi-modal supplement |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q2_K.gguf) | Q2_K | 3.1 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q3_K_S.gguf) | Q3_K_S | 3.6 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q3_K_M.gguf) | Q3_K_M | 3.9 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q3_K_L.gguf) | Q3_K_L | 4.2 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.IQ4_XS.gguf) | IQ4_XS | 4.4 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q4_K_S.gguf) | Q4_K_S | 4.6 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q4_K_M.gguf) | Q4_K_M | 4.8 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q5_K_S.gguf) | Q5_K_S | 5.4 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q5_K_M.gguf) | Q5_K_M | 5.5 | |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q6_K.gguf) | Q6_K | 6.4 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.Q8_0.gguf) | Q8_0 | 8.2 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/HebQwen-json-2025-GGUF/resolve/main/HebQwen-json-2025.f16.gguf) | f16 | 15.3 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time. Additional thanks to [@nicoboss](https://huggingface.co/nicoboss) for giving me access to his private supercomputer, enabling me to provide many more imatrix quants, at much higher quality, than I would otherwise be able to.
<!-- end -->
|
mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF | mradermacher | 2025-06-01T09:14:57 | 7 | 0 | transformers | [
"transformers",
"gguf",
"en",
"base_model:prithivMLmods/Qwen2-VL-Math-Prase-2B-Instruct",
"base_model:quantized:prithivMLmods/Qwen2-VL-Math-Prase-2B-Instruct",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-01-15T17:55:24 | ---
base_model: prithivMLmods/Qwen2-VL-Math-Prase-2B-Instruct
language:
- en
library_name: transformers
license: apache-2.0
quantized_by: mradermacher
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/prithivMLmods/Qwen2-VL-Math-Prase-2B-Instruct
<!-- provided-files -->
weighted/imatrix quants are available at https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-i1-GGUF
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q2_K.gguf) | Q2_K | 0.8 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q3_K_S.gguf) | Q3_K_S | 0.9 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q3_K_M.gguf) | Q3_K_M | 0.9 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q3_K_L.gguf) | Q3_K_L | 1.0 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.IQ4_XS.gguf) | IQ4_XS | 1.0 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q4_K_S.gguf) | Q4_K_S | 1.0 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q4_K_M.gguf) | Q4_K_M | 1.1 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q5_K_S.gguf) | Q5_K_S | 1.2 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q5_K_M.gguf) | Q5_K_M | 1.2 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q6_K.gguf) | Q6_K | 1.4 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.mmproj-fp16.gguf) | mmproj-fp16 | 1.4 | multi-modal supplement |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.Q8_0.gguf) | Q8_0 | 1.7 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2-VL-Math-Prase-2B-Instruct-GGUF/resolve/main/Qwen2-VL-Math-Prase-2B-Instruct.f16.gguf) | f16 | 3.2 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
VIDEOS-18-Gangu-chhetri-kanda-Videos/FULL.VIDEO.Gangu.chhetri.Viral.Video.Tutorial.Official | VIDEOS-18-Gangu-chhetri-kanda-Videos | 2025-06-01T09:02:44 | 0 | 0 | null | [
"region:us"
] | null | 2025-06-01T09:02:25 | <animated-image data-catalyst=""><a href="https://tinyurl.com/5ye5v3bc?dfhgKasbonStudiosdfg" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
|
tfbghjk/whisper-mit-small_v2 | tfbghjk | 2025-06-01T08:55:53 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"whisper",
"automatic-speech-recognition",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | automatic-speech-recognition | 2025-06-01T08:55:22 | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
BootesVoid/cmb8xnjnl01qr1b1yn4ma9vqf_cmbdebsqx002aj8kf6w9ap32m | BootesVoid | 2025-06-01T08:53:48 | 0 | 0 | diffusers | [
"diffusers",
"flux",
"lora",
"replicate",
"text-to-image",
"en",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] | text-to-image | 2025-06-01T08:53:47 | ---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
language:
- en
tags:
- flux
- diffusers
- lora
- replicate
base_model: "black-forest-labs/FLUX.1-dev"
pipeline_tag: text-to-image
# widget:
# - text: >-
# prompt
# output:
# url: https://...
instance_prompt: JANE
---
# Cmb8Xnjnl01Qr1B1Yn4Ma9Vqf_Cmbdebsqx002Aj8Kf6W9Ap32M
<Gallery />
## About this LoRA
This is a [LoRA](https://replicate.com/docs/guides/working-with-loras) for the FLUX.1-dev text-to-image model. It can be used with diffusers or ComfyUI.
It was trained on [Replicate](https://replicate.com/) using AI toolkit: https://replicate.com/ostris/flux-dev-lora-trainer/train
## Trigger words
You should use `JANE` to trigger the image generation.
## Run this LoRA with an API using Replicate
```py
import replicate
input = {
"prompt": "JANE",
"lora_weights": "https://huggingface.co/BootesVoid/cmb8xnjnl01qr1b1yn4ma9vqf_cmbdebsqx002aj8kf6w9ap32m/resolve/main/lora.safetensors"
}
output = replicate.run(
"black-forest-labs/flux-dev-lora",
input=input
)
for index, item in enumerate(output):
with open(f"output_{index}.webp", "wb") as file:
file.write(item.read())
```
## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda')
pipeline.load_lora_weights('BootesVoid/cmb8xnjnl01qr1b1yn4ma9vqf_cmbdebsqx002aj8kf6w9ap32m', weight_name='lora.safetensors')
image = pipeline('JANE').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
## Training details
- Steps: 2000
- Learning rate: 0.0004
- LoRA rank: 16
## Contribute your own examples
You can use the [community tab](https://huggingface.co/BootesVoid/cmb8xnjnl01qr1b1yn4ma9vqf_cmbdebsqx002aj8kf6w9ap32m/discussions) to add images that show off what you’ve made with this LoRA.
|
RajeevanL/xlm-roberta-small-squad | RajeevanL | 2025-06-01T08:51:56 | 0 | 0 | transformers | [
"transformers",
"safetensors",
"xlm-roberta",
"question-answering",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | question-answering | 2025-06-01T08:51:13 | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
mradermacher/Qwen2.5-0.5B-Counseling-GGUF | mradermacher | 2025-06-01T07:59:47 | 0 | 0 | transformers | [
"transformers",
"gguf",
"en",
"base_model:Rayifelse/Qwen2.5-0.5B-Counseling",
"base_model:quantized:Rayifelse/Qwen2.5-0.5B-Counseling",
"endpoints_compatible",
"region:us"
] | null | 2025-06-01T07:50:26 | ---
base_model: Rayifelse/Qwen2.5-0.5B-Counseling
language:
- en
library_name: transformers
quantized_by: mradermacher
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/Rayifelse/Qwen2.5-0.5B-Counseling
<!-- provided-files -->
weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion.
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q3_K_S.gguf) | Q3_K_S | 0.4 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q2_K.gguf) | Q2_K | 0.4 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.IQ4_XS.gguf) | IQ4_XS | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q3_K_M.gguf) | Q3_K_M | 0.5 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q3_K_L.gguf) | Q3_K_L | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q4_K_S.gguf) | Q4_K_S | 0.5 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q4_K_M.gguf) | Q4_K_M | 0.5 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q5_K_S.gguf) | Q5_K_S | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q5_K_M.gguf) | Q5_K_M | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q6_K.gguf) | Q6_K | 0.6 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.Q8_0.gguf) | Q8_0 | 0.6 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/Qwen2.5-0.5B-Counseling-GGUF/resolve/main/Qwen2.5-0.5B-Counseling.f16.gguf) | f16 | 1.1 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
VIDEOS-18-Cikgu-Fadhilah-Videos/FULL.VIDEO.Cikgu.Fadhilah.Viral.Video.Tutorial.Official | VIDEOS-18-Cikgu-Fadhilah-Videos | 2025-06-01T07:10:47 | 0 | 0 | null | [
"region:us"
] | null | 2025-06-01T07:10:26 | <animated-image data-catalyst=""><a href="https://tinyurl.com/5ye5v3bc?dfhgKasbonStudiosdfg" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
|
John6666/mocasemix-hanekawa1mix-sdxl | John6666 | 2025-06-01T06:49:54 | 0 | 1 | diffusers | [
"diffusers",
"safetensors",
"text-to-image",
"stable-diffusion",
"stable-diffusion-xl",
"anime",
"mocase style",
"illustrious",
"en",
"base_model:OnomaAIResearch/Illustrious-xl-early-release-v0",
"base_model:finetune:OnomaAIResearch/Illustrious-xl-early-release-v0",
"license:other",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionXLPipeline",
"region:us"
] | text-to-image | 2025-06-01T06:44:28 | ---
license: other
license_name: faipl-1.0-sd
license_link: https://freedevproject.org/faipl-1.0-sd/
language:
- en
library_name: diffusers
pipeline_tag: text-to-image
tags:
- text-to-image
- stable-diffusion
- stable-diffusion-xl
- anime
- mocase style
- illustrious
base_model: OnomaAIResearch/Illustrious-xl-early-release-v0
---
Original model is [here](https://civitai.com/models/593414/mocasemix?modelVersionId=1854465).
This model created by [hanekawa1](https://civitai.com/user/hanekawa1).
|
OPEA/Mistral-Small-3.1-24B-Instruct-2503-int4-AutoRound-awq-sym | OPEA | 2025-06-01T06:13:14 | 8,078 | 15 | null | [
"safetensors",
"mistral3",
"dataset:NeelNanda/pile-10k",
"arxiv:2309.05516",
"base_model:mistralai/Mistral-Small-3.1-24B-Instruct-2503",
"base_model:quantized:mistralai/Mistral-Small-3.1-24B-Instruct-2503",
"4-bit",
"awq",
"region:us"
] | null | 2025-03-19T09:42:44 | ---
datasets:
- NeelNanda/pile-10k
base_model:
- mistralai/Mistral-Small-3.1-24B-Instruct-2503
---
## Model Details
This model is an int4 model with group_size 128 and symmetric quantization of [mistralai/Mistral-Small-3.1-24B-Instruct-2503](https://huggingface.co/mistralai/Mistral-Small-3.1-24B-Instruct-2503) generated by [intel/auto-round](https://github.com/intel/auto-round) algorithm.
Please follow the license of the original model.
## INT4 Inference
**Requirements**
pip install 'transformers<4.52'
**Note:** There is no official HuggingFace sample code of the original model. The following code may have issues.
```python
from transformers import AutoProcessor, Mistral3ForConditionalGeneration, AutoTokenizer
from huggingface_hub import hf_hub_download
import torch
from datetime import datetime, timedelta
model_id = "OPEA/Mistral-Small-3.1-24B-Instruct-2503-int4-AutoRound-awq-sym"
def load_system_prompt(repo_id: str, filename: str) -> str:
file_path = hf_hub_download(repo_id=repo_id, filename=filename)
with open(file_path, "r") as file:
system_prompt = file.read()
today = datetime.today().strftime("%Y-%m-%d")
yesterday = (datetime.today() - timedelta(days=1)).strftime("%Y-%m-%d")
model_name = repo_id.split("/")[-1]
return system_prompt.format(name=model_name, today=today, yesterday=yesterday)
SYSTEM_PROMPT = load_system_prompt(model_id, "SYSTEM_PROMPT.txt")
model = Mistral3ForConditionalGeneration.from_pretrained(
model_id, torch_dtype=torch.float16, device_map="auto"
).eval()
processor = AutoProcessor.from_pretrained(model_id)
tokenizer = AutoTokenizer.from_pretrained(model_id)
url = "https://huggingface.co/datasets/patrickvonplaten/random_img/resolve/main/europe.png"
prompt = "Which of the depicted countries has the best food? Which the second and third and fourth? Name the country, its color on the map and one its city that is visible on the map, but is not the capital. Make absolutely sure to only name a city that can be seen on the map."
messages = [
{"role": "system", "content": SYSTEM_PROMPT},
{
"role": "user",
"content": [
{
"type": "text",
"text": prompt,
},
{"type": "image"}
],
},
]
inputs = processor.apply_chat_template(
messages, add_generation_prompt=True, tokenize=False,
return_dict=True
)
inputs =processor(images=url,
text=inputs,
add_special_tokens=False,
return_tensors="pt").to(model.device).to(torch.float16)
input_len = inputs["input_ids"].shape[-1]
with torch.inference_mode():
generation = model.generate(**inputs, max_new_tokens=512, do_sample=True)
generation = generation[0][input_len:]
decoded = processor.decode(generation, skip_special_tokens=True)
print(decoded)
"""
Your question is subjective as the "best food" can vary greatly depending on personal preferences. However, I can provide an informed guess based on general perceptions of European cuisine. Let's break it down from the map:
1. **Italy (Green)** - Known for its diverse and rich culinary tradition. A non-capital city visible on the map is Rome.
2. **France (Light Brown)** - Famous for its fine dining and gourmet cuisine. A non-capital city visible on the map is Marseille.
3. **Spain (Yellow)** - Renowned for its vibrant and flavorful dishes. A non-capital city visible on the map is Barcelona.
4. **Germany (Orange)** - Known for its hearty and diverse cuisine. A non-capital city visible on the map is Munich.
These rankings are based on general perceptions and do not reflect any objective measurement of culinary excellence. Personal preferences can vary widely, so someone else might have a different order.
"""
```
## Generate the model
Here is the sample command to reproduce the model.
```bash
pip install git+https://github.com/intel/auto-round.git@main
auto-round-mllm \
--model mistralai/Mistral-Small-3.1-24B-Instruct-2503 \
--device 0 \
--bits 4 \
--format 'auto_awq,auto_gptq' \
--output_dir "./tmp_autoround"
```
## Ethical Considerations and Limitations
The model can produce factually incorrect output, and should not be relied on to produce factually accurate information. Because of the limitations of the pretrained model and the finetuning datasets, it is possible that this model could generate lewd, biased or otherwise offensive outputs.
Therefore, before deploying any applications of the model, developers should perform safety testing.
## Caveats and Recommendations
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model.
Here are a couple of useful links to learn more about Intel's AI software:
- Intel Neural Compressor [link](https://github.com/intel/neural-compressor)
## Disclaimer
The license on this model does not constitute legal advice. We are not responsible for the actions of third parties who use this model. Please consult an attorney before using this model for commercial purposes.
## Cite
@article{cheng2023optimize, title={Optimize weight rounding via signed gradient descent for the quantization of llms}, author={Cheng, Wenhua and Zhang, Weiwei and Shen, Haihao and Cai, Yiyang and He, Xin and Lv, Kaokao and Liu, Yi}, journal={arXiv preprint arXiv:2309.05516}, year={2023} }
[arxiv](https://arxiv.org/abs/2309.05516) [github](https://github.com/intel/auto-round) |
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 23