Pandemonium 3.2 1B

Sobre el modelo / About this model
ESPAÑOL
Lo básico: Lo probé recien y está sin censura.
Este més hice muchas mezclas; algunas con mayor y otras con menor éxito. Los más grande no siempre significa calidad. O puede tener calidad, si, pero con una censura muy mejorada.
Este modelo es una especie de reinicio, un intento de mejora de mi primer modelo "La-Mejor-Mezcla" que irónicamente fue el mejor intento de minimización de censura por medio de mezclas.
Espero que lo disfruten.
ENGLISH
The basics: I just tried it and it's uncensored.
This month I've made a lot of mixes; some with greater and others with lesser success. Bigger doesn't always mean quality. Or it can mean quality, yes, but with much improved censorship.
This model is a reboot of sorts, an attempt to improve upon my first "La-Mejor-Mezcla" model, which ironically was the best attempt at minimizing censorship through mixes.
I hope you enjoy it.
Quantz / Cuantizaciones
Weight: Pandemonium-3.2-1B GGUF
Metodo de Mezcla
Este modelo fue mezclado usando el método de mezcla Model Stock usando bunnycore/FuseChat-3.2-1B-Creative-RP como base.
Modelos Mezclados
Los modelos siguientes están incluidos en la mezcla:
- prithivMLmods/Bellatrix-Tiny-1B-v3
- diabolic6045/open-llama-3.2-1B-Instruct
- cognitivecomputations/Dolphin3.0-Llama3.2-1B
- xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora
- huihui-ai/Llama-3.2-1B-Instruct-abliterated
- NickyNicky/Llama-1B-GRPO_Final
Configuracion
La siguiente configuración YAML se usó para hacer este modelo:
models:
- model: diabolic6045/open-llama-3.2-1B-Instruct
- model: bunnycore/FuseChat-3.2-1B-Creative-RP
- model: NickyNicky/Llama-1B-GRPO_Final
- model: prithivMLmods/Bellatrix-Tiny-1B-v3
- model: xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora
- model: cognitivecomputations/Dolphin3.0-Llama3.2-1B
- model: huihui-ai/Llama-3.2-1B-Instruct-abliterated
merge_method: model_stock
base_model: bunnycore/FuseChat-3.2-1B-Creative-RP
dtype: bfloat16
parameters:
t: [0, 0.5, 1, 0.5, 0]
- Downloads last month
- 36