Qwen3-33B-A3B-Quad-Mind / mergekit_config.yml
DavidAU's picture
Upload folder using huggingface_hub
f092cc6 verified
raw
history blame
1.52 kB
slices:
- sources:
- model: D:/Qwen3-30B-A3B
layer_range: [0, 47]
- sources:
- model: D:/Qwen3-30B-A3B
layer_range: [47, 48]
parameters:
scale:
- filter: o_proj
value: 0.3333333333333
- filter: down_proj
value: 0.3333333333333
- value: 0.3333333333333
- sources:
- model: D:/Qwen3-30B-Pantheon-Proto-RP-1.8-30B-A3B
layer_range: [47, 48]
parameters:
scale:
- filter: o_proj
value: 0.4444444444444
- filter: down_proj
value: 0.4444444444444
- value: 0.4444444444444
- sources:
- model: D:/Qwen3-30B-Q3-30B-A3B-Designant
layer_range: [47, 48]
parameters:
scale:
- filter: o_proj
value: 0.5555555555555
- filter: down_proj
value: 0.5555555555555
- value: 0.5555555555555
- sources:
- model: D:/Qwen3-30B-A3B-abliterated-erotic
layer_range: [47, 48]
parameters:
scale:
- filter: o_proj
value: 0.6666666666666
- filter: down_proj
value: 0.6666666666666
- value: 0.6666666666666
- sources:
- model: D:/Qwen3-30B-A3B
layer_range: [47, 48]
parameters:
scale:
- filter: o_proj
value: 0.777777777777
- filter: down_proj
value: 0.777777777777
- value: 0.888888888888
merge_method: passthrough
dtype: bfloat16