Files changed (1) hide show
  1. config.json +0 -92
config.json CHANGED
@@ -222,102 +222,10 @@
222
  "moe_layers": [
223
  0,
224
  1,
225
- 2,
226
- 3,
227
- 4,
228
- 5,
229
- 6,
230
- 7,
231
- 8,
232
- 9,
233
- 10,
234
- 11,
235
- 12,
236
- 13,
237
- 14,
238
- 15,
239
- 16,
240
- 17,
241
- 18,
242
- 19,
243
- 20,
244
- 21,
245
- 22,
246
- 23,
247
- 24,
248
- 25,
249
- 26,
250
- 27,
251
- 28,
252
- 29,
253
- 30,
254
- 31,
255
- 32,
256
- 33,
257
- 34,
258
- 35,
259
- 36,
260
- 37,
261
- 38,
262
- 39,
263
- 40,
264
- 41,
265
- 42,
266
- 43,
267
- 44,
268
- 45,
269
- 46,
270
- 47
271
  ],
272
  "no_rope_layers": [
273
- 1,
274
- 1,
275
- 1,
276
- 0,
277
- 1,
278
- 1,
279
  1,
280
  0,
281
- 1,
282
- 1,
283
- 1,
284
- 0,
285
- 1,
286
- 1,
287
- 1,
288
- 0,
289
- 1,
290
- 1,
291
- 1,
292
- 0,
293
- 1,
294
- 1,
295
- 1,
296
- 0,
297
- 1,
298
- 1,
299
- 1,
300
- 0,
301
- 1,
302
- 1,
303
- 1,
304
- 0,
305
- 1,
306
- 1,
307
- 1,
308
- 0,
309
- 1,
310
- 1,
311
- 1,
312
- 0,
313
- 1,
314
- 1,
315
- 1,
316
- 0,
317
- 1,
318
- 1,
319
- 1,
320
- 0
321
  ],
322
  "num_attention_heads": 40,
323
  "num_experts_per_tok": 1,
 
222
  "moe_layers": [
223
  0,
224
  1,
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
225
  ],
226
  "no_rope_layers": [
 
 
 
 
 
 
227
  1,
228
  0,
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
229
  ],
230
  "num_attention_heads": 40,
231
  "num_experts_per_tok": 1,