{ "_name_or_path": "ld9466311/c70-h7", "all_reduce_scores": { "0": "NOT_ALIVE", "1": "NOT_ALIVE", "10": "NOT_ALIVE", "100": "NOT_ALIVE", "101": "NON_PARTICIPATING", "102": "NON_PARTICIPATING", "103": "NON_PARTICIPATING", "104": "NOT_ALIVE", "105": "NON_PARTICIPATING", "106": "NON_PARTICIPATING", "107": "NOT_ALIVE", "108": "SUCCESS", "109": "NOT_ALIVE", "11": "NOT_ALIVE", "110": "NOT_ALIVE", "111": "NON_PARTICIPATING", "112": "NOT_ALIVE", "113": "NON_PARTICIPATING", "114": "NON_PARTICIPATING", "115": "NON_PARTICIPATING", "116": "NON_PARTICIPATING", "117": "NON_PARTICIPATING", "118": "NOT_ALIVE", "119": "NON_PARTICIPATING", "12": "NOT_ALIVE", "120": "NON_PARTICIPATING", "121": "NON_PARTICIPATING", "122": "NOT_ALIVE", "123": "NOT_ALIVE", "124": "FAIL", "125": "NON_PARTICIPATING", "126": "NON_PARTICIPATING", "127": "NOT_ALIVE", "128": "NOT_ALIVE", "129": "NOT_ALIVE", "13": "NOT_ALIVE", "130": "NOT_ALIVE", "131": "NOT_ALIVE", "132": "NOT_ALIVE", "133": "NOT_ALIVE", "134": "NON_PARTICIPATING", "135": "NON_PARTICIPATING", "136": "NON_PARTICIPATING", "137": "NON_PARTICIPATING", "138": "NON_PARTICIPATING", "139": "NON_PARTICIPATING", "14": "NOT_ALIVE", "140": "NON_PARTICIPATING", "141": "NOT_ALIVE", "142": "NON_PARTICIPATING", "143": "NON_PARTICIPATING", "144": "NOT_ALIVE", "145": "NON_PARTICIPATING", "146": "NOT_ALIVE", "147": "NON_PARTICIPATING", "148": "FAIL", "149": "NOT_ALIVE", "15": "NOT_ALIVE", "150": "NOT_ALIVE", "151": "NOT_ALIVE", "152": "NOT_ALIVE", "153": "NON_PARTICIPATING", "154": "SUCCESS", "155": "NON_PARTICIPATING", "156": "NOT_ALIVE", "157": "NOT_ALIVE", "158": "NOT_ALIVE", "159": "NOT_ALIVE", "16": "NON_PARTICIPATING", "160": "NOT_ALIVE", "161": "NON_PARTICIPATING", "162": "NON_PARTICIPATING", "163": "NOT_ALIVE", "164": "SUCCESS", "165": "SUCCESS", "166": "NOT_ALIVE", "167": "NOT_ALIVE", "168": "NON_PARTICIPATING", "169": "NOT_ALIVE", "17": "NOT_ALIVE", "170": "NON_PARTICIPATING", "171": "NOT_ALIVE", "172": "NON_PARTICIPATING", "173": "NON_PARTICIPATING", "174": "NON_PARTICIPATING", "175": "NOT_ALIVE", "176": "NOT_ALIVE", "177": "NOT_ALIVE", "178": "NOT_ALIVE", "179": "NOT_ALIVE", "18": "NOT_ALIVE", "180": "NOT_ALIVE", "181": "NOT_ALIVE", "182": "NOT_ALIVE", "183": "SUCCESS", "184": "NON_PARTICIPATING", "185": "NOT_ALIVE", "186": "NOT_ALIVE", "187": "NOT_ALIVE", "188": "NON_PARTICIPATING", "189": "NOT_ALIVE", "19": "NOT_ALIVE", "190": "NOT_ALIVE", "191": "NON_PARTICIPATING", "192": "NOT_ALIVE", "193": "NOT_ALIVE", "194": "NON_PARTICIPATING", "195": "NON_PARTICIPATING", "196": "NON_PARTICIPATING", "197": "NOT_ALIVE", "198": "NOT_ALIVE", "199": "NOT_ALIVE", "2": "NON_PARTICIPATING", "20": "NOT_ALIVE", "200": "NOT_ALIVE", "201": "NON_PARTICIPATING", "202": "NOT_ALIVE", "203": "NOT_ALIVE", "204": "SUCCESS", "205": "NOT_ALIVE", "206": "SUCCESS", "207": "NOT_ALIVE", "208": "NON_PARTICIPATING", "209": "NOT_ALIVE", "21": "NOT_ALIVE", "210": "NOT_ALIVE", "211": "NOT_ALIVE", "212": "NOT_ALIVE", "213": "FAIL", "214": "NOT_ALIVE", "215": "NON_PARTICIPATING", "216": "NOT_ALIVE", "217": "NON_PARTICIPATING", "218": "NOT_ALIVE", "219": "NOT_ALIVE", "22": "NOT_ALIVE", "220": "NON_PARTICIPATING", "221": "NOT_ALIVE", "222": "NOT_ALIVE", "223": "NOT_ALIVE", "224": "NOT_ALIVE", "225": "NOT_ALIVE", "226": "NOT_ALIVE", "227": "NOT_ALIVE", "228": "NON_PARTICIPATING", "229": "NON_PARTICIPATING", "23": "NON_PARTICIPATING", "230": "NON_PARTICIPATING", "231": "NOT_ALIVE", "232": "NOT_ALIVE", "233": "NOT_ALIVE", "234": "NOT_ALIVE", "235": "NON_PARTICIPATING", "236": "NOT_ALIVE", "237": "NON_PARTICIPATING", "238": "NON_PARTICIPATING", "239": "NOT_ALIVE", "24": "NOT_ALIVE", "240": "NOT_ALIVE", "241": "NOT_ALIVE", "242": "NOT_ALIVE", "243": "NON_PARTICIPATING", "244": "NOT_ALIVE", "245": "NON_PARTICIPATING", "246": "NON_PARTICIPATING", "247": "NON_PARTICIPATING", "248": "NOT_ALIVE", "249": "NOT_ALIVE", "25": "SUCCESS", "250": "FAIL", "251": "NON_PARTICIPATING", "252": "NOT_ALIVE", "253": "NOT_ALIVE", "254": "NON_PARTICIPATING", "255": "NOT_ALIVE", "26": "NON_PARTICIPATING", "27": "NOT_ALIVE", "28": "NOT_ALIVE", "29": "NOT_ALIVE", "3": "NON_PARTICIPATING", "30": "SUCCESS", "31": "NOT_ALIVE", "32": "SUCCESS", "33": "NOT_ALIVE", "34": "NOT_ALIVE", "35": "NON_PARTICIPATING", "36": "NOT_ALIVE", "37": "NOT_ALIVE", "38": "NON_PARTICIPATING", "39": "FAIL", "4": "NON_PARTICIPATING", "40": "NOT_ALIVE", "41": "NOT_ALIVE", "42": "NOT_ALIVE", "43": "NOT_ALIVE", "44": "NON_PARTICIPATING", "45": "NOT_ALIVE", "46": "NOT_ALIVE", "47": "SUCCESS", "48": "NON_PARTICIPATING", "49": "NOT_ALIVE", "5": "NON_PARTICIPATING", "50": "NOT_ALIVE", "51": "NOT_ALIVE", "52": "SUCCESS", "53": "NON_PARTICIPATING", "54": "NOT_ALIVE", "55": "NOT_ALIVE", "56": "NOT_ALIVE", "57": "NON_PARTICIPATING", "58": "NON_PARTICIPATING", "59": "NON_PARTICIPATING", "6": "NON_PARTICIPATING", "60": "NON_PARTICIPATING", "61": "NON_PARTICIPATING", "62": "NON_PARTICIPATING", "63": "NON_PARTICIPATING", "64": "NOT_ALIVE", "65": "NON_PARTICIPATING", "66": "NOT_ALIVE", "67": "NOT_ALIVE", "68": "NOT_ALIVE", "69": "NOT_ALIVE", "7": "NON_PARTICIPATING", "70": "NOT_ALIVE", "71": "NON_PARTICIPATING", "72": "NON_PARTICIPATING", "73": "NOT_ALIVE", "74": "NON_PARTICIPATING", "75": "NON_PARTICIPATING", "76": "NON_PARTICIPATING", "77": "NOT_ALIVE", "78": "NOT_ALIVE", "79": "NOT_ALIVE", "8": "NOT_ALIVE", "80": "NON_PARTICIPATING", "81": "NON_PARTICIPATING", "82": "NON_PARTICIPATING", "83": "NON_PARTICIPATING", "84": "NOT_ALIVE", "85": "NON_PARTICIPATING", "86": "NON_PARTICIPATING", "87": "NON_PARTICIPATING", "88": "NOT_ALIVE", "89": "NOT_ALIVE", "9": "NOT_ALIVE", "90": "NON_PARTICIPATING", "91": "NOT_ALIVE", "92": "SUCCESS", "93": "NOT_ALIVE", "94": "SUCCESS", "95": "NOT_ALIVE", "96": "NON_PARTICIPATING", "97": "NON_PARTICIPATING", "98": "NON_PARTICIPATING", "99": "NOT_ALIVE" }, "architectures": [ "LlamaForCausalLM" ], "attention_bias": false, "attention_dropout": 0.0, "block_list": [], "bos_token_id": 1, "eos_token_id": 2, "hidden_act": "silu", "hidden_size": 2048, "initializer_range": 0.02, "inner_step": 0, "intermediate_size": 5632, "last_allreduce_block": 5992468, "max_position_embeddings": 2048, "mlp_bias": false, "model_type": "llama", "num_attention_heads": 32, "num_hidden_layers": 22, "num_key_value_heads": 4, "pretraining_tp": 1, "rms_norm_eps": 1e-05, "rope_scaling": null, "rope_theta": 10000.0, "tie_word_embeddings": false, "torch_dtype": "float32", "transformers_version": "4.39.3", "use_cache": false, "vocab_size": 32000 }