Razavipour commited on
Commit
d7d3c95
·
verified ·
1 Parent(s): 0695f39

End of training

Browse files
Files changed (4) hide show
  1. README.md +3 -1
  2. all_results.json +6 -6
  3. train_results.json +6 -6
  4. trainer_state.json +114 -58
README.md CHANGED
@@ -3,6 +3,8 @@ library_name: peft
3
  license: cc-by-nc-4.0
4
  base_model: facebook/musicgen-melody
5
  tags:
 
 
6
  - generated_from_trainer
7
  model-index:
8
  - name: musicgen-persian-traditional-instruments-tiny_3
@@ -14,7 +16,7 @@ should probably proofread and complete it, then remove this comment. -->
14
 
15
  # musicgen-persian-traditional-instruments-tiny_3
16
 
17
- This model is a fine-tuned version of [facebook/musicgen-melody](https://huggingface.co/facebook/musicgen-melody) on an unknown dataset.
18
 
19
  ## Model description
20
 
 
3
  license: cc-by-nc-4.0
4
  base_model: facebook/musicgen-melody
5
  tags:
6
+ - text-to-audio
7
+ - Razavipour/persian-traditional-instruments-tiny
8
  - generated_from_trainer
9
  model-index:
10
  - name: musicgen-persian-traditional-instruments-tiny_3
 
16
 
17
  # musicgen-persian-traditional-instruments-tiny_3
18
 
19
+ This model is a fine-tuned version of [facebook/musicgen-melody](https://huggingface.co/facebook/musicgen-melody) on the RAZAVIPOUR/PERSIAN-TRADITIONAL-INSTRUMENTS-TINY - DEFAULT dataset.
20
 
21
  ## Model description
22
 
all_results.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
- "epoch": 2.0,
3
- "total_flos": 29853631825608.0,
4
- "train_loss": 30.133461475372314,
5
- "train_runtime": 397.1796,
6
  "train_samples": 119,
7
- "train_samples_per_second": 0.599,
8
- "train_steps_per_second": 0.04
9
  }
 
1
  {
2
+ "epoch": 3.0,
3
+ "total_flos": 44771227963296.0,
4
+ "train_loss": 27.90105402469635,
5
+ "train_runtime": 632.9329,
6
  "train_samples": 119,
7
+ "train_samples_per_second": 0.564,
8
+ "train_steps_per_second": 0.038
9
  }
train_results.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
- "epoch": 2.0,
3
- "total_flos": 29853631825608.0,
4
- "train_loss": 30.133461475372314,
5
- "train_runtime": 397.1796,
6
  "train_samples": 119,
7
- "train_samples_per_second": 0.599,
8
- "train_steps_per_second": 0.04
9
  }
 
1
  {
2
+ "epoch": 3.0,
3
+ "total_flos": 44771227963296.0,
4
+ "train_loss": 27.90105402469635,
5
+ "train_runtime": 632.9329,
6
  "train_samples": 119,
7
+ "train_samples_per_second": 0.564,
8
+ "train_steps_per_second": 0.038
9
  }
trainer_state.json CHANGED
@@ -2,139 +2,195 @@
2
  "best_global_step": null,
3
  "best_metric": null,
4
  "best_model_checkpoint": null,
5
- "epoch": 2.0,
6
  "eval_steps": 500,
7
- "global_step": 16,
8
  "is_hyper_param_search": false,
9
  "is_local_process_zero": true,
10
  "is_world_process_zero": true,
11
  "log_history": [
12
  {
13
  "epoch": 0.13333333333333333,
14
- "grad_norm": 5.564905166625977,
15
  "learning_rate": 0.0002,
16
  "loss": 38.3533,
17
  "step": 1
18
  },
19
  {
20
  "epoch": 0.26666666666666666,
21
- "grad_norm": 6.65146541595459,
22
- "learning_rate": 0.0001875,
23
- "loss": 36.8913,
24
  "step": 2
25
  },
26
  {
27
  "epoch": 0.4,
28
- "grad_norm": 8.893917083740234,
29
- "learning_rate": 0.000175,
30
- "loss": 35.9052,
31
  "step": 3
32
  },
33
  {
34
  "epoch": 0.5333333333333333,
35
- "grad_norm": 8.743362426757812,
36
- "learning_rate": 0.00016250000000000002,
37
- "loss": 35.0392,
38
  "step": 4
39
  },
40
  {
41
  "epoch": 0.6666666666666666,
42
- "grad_norm": NaN,
43
- "learning_rate": 0.00015000000000000001,
44
- "loss": 33.1986,
45
  "step": 5
46
  },
47
  {
48
  "epoch": 0.8,
49
- "grad_norm": 8.269606590270996,
50
- "learning_rate": 0.00015000000000000001,
51
- "loss": 33.7741,
52
  "step": 6
53
  },
54
  {
55
  "epoch": 0.9333333333333333,
56
- "grad_norm": 8.749699592590332,
57
- "learning_rate": 0.0001375,
58
- "loss": 32.6172,
59
  "step": 7
60
  },
61
  {
62
  "epoch": 1.0,
63
- "grad_norm": 5.006312847137451,
64
- "learning_rate": 0.000125,
65
- "loss": 16.351,
66
  "step": 8
67
  },
68
  {
69
  "epoch": 1.1333333333333333,
70
- "grad_norm": 10.173412322998047,
71
- "learning_rate": 0.00011250000000000001,
72
- "loss": 30.0547,
73
  "step": 9
74
  },
75
  {
76
  "epoch": 1.2666666666666666,
77
- "grad_norm": 8.951446533203125,
78
- "learning_rate": 0.0001,
79
- "loss": 30.6191,
80
  "step": 10
81
  },
82
  {
83
  "epoch": 1.4,
84
- "grad_norm": 9.113348960876465,
85
- "learning_rate": 8.75e-05,
86
- "loss": 29.3415,
87
  "step": 11
88
  },
89
  {
90
  "epoch": 1.5333333333333332,
91
- "grad_norm": 8.937090873718262,
92
- "learning_rate": 7.500000000000001e-05,
93
- "loss": 29.2385,
94
  "step": 12
95
  },
96
  {
97
  "epoch": 1.6666666666666665,
98
- "grad_norm": 8.111980438232422,
99
- "learning_rate": 6.25e-05,
100
- "loss": 28.6866,
101
  "step": 13
102
  },
103
  {
104
  "epoch": 1.8,
105
- "grad_norm": 8.194887161254883,
106
- "learning_rate": 5e-05,
107
- "loss": 28.2205,
108
  "step": 14
109
  },
110
  {
111
  "epoch": 1.9333333333333333,
112
- "grad_norm": 10.803622245788574,
113
- "learning_rate": 3.7500000000000003e-05,
114
- "loss": 29.6655,
115
  "step": 15
116
  },
117
  {
118
  "epoch": 2.0,
119
- "grad_norm": 4.887396335601807,
120
- "learning_rate": 2.5e-05,
121
- "loss": 14.1792,
122
  "step": 16
123
  },
124
  {
125
- "epoch": 2.0,
126
- "step": 16,
127
- "total_flos": 29853631825608.0,
128
- "train_loss": 30.133461475372314,
129
- "train_runtime": 397.1796,
130
- "train_samples_per_second": 0.599,
131
- "train_steps_per_second": 0.04
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
132
  }
133
  ],
134
  "logging_steps": 1.0,
135
- "max_steps": 16,
136
  "num_input_tokens_seen": 0,
137
- "num_train_epochs": 2,
138
  "save_steps": 500,
139
  "stateful_callbacks": {
140
  "TrainerControl": {
@@ -148,7 +204,7 @@
148
  "attributes": {}
149
  }
150
  },
151
- "total_flos": 29853631825608.0,
152
  "train_batch_size": 4,
153
  "trial_name": null,
154
  "trial_params": null
 
2
  "best_global_step": null,
3
  "best_metric": null,
4
  "best_model_checkpoint": null,
5
+ "epoch": 3.0,
6
  "eval_steps": 500,
7
+ "global_step": 24,
8
  "is_hyper_param_search": false,
9
  "is_local_process_zero": true,
10
  "is_world_process_zero": true,
11
  "log_history": [
12
  {
13
  "epoch": 0.13333333333333333,
14
+ "grad_norm": 5.56486701965332,
15
  "learning_rate": 0.0002,
16
  "loss": 38.3533,
17
  "step": 1
18
  },
19
  {
20
  "epoch": 0.26666666666666666,
21
+ "grad_norm": 6.651921272277832,
22
+ "learning_rate": 0.00019166666666666667,
23
+ "loss": 36.8912,
24
  "step": 2
25
  },
26
  {
27
  "epoch": 0.4,
28
+ "grad_norm": 8.944223403930664,
29
+ "learning_rate": 0.00018333333333333334,
30
+ "loss": 35.8779,
31
  "step": 3
32
  },
33
  {
34
  "epoch": 0.5333333333333333,
35
+ "grad_norm": 8.79480266571045,
36
+ "learning_rate": 0.000175,
37
+ "loss": 34.9511,
38
  "step": 4
39
  },
40
  {
41
  "epoch": 0.6666666666666666,
42
+ "grad_norm": 10.800246238708496,
43
+ "learning_rate": 0.0001666666666666667,
44
+ "loss": 32.9909,
45
  "step": 5
46
  },
47
  {
48
  "epoch": 0.8,
49
+ "grad_norm": 8.01695442199707,
50
+ "learning_rate": 0.00015833333333333332,
51
+ "loss": 32.5083,
52
  "step": 6
53
  },
54
  {
55
  "epoch": 0.9333333333333333,
56
+ "grad_norm": 8.307640075683594,
57
+ "learning_rate": 0.00015000000000000001,
58
+ "loss": 31.4153,
59
  "step": 7
60
  },
61
  {
62
  "epoch": 1.0,
63
+ "grad_norm": 7.08075475692749,
64
+ "learning_rate": 0.00014166666666666668,
65
+ "loss": 15.999,
66
  "step": 8
67
  },
68
  {
69
  "epoch": 1.1333333333333333,
70
+ "grad_norm": 9.917808532714844,
71
+ "learning_rate": 0.00013333333333333334,
72
+ "loss": 28.7986,
73
  "step": 9
74
  },
75
  {
76
  "epoch": 1.2666666666666666,
77
+ "grad_norm": 10.226347923278809,
78
+ "learning_rate": 0.000125,
79
+ "loss": 29.6019,
80
  "step": 10
81
  },
82
  {
83
  "epoch": 1.4,
84
+ "grad_norm": 9.522478103637695,
85
+ "learning_rate": 0.00011666666666666668,
86
+ "loss": 28.3856,
87
  "step": 11
88
  },
89
  {
90
  "epoch": 1.5333333333333332,
91
+ "grad_norm": 9.76523208618164,
92
+ "learning_rate": 0.00010833333333333333,
93
+ "loss": 28.2537,
94
  "step": 12
95
  },
96
  {
97
  "epoch": 1.6666666666666665,
98
+ "grad_norm": 6.195432186126709,
99
+ "learning_rate": 0.0001,
100
+ "loss": 27.6475,
101
  "step": 13
102
  },
103
  {
104
  "epoch": 1.8,
105
+ "grad_norm": 7.892975807189941,
106
+ "learning_rate": 9.166666666666667e-05,
107
+ "loss": 27.1004,
108
  "step": 14
109
  },
110
  {
111
  "epoch": 1.9333333333333333,
112
+ "grad_norm": 9.260358810424805,
113
+ "learning_rate": 8.333333333333334e-05,
114
+ "loss": 28.3018,
115
  "step": 15
116
  },
117
  {
118
  "epoch": 2.0,
119
+ "grad_norm": 3.782254695892334,
120
+ "learning_rate": 7.500000000000001e-05,
121
+ "loss": 13.5816,
122
  "step": 16
123
  },
124
  {
125
+ "epoch": 2.1333333333333333,
126
+ "grad_norm": 6.108007907867432,
127
+ "learning_rate": 6.666666666666667e-05,
128
+ "loss": 26.4921,
129
+ "step": 17
130
+ },
131
+ {
132
+ "epoch": 2.2666666666666666,
133
+ "grad_norm": 11.83798885345459,
134
+ "learning_rate": 5.833333333333334e-05,
135
+ "loss": 25.9269,
136
+ "step": 18
137
+ },
138
+ {
139
+ "epoch": 2.4,
140
+ "grad_norm": 7.73467493057251,
141
+ "learning_rate": 5e-05,
142
+ "loss": 27.8886,
143
+ "step": 19
144
+ },
145
+ {
146
+ "epoch": 2.533333333333333,
147
+ "grad_norm": 4.977690696716309,
148
+ "learning_rate": 4.166666666666667e-05,
149
+ "loss": 27.2834,
150
+ "step": 20
151
+ },
152
+ {
153
+ "epoch": 2.6666666666666665,
154
+ "grad_norm": 9.394918441772461,
155
+ "learning_rate": 3.3333333333333335e-05,
156
+ "loss": 25.2599,
157
+ "step": 21
158
+ },
159
+ {
160
+ "epoch": 2.8,
161
+ "grad_norm": 6.224085807800293,
162
+ "learning_rate": 2.5e-05,
163
+ "loss": 25.6994,
164
+ "step": 22
165
+ },
166
+ {
167
+ "epoch": 2.9333333333333336,
168
+ "grad_norm": 4.654765605926514,
169
+ "learning_rate": 1.6666666666666667e-05,
170
+ "loss": 26.9324,
171
+ "step": 23
172
+ },
173
+ {
174
+ "epoch": 3.0,
175
+ "grad_norm": 4.106358051300049,
176
+ "learning_rate": 8.333333333333334e-06,
177
+ "loss": 13.4846,
178
+ "step": 24
179
+ },
180
+ {
181
+ "epoch": 3.0,
182
+ "step": 24,
183
+ "total_flos": 44771227963296.0,
184
+ "train_loss": 27.90105402469635,
185
+ "train_runtime": 632.9329,
186
+ "train_samples_per_second": 0.564,
187
+ "train_steps_per_second": 0.038
188
  }
189
  ],
190
  "logging_steps": 1.0,
191
+ "max_steps": 24,
192
  "num_input_tokens_seen": 0,
193
+ "num_train_epochs": 3,
194
  "save_steps": 500,
195
  "stateful_callbacks": {
196
  "TrainerControl": {
 
204
  "attributes": {}
205
  }
206
  },
207
+ "total_flos": 44771227963296.0,
208
  "train_batch_size": 4,
209
  "trial_name": null,
210
  "trial_params": null