heroza commited on
Commit
9a01df9
1 Parent(s): 5eee276

End of training

Browse files
README.md CHANGED
@@ -15,16 +15,20 @@ should probably proofread and complete it, then remove this comment. -->
15
 
16
  # segformer-finetuned-biofilm_MRCNNv1
17
 
18
- This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on the heroza/biofilm_MRCNNv1 dataset.
19
  It achieves the following results on the evaluation set:
20
- - Loss: 0.0003
21
- - Mean Iou: 0.0
22
- - Mean Accuracy: nan
23
- - Overall Accuracy: nan
24
- - Accuracy Background: nan
25
- - Accuracy Biofilm: nan
26
- - Iou Background: 0.0
27
- - Iou Biofilm: 0.0
 
 
 
 
28
 
29
  ## Model description
30
 
@@ -51,91 +55,6 @@ The following hyperparameters were used during training:
51
  - lr_scheduler_type: polynomial
52
  - training_steps: 10000
53
 
54
- ### Training results
55
-
56
- | Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy | Accuracy Background | Accuracy Biofilm | Iou Background | Iou Biofilm |
57
- |:-------------:|:-----:|:-----:|:---------------:|:--------:|:-------------:|:----------------:|:-------------------:|:----------------:|:--------------:|:-----------:|
58
- | 0.3228 | 1.0 | 128 | 0.0937 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
59
- | 0.0951 | 2.0 | 256 | 0.0420 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
60
- | 0.0409 | 3.0 | 384 | 0.0170 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
61
- | 0.0147 | 4.0 | 512 | 0.0113 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
62
- | 0.0107 | 5.0 | 640 | 0.0076 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
63
- | 0.0073 | 6.0 | 768 | 0.0067 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
64
- | 0.0057 | 7.0 | 896 | 0.0031 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
65
- | 0.0039 | 8.0 | 1024 | 0.0028 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
66
- | 0.0033 | 9.0 | 1152 | 0.0026 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
67
- | 0.0026 | 10.0 | 1280 | 0.0023 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
68
- | 0.0021 | 11.0 | 1408 | 0.0017 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
69
- | 0.0019 | 12.0 | 1536 | 0.0017 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
70
- | 0.0016 | 13.0 | 1664 | 0.0015 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
71
- | 0.0013 | 14.0 | 1792 | 0.0012 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
72
- | 0.0011 | 15.0 | 1920 | 0.0009 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
73
- | 0.0009 | 16.0 | 2048 | 0.0007 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
74
- | 0.001 | 17.0 | 2176 | 0.0008 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
75
- | 0.0007 | 18.0 | 2304 | 0.0008 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
76
- | 0.0007 | 19.0 | 2432 | 0.0007 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
77
- | 0.0007 | 20.0 | 2560 | 0.0007 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
78
- | 0.0007 | 21.0 | 2688 | 0.0004 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
79
- | 0.0005 | 22.0 | 2816 | 0.0005 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
80
- | 0.0004 | 23.0 | 2944 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
81
- | 0.0004 | 24.0 | 3072 | 0.0005 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
82
- | 0.0004 | 25.0 | 3200 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
83
- | 0.0004 | 26.0 | 3328 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
84
- | 0.0003 | 27.0 | 3456 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
85
- | 0.0003 | 28.0 | 3584 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
86
- | 0.0003 | 29.0 | 3712 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
87
- | 0.0002 | 30.0 | 3840 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
88
- | 0.0003 | 31.0 | 3968 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
89
- | 0.0002 | 32.0 | 4096 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
90
- | 0.0002 | 33.0 | 4224 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
91
- | 0.0002 | 34.0 | 4352 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
92
- | 0.0002 | 35.0 | 4480 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
93
- | 0.0002 | 36.0 | 4608 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
94
- | 0.0001 | 37.0 | 4736 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
95
- | 0.0001 | 38.0 | 4864 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
96
- | 0.0001 | 39.0 | 4992 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
97
- | 0.0001 | 40.0 | 5120 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
98
- | 0.0001 | 41.0 | 5248 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
99
- | 0.0002 | 42.0 | 5376 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
100
- | 0.0001 | 43.0 | 5504 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
101
- | 0.0001 | 44.0 | 5632 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
102
- | 0.0001 | 45.0 | 5760 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
103
- | 0.0001 | 46.0 | 5888 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
104
- | 0.0001 | 47.0 | 6016 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
105
- | 0.0001 | 48.0 | 6144 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
106
- | 0.0001 | 49.0 | 6272 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
107
- | 0.0001 | 50.0 | 6400 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
108
- | 0.0001 | 51.0 | 6528 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
109
- | 0.0001 | 52.0 | 6656 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
110
- | 0.0001 | 53.0 | 6784 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
111
- | 0.0001 | 54.0 | 6912 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
112
- | 0.0001 | 55.0 | 7040 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
113
- | 0.0001 | 56.0 | 7168 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
114
- | 0.0001 | 57.0 | 7296 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
115
- | 0.0001 | 58.0 | 7424 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
116
- | 0.0001 | 59.0 | 7552 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
117
- | 0.0001 | 60.0 | 7680 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
118
- | 0.0001 | 61.0 | 7808 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
119
- | 0.0001 | 62.0 | 7936 | 0.0039 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
120
- | 0.0003 | 63.0 | 8064 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
121
- | 0.0001 | 64.0 | 8192 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
122
- | 0.0001 | 65.0 | 8320 | 0.0000 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
123
- | 0.0001 | 66.0 | 8448 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
124
- | 0.0001 | 67.0 | 8576 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
125
- | 0.0001 | 68.0 | 8704 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
126
- | 0.0001 | 69.0 | 8832 | 0.0001 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
127
- | 0.0001 | 70.0 | 8960 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
128
- | 0.0001 | 71.0 | 9088 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
129
- | 0.0001 | 72.0 | 9216 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
130
- | 0.0001 | 73.0 | 9344 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
131
- | 0.0001 | 74.0 | 9472 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
132
- | 0.0001 | 75.0 | 9600 | 0.0002 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
133
- | 0.0001 | 76.0 | 9728 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
134
- | 0.0001 | 77.0 | 9856 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
135
- | 0.0001 | 78.0 | 9984 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
136
- | 0.0001 | 78.12 | 10000 | 0.0003 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 |
137
-
138
-
139
  ### Framework versions
140
 
141
  - Transformers 4.38.0.dev0
 
15
 
16
  # segformer-finetuned-biofilm_MRCNNv1
17
 
18
+ This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on the heroza/biofilm_MRCNNv1_validation dataset.
19
  It achieves the following results on the evaluation set:
20
+ - eval_loss: 0.7031
21
+ - eval_mean_iou: 0.0
22
+ - eval_mean_accuracy: nan
23
+ - eval_overall_accuracy: nan
24
+ - eval_accuracy_background: nan
25
+ - eval_accuracy_biofilm: nan
26
+ - eval_iou_background: 0.0
27
+ - eval_iou_biofilm: 0.0
28
+ - eval_runtime: 144.7654
29
+ - eval_samples_per_second: 8.794
30
+ - eval_steps_per_second: 1.105
31
+ - step: 0
32
 
33
  ## Model description
34
 
 
55
  - lr_scheduler_type: polynomial
56
  - training_steps: 10000
57
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
58
  ### Framework versions
59
 
60
  - Transformers 4.38.0.dev0
all_results.json CHANGED
@@ -1,18 +1,13 @@
1
  {
2
- "epoch": 78.12,
3
  "eval_accuracy_background": NaN,
4
  "eval_accuracy_biofilm": NaN,
5
  "eval_iou_background": 0.0,
6
  "eval_iou_biofilm": 0.0,
7
- "eval_loss": 0.0003163300279993564,
8
  "eval_mean_accuracy": NaN,
9
  "eval_mean_iou": 0.0,
10
  "eval_overall_accuracy": NaN,
11
- "eval_runtime": 16.3717,
12
- "eval_samples_per_second": 15.576,
13
- "eval_steps_per_second": 1.955,
14
- "train_loss": 0.005610336132813245,
15
- "train_runtime": 9371.2884,
16
- "train_samples_per_second": 8.537,
17
- "train_steps_per_second": 1.067
18
  }
 
1
  {
 
2
  "eval_accuracy_background": NaN,
3
  "eval_accuracy_biofilm": NaN,
4
  "eval_iou_background": 0.0,
5
  "eval_iou_biofilm": 0.0,
6
+ "eval_loss": 0.7031151056289673,
7
  "eval_mean_accuracy": NaN,
8
  "eval_mean_iou": 0.0,
9
  "eval_overall_accuracy": NaN,
10
+ "eval_runtime": 144.7654,
11
+ "eval_samples_per_second": 8.794,
12
+ "eval_steps_per_second": 1.105
 
 
 
 
13
  }
eval_results.json CHANGED
@@ -1,14 +1,13 @@
1
  {
2
- "epoch": 78.12,
3
  "eval_accuracy_background": NaN,
4
  "eval_accuracy_biofilm": NaN,
5
  "eval_iou_background": 0.0,
6
  "eval_iou_biofilm": 0.0,
7
- "eval_loss": 0.0003163300279993564,
8
  "eval_mean_accuracy": NaN,
9
  "eval_mean_iou": 0.0,
10
  "eval_overall_accuracy": NaN,
11
- "eval_runtime": 16.3717,
12
- "eval_samples_per_second": 15.576,
13
- "eval_steps_per_second": 1.955
14
  }
 
1
  {
 
2
  "eval_accuracy_background": NaN,
3
  "eval_accuracy_biofilm": NaN,
4
  "eval_iou_background": 0.0,
5
  "eval_iou_biofilm": 0.0,
6
+ "eval_loss": 0.7031151056289673,
7
  "eval_mean_accuracy": NaN,
8
  "eval_mean_iou": 0.0,
9
  "eval_overall_accuracy": NaN,
10
+ "eval_runtime": 144.7654,
11
+ "eval_samples_per_second": 8.794,
12
+ "eval_steps_per_second": 1.105
13
  }
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:31dbf66011e326f268125952cd74f651b0aae6bfe3d3824fdd148c7a66be7308
3
  size 14884776
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cb09d06c093e3554312be844df33cd6d39319e3fabe30d943e3f7091d1f3b8bf
3
  size 14884776
runs/Jul09_09-27-05_gpu-1-161.local/events.out.tfevents.1720513783.gpu-1-161.local.14727.0 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e7de31ce042e30dbd73279897455fa83bc56535153a17e55bf7debf1b869f4a6
3
+ size 681
training_args.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:3bdf0345ae5b884f10c6cc8c3646ebb017b3c7817f7b1e3c729d7274cb8cf8a4
3
  size 4411
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d8eefbb2fad228b7ed7de5aa7263b3db88f4432bce4eb8cfef1cf4c0db6ba48c
3
  size 4411