Edit model card

total_detection_Model

This model is a fine-tuned version of facebook/detr-resnet-50 on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 1.0998
  • Map: 0.1562
  • Map 50: 0.3092
  • Map 75: 0.1432
  • Map Small: 0.0973
  • Map Medium: 0.254
  • Map Large: 0.1901
  • Mar 1: 0.1111
  • Mar 10: 0.2249
  • Mar 100: 0.2618
  • Mar Small: 0.1956
  • Mar Medium: 0.4256
  • Mar Large: 0.3376
  • Map Car: 0.3165
  • Mar 100 Car: 0.4289
  • Map Hgv: 0.2711
  • Mar 100 Hgv: 0.4904
  • Map Motorcycle: 0.0373
  • Mar 100 Motorcycle: 0.128
  • Map Other: 0.0
  • Mar 100 Other: 0.0

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • num_epochs: 100

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Car Mar 100 Car Map Hgv Mar 100 Hgv Map Motorcycle Mar 100 Motorcycle Map Other Mar 100 Other
2.0999 1.0 1431 1.8574 0.0201 0.0649 0.0068 0.0143 0.0784 0.066 0.0144 0.0463 0.0626 0.0465 0.1282 0.1492 0.08 0.2343 0.0005 0.0162 0.0 0.0 0.0 0.0
1.9273 2.0 2862 1.6705 0.029 0.0849 0.0128 0.0208 0.0846 0.0741 0.0297 0.0779 0.0983 0.0554 0.1796 0.2046 0.1091 0.2691 0.0067 0.1241 0.0 0.0 0.0 0.0
1.8425 3.0 4293 1.6103 0.0451 0.1182 0.0266 0.027 0.1207 0.0676 0.0449 0.0991 0.1213 0.0649 0.2091 0.1792 0.1369 0.278 0.0436 0.2072 0.0 0.0 0.0 0.0
1.7663 4.0 5724 1.6271 0.0436 0.1164 0.0251 0.0238 0.1161 0.0622 0.044 0.1001 0.1233 0.0637 0.2179 0.1888 0.1268 0.2709 0.0474 0.2224 0.0 0.0 0.0 0.0
1.7377 5.0 7155 1.5810 0.0506 0.1273 0.033 0.0282 0.1332 0.0622 0.0497 0.11 0.1347 0.0698 0.2308 0.2096 0.148 0.279 0.0546 0.2598 0.0 0.0 0.0 0.0
1.7279 6.0 8586 1.6877 0.0437 0.1172 0.0241 0.0215 0.1133 0.0878 0.0435 0.0991 0.1189 0.0645 0.2072 0.204 0.1281 0.2493 0.0467 0.2262 0.0 0.0 0.0 0.0
1.7159 7.0 10017 1.6732 0.0447 0.1155 0.0271 0.0261 0.1158 0.0813 0.0417 0.0986 0.1186 0.0594 0.2132 0.2587 0.1402 0.2535 0.0387 0.2199 0.0 0.0011 0.0 0.0
1.679 8.0 11448 1.5279 0.0563 0.1416 0.0354 0.0301 0.1369 0.0853 0.0523 0.1154 0.1395 0.0768 0.3064 0.2186 0.1468 0.287 0.0759 0.2561 0.0026 0.0148 0.0 0.0
1.6202 9.0 12879 1.5251 0.0636 0.1536 0.0437 0.0343 0.1371 0.0993 0.0542 0.1146 0.1348 0.0828 0.2167 0.2322 0.1539 0.2762 0.0941 0.2454 0.0063 0.0176 0.0 0.0
1.6597 10.0 14310 1.5871 0.0552 0.1378 0.0353 0.0322 0.1293 0.0736 0.0467 0.105 0.1258 0.0761 0.2125 0.194 0.1323 0.2776 0.0868 0.2224 0.0018 0.0033 0.0 0.0
1.5974 11.0 15741 1.5414 0.0637 0.1543 0.0456 0.0353 0.1429 0.092 0.0565 0.1252 0.1504 0.0949 0.2336 0.2292 0.16 0.2977 0.0801 0.2512 0.0146 0.0527 0.0 0.0
1.6483 12.0 17172 1.5121 0.0652 0.1549 0.0468 0.0345 0.1499 0.0947 0.0589 0.1305 0.1586 0.0951 0.3672 0.2361 0.1622 0.2975 0.0932 0.2863 0.0052 0.0505 0.0 0.0
1.6783 13.0 18603 1.5574 0.0555 0.1412 0.0318 0.0313 0.1299 0.0943 0.0504 0.1124 0.1305 0.082 0.2062 0.2206 0.1471 0.2708 0.0685 0.2061 0.0063 0.0451 0.0 0.0
1.6055 14.0 20034 1.5285 0.0648 0.1589 0.0437 0.0326 0.1491 0.0868 0.0579 0.1284 0.155 0.0969 0.2319 0.2287 0.1577 0.2835 0.0978 0.2927 0.0037 0.044 0.0 0.0
1.707 15.0 21465 1.5464 0.0604 0.1523 0.0377 0.0363 0.1274 0.0931 0.055 0.1203 0.1405 0.0906 0.2128 0.2118 0.1684 0.2872 0.064 0.2221 0.0092 0.0527 0.0 0.0
1.6617 16.0 22896 1.5316 0.0619 0.1609 0.0349 0.0371 0.1267 0.0942 0.0539 0.1314 0.1587 0.1124 0.224 0.2234 0.1646 0.3005 0.0777 0.2948 0.0051 0.0396 0.0 0.0
1.6514 17.0 24327 1.5269 0.066 0.1702 0.0426 0.0387 0.136 0.0982 0.0654 0.1448 0.1753 0.1174 0.3461 0.2424 0.1547 0.3065 0.0955 0.3204 0.0139 0.0742 0.0 0.0
1.6943 18.0 25758 1.5618 0.0673 0.1627 0.0452 0.0391 0.1399 0.0927 0.063 0.1343 0.1622 0.1053 0.3638 0.2042 0.1679 0.3039 0.091 0.2885 0.0103 0.0566 0.0 0.0
1.6787 19.0 27189 1.5386 0.0633 0.1618 0.0364 0.0364 0.1407 0.1041 0.059 0.1375 0.1605 0.1014 0.2435 0.2384 0.1438 0.2822 0.1002 0.313 0.0091 0.0467 0.0 0.0
1.687 20.0 28620 1.5859 0.0601 0.1518 0.0372 0.031 0.1346 0.0787 0.0585 0.1255 0.1546 0.1 0.2221 0.2222 0.1516 0.2859 0.0847 0.2642 0.0039 0.0681 0.0 0.0
1.675 21.0 30051 1.5372 0.0627 0.1598 0.0377 0.0374 0.1296 0.091 0.0613 0.1348 0.1601 0.1013 0.2396 0.245 0.1522 0.2816 0.0901 0.3139 0.0083 0.0451 0.0 0.0
1.6355 22.0 31482 1.5502 0.0594 0.1467 0.0392 0.0331 0.1305 0.0814 0.0541 0.1276 0.1565 0.1128 0.2273 0.1966 0.1553 0.3032 0.0779 0.271 0.0042 0.0516 0.0 0.0
1.6929 23.0 32913 1.6515 0.0509 0.1394 0.0262 0.0276 0.1161 0.0826 0.0528 0.1243 0.1455 0.0891 0.2656 0.2165 0.1317 0.2525 0.0677 0.2657 0.0043 0.0637 0.0 0.0
1.7225 24.0 34344 1.5563 0.0667 0.1624 0.0414 0.0369 0.1333 0.0805 0.0574 0.1332 0.1581 0.113 0.3208 0.1912 0.162 0.289 0.0872 0.2887 0.0177 0.0549 0.0 0.0
1.6551 25.0 35775 1.4970 0.0689 0.1688 0.0457 0.0357 0.1499 0.0986 0.0629 0.1391 0.165 0.1096 0.3412 0.224 0.1664 0.3039 0.1025 0.2955 0.0069 0.0604 0.0 0.0
1.598 26.0 37206 1.5204 0.0695 0.1732 0.0434 0.04 0.1463 0.0819 0.0622 0.1492 0.1813 0.1218 0.2586 0.2439 0.1626 0.3197 0.1082 0.3472 0.0073 0.0582 0.0 0.0
1.6319 27.0 38637 1.5075 0.0673 0.1661 0.0458 0.036 0.1483 0.0843 0.0617 0.1364 0.1638 0.1089 0.2351 0.2167 0.155 0.3122 0.1037 0.2754 0.0104 0.0676 0.0 0.0
1.5731 28.0 40068 1.5037 0.076 0.1816 0.0536 0.0405 0.1566 0.0916 0.0642 0.144 0.1683 0.1064 0.2972 0.2338 0.1788 0.2983 0.1104 0.3062 0.015 0.0687 0.0 0.0
1.6216 29.0 41499 1.4473 0.0794 0.1847 0.058 0.0427 0.1636 0.1046 0.0649 0.1447 0.1727 0.1097 0.2548 0.255 0.1929 0.3207 0.1101 0.3139 0.0148 0.056 0.0 0.0
1.6162 30.0 42930 1.5290 0.0652 0.1604 0.0427 0.0344 0.1678 0.0912 0.0612 0.1352 0.1661 0.1064 0.3412 0.2267 0.1607 0.2989 0.0897 0.292 0.0105 0.0736 0.0 0.0
1.6271 31.0 44361 1.4971 0.0719 0.1735 0.0496 0.0387 0.1526 0.1021 0.0628 0.1357 0.1596 0.1062 0.2399 0.2201 0.1771 0.3051 0.0951 0.2722 0.0152 0.061 0.0 0.0
1.5519 32.0 45792 1.4767 0.0709 0.1745 0.0464 0.0377 0.1569 0.1152 0.0664 0.1461 0.1744 0.116 0.2486 0.2517 0.1573 0.3013 0.1179 0.3445 0.0086 0.0516 0.0 0.0
1.5743 33.0 47223 1.4519 0.077 0.1909 0.0496 0.0414 0.161 0.0975 0.0683 0.1483 0.1761 0.1133 0.2544 0.251 0.1764 0.3141 0.1139 0.3227 0.0177 0.0676 0.0 0.0
1.5468 34.0 48654 1.4320 0.0803 0.1891 0.0619 0.044 0.1673 0.0982 0.0763 0.1657 0.1972 0.1339 0.2699 0.2671 0.1749 0.3251 0.1287 0.374 0.0178 0.0896 0.0 0.0
1.482 35.0 50085 1.4304 0.081 0.1891 0.0589 0.0442 0.166 0.1031 0.0698 0.1591 0.1874 0.1288 0.26 0.2579 0.1782 0.3143 0.1251 0.3569 0.0208 0.0786 0.0 0.0
1.5161 36.0 51516 1.4487 0.0841 0.2016 0.0584 0.0454 0.1629 0.1009 0.0685 0.1556 0.1792 0.1176 0.3537 0.2535 0.1836 0.3036 0.1284 0.3297 0.0245 0.0835 0.0 0.0
1.5165 37.0 52947 1.4436 0.0745 0.1852 0.0469 0.0365 0.2585 0.1052 0.0688 0.1482 0.1799 0.117 0.353 0.2762 0.169 0.3054 0.1202 0.3416 0.0088 0.0725 0.0 0.0
1.4793 38.0 54378 1.3978 0.0856 0.209 0.0583 0.0489 0.17 0.1161 0.0708 0.1633 0.1952 0.1318 0.3977 0.289 0.1916 0.3263 0.1293 0.3829 0.0214 0.0714 0.0 0.0
1.4846 39.0 55809 1.3635 0.089 0.2058 0.0695 0.0509 0.1714 0.1116 0.0759 0.1655 0.1985 0.1372 0.2663 0.2695 0.2035 0.345 0.1338 0.3561 0.0186 0.0929 0.0 0.0
1.471 40.0 57240 1.3802 0.0907 0.2129 0.0672 0.0535 0.1757 0.0956 0.0746 0.1639 0.1976 0.1368 0.2702 0.2683 0.2116 0.337 0.1338 0.3649 0.0175 0.0885 0.0 0.0
1.4175 41.0 58671 1.3581 0.0936 0.2179 0.0699 0.0521 0.1814 0.1134 0.0802 0.165 0.1967 0.1347 0.4143 0.2609 0.2039 0.3342 0.1483 0.3556 0.0223 0.0973 0.0 0.0
1.4183 42.0 60102 1.3719 0.0946 0.2192 0.0696 0.0601 0.1725 0.0986 0.0759 0.1675 0.2017 0.1447 0.3632 0.2393 0.205 0.3446 0.1407 0.3615 0.0327 0.1005 0.0 0.0
1.5005 43.0 61533 1.3330 0.0964 0.2163 0.0735 0.0592 0.1984 0.1177 0.0784 0.1758 0.2076 0.1417 0.4074 0.299 0.2252 0.3495 0.1399 0.3983 0.0203 0.0824 0.0 0.0
1.3928 44.0 62964 1.3265 0.0974 0.2236 0.0752 0.0569 0.2467 0.1234 0.0784 0.1715 0.2053 0.1412 0.3985 0.2922 0.221 0.3507 0.1476 0.3783 0.0208 0.0923 0.0 0.0
1.4427 45.0 64395 1.3109 0.1071 0.2402 0.0844 0.0621 0.2005 0.1147 0.0843 0.1784 0.214 0.1527 0.3386 0.2674 0.2329 0.3666 0.1729 0.4092 0.0225 0.0802 0.0 0.0
1.4099 46.0 65826 1.3421 0.0953 0.2165 0.075 0.0524 0.1934 0.121 0.0811 0.1766 0.2104 0.1453 0.4109 0.276 0.2065 0.3449 0.1594 0.4062 0.0154 0.0907 0.0 0.0
1.4356 47.0 67257 1.3357 0.0966 0.2209 0.074 0.0553 0.1885 0.1276 0.0819 0.1727 0.2029 0.1399 0.2993 0.2861 0.2128 0.3495 0.1608 0.3786 0.0127 0.0835 0.0 0.0
1.3782 48.0 68688 1.3464 0.1003 0.2259 0.0813 0.059 0.194 0.1144 0.0783 0.1705 0.2045 0.1456 0.2801 0.2438 0.2177 0.3495 0.1671 0.3916 0.0166 0.0769 0.0 0.0
1.3981 49.0 70119 1.3021 0.1068 0.2339 0.0894 0.0616 0.2043 0.1324 0.0837 0.1781 0.2121 0.1472 0.2903 0.304 0.2386 0.3638 0.1745 0.4087 0.0143 0.0758 0.0 0.0
1.4149 50.0 71550 1.2841 0.1121 0.239 0.0975 0.0651 0.2099 0.1377 0.0849 0.1881 0.2202 0.1547 0.2978 0.2895 0.2527 0.3697 0.1815 0.4217 0.0142 0.0896 0.0 0.0
1.3872 51.0 72981 1.3190 0.1069 0.2365 0.085 0.0628 0.2025 0.1176 0.084 0.1797 0.2126 0.1445 0.2921 0.2863 0.2239 0.352 0.1776 0.4204 0.0259 0.078 0.0 0.0
1.3669 52.0 74412 1.2991 0.1048 0.2398 0.0834 0.0596 0.1998 0.1283 0.0834 0.179 0.2125 0.1487 0.2844 0.2796 0.2223 0.3477 0.1776 0.4056 0.0195 0.0967 0.0 0.0
1.3393 53.0 75843 1.2673 0.1145 0.2435 0.0996 0.0685 0.2091 0.1294 0.0895 0.1863 0.218 0.152 0.2959 0.3013 0.2462 0.3675 0.1845 0.4172 0.0272 0.0874 0.0 0.0
1.3472 54.0 77274 1.2819 0.1174 0.2568 0.0986 0.0671 0.2117 0.132 0.0941 0.1902 0.2202 0.1558 0.2907 0.3052 0.2433 0.3628 0.1953 0.4169 0.031 0.1011 0.0 0.0
1.3121 55.0 78705 1.2710 0.1153 0.2525 0.0973 0.065 0.2114 0.1443 0.0931 0.1877 0.2211 0.1562 0.2898 0.313 0.2365 0.3699 0.1982 0.413 0.0266 0.1016 0.0 0.0
1.3305 56.0 80136 1.2528 0.1163 0.2526 0.0964 0.0718 0.206 0.1485 0.0953 0.195 0.2267 0.1627 0.2968 0.2975 0.2494 0.3789 0.1847 0.4166 0.031 0.1115 0.0 0.0
1.3311 57.0 81567 1.2418 0.1136 0.2449 0.0973 0.066 0.2098 0.1441 0.0924 0.1898 0.2248 0.1576 0.323 0.3067 0.2442 0.3791 0.1883 0.4212 0.0218 0.0989 0.0 0.0
1.3141 58.0 82998 1.2528 0.1164 0.2508 0.0969 0.0711 0.2121 0.1595 0.0956 0.1931 0.2249 0.1603 0.297 0.3078 0.2341 0.3781 0.2057 0.4308 0.0259 0.0907 0.0 0.0
1.3249 59.0 84429 1.2503 0.1153 0.2573 0.0947 0.0704 0.2127 0.142 0.0926 0.1919 0.2213 0.1566 0.2979 0.3008 0.2377 0.3696 0.2039 0.4327 0.0198 0.083 0.0 0.0
1.305 60.0 85860 1.2124 0.1209 0.2589 0.1036 0.0728 0.2171 0.1527 0.0951 0.1916 0.2248 0.1609 0.2966 0.3009 0.2645 0.3829 0.2002 0.4113 0.0188 0.1049 0.0 0.0
1.2815 61.0 87291 1.2255 0.1223 0.2611 0.1022 0.074 0.216 0.1488 0.0939 0.1979 0.2305 0.1662 0.3021 0.3045 0.2689 0.3849 0.195 0.4353 0.0255 0.1016 0.0 0.0
1.2867 62.0 88722 1.2152 0.1227 0.2573 0.1058 0.0765 0.216 0.1433 0.0942 0.1958 0.2299 0.1652 0.4484 0.3003 0.272 0.391 0.1988 0.421 0.02 0.1077 0.0 0.0
1.2973 63.0 90153 1.2129 0.1257 0.27 0.1066 0.0769 0.2206 0.1512 0.0981 0.2062 0.2393 0.1739 0.4559 0.3117 0.2654 0.3886 0.2056 0.4503 0.0319 0.1181 0.0 0.0
1.2553 64.0 91584 1.1979 0.1339 0.2911 0.1106 0.0844 0.2244 0.1571 0.1033 0.2058 0.2416 0.1814 0.3547 0.315 0.2676 0.3923 0.2287 0.4646 0.0394 0.1093 0.0 0.0
1.2563 65.0 93015 1.1970 0.131 0.2766 0.109 0.0807 0.2229 0.1602 0.0998 0.2051 0.238 0.1707 0.459 0.3151 0.2805 0.3969 0.2077 0.4474 0.036 0.1077 0.0 0.0
1.2471 66.0 94446 1.1801 0.1369 0.2827 0.1211 0.0829 0.2339 0.1538 0.1016 0.2096 0.2425 0.1772 0.3123 0.3121 0.2852 0.3998 0.2293 0.4545 0.0331 0.1159 0.0 0.0
1.2423 67.0 95877 1.1827 0.1291 0.2649 0.1136 0.0762 0.2269 0.1568 0.0992 0.2018 0.2342 0.1676 0.3095 0.31 0.2777 0.397 0.2216 0.4482 0.0173 0.0918 0.0 0.0
1.2146 68.0 97308 1.1707 0.1381 0.2814 0.1226 0.0872 0.2312 0.1604 0.1018 0.2099 0.2453 0.1843 0.3346 0.3158 0.2913 0.4031 0.2289 0.46 0.0324 0.1181 0.0 0.0
1.2552 69.0 98739 1.1824 0.138 0.2904 0.1155 0.086 0.2297 0.1675 0.0999 0.2082 0.2419 0.1769 0.3353 0.3238 0.282 0.3991 0.2254 0.4549 0.0447 0.1137 0.0 0.0
1.2046 70.0 100170 1.1662 0.1416 0.2876 0.1234 0.0875 0.2356 0.1795 0.1019 0.2129 0.249 0.1845 0.3148 0.3241 0.2897 0.4102 0.2343 0.4629 0.0423 0.1231 0.0 0.0
1.2339 71.0 101601 1.1815 0.1381 0.292 0.1183 0.0822 0.2331 0.1727 0.0996 0.2097 0.2448 0.1758 0.3145 0.3157 0.2782 0.3971 0.2389 0.4623 0.0353 0.1198 0.0 0.0
1.2323 72.0 103032 1.1606 0.1426 0.2915 0.1228 0.0896 0.2365 0.168 0.1029 0.215 0.2522 0.1871 0.3164 0.3273 0.2882 0.4021 0.2401 0.4702 0.0421 0.1363 0.0 0.0
1.2024 73.0 104463 1.1463 0.1452 0.2963 0.1286 0.0922 0.238 0.1795 0.1057 0.215 0.2522 0.1902 0.3172 0.3147 0.2948 0.4131 0.2482 0.4785 0.0379 0.117 0.0 0.0
1.2132 74.0 105894 1.1512 0.1429 0.2908 0.1294 0.0861 0.2415 0.1728 0.1014 0.2121 0.2475 0.1834 0.4389 0.3038 0.2915 0.4119 0.2464 0.4596 0.0336 0.1187 0.0 0.0
1.2068 75.0 107325 1.1419 0.1482 0.3003 0.1323 0.0906 0.2451 0.1761 0.1085 0.2183 0.2538 0.1898 0.3179 0.3267 0.2949 0.4105 0.2614 0.4777 0.0367 0.1269 0.0 0.0
1.181 76.0 108756 1.1356 0.1488 0.2988 0.1347 0.0918 0.244 0.1705 0.1074 0.2154 0.2505 0.1835 0.3192 0.3271 0.3015 0.4148 0.2531 0.4735 0.0405 0.1137 0.0 0.0
1.19 77.0 110187 1.1255 0.1488 0.2977 0.1337 0.0928 0.2448 0.1755 0.1074 0.2204 0.2553 0.1889 0.3209 0.3342 0.3 0.4176 0.2562 0.4829 0.0391 0.1209 0.0 0.0
1.1842 78.0 111618 1.1276 0.1481 0.2952 0.1341 0.0922 0.2472 0.1677 0.1068 0.2207 0.2571 0.19 0.3241 0.3324 0.3011 0.4191 0.2584 0.483 0.0331 0.1264 0.0 0.0
1.164 79.0 113049 1.1284 0.1502 0.3009 0.1339 0.095 0.2472 0.1766 0.1057 0.218 0.2546 0.1895 0.3966 0.3301 0.3053 0.419 0.2592 0.4797 0.0362 0.1198 0.0 0.0
1.1691 80.0 114480 1.1192 0.1511 0.3022 0.1351 0.0932 0.2503 0.1755 0.1075 0.2227 0.2594 0.1914 0.3249 0.3369 0.3058 0.4212 0.2644 0.4905 0.0341 0.1258 0.0 0.0
1.1578 81.0 115911 1.1295 0.1498 0.3048 0.1343 0.0934 0.2465 0.1752 0.1087 0.2233 0.259 0.1935 0.3232 0.3331 0.3017 0.4172 0.2577 0.4913 0.04 0.1275 0.0 0.0
1.1591 82.0 117342 1.1182 0.1498 0.2988 0.1365 0.0936 0.2477 0.1751 0.107 0.2222 0.2574 0.1918 0.3233 0.3302 0.3048 0.4184 0.2582 0.4853 0.0362 0.1258 0.0 0.0
1.1603 83.0 118773 1.1210 0.1501 0.3015 0.1359 0.0936 0.2485 0.1765 0.1041 0.2209 0.2565 0.1931 0.3216 0.3328 0.3053 0.4191 0.2618 0.4831 0.0332 0.1236 0.0 0.0
1.1692 84.0 120204 1.1156 0.1509 0.303 0.1392 0.0937 0.2488 0.1837 0.1089 0.2241 0.261 0.1969 0.3252 0.3408 0.3061 0.4239 0.263 0.4953 0.0344 0.1247 0.0 0.0
1.1598 85.0 121635 1.1094 0.1526 0.3067 0.1415 0.0958 0.2513 0.1815 0.1095 0.2241 0.2595 0.1937 0.4255 0.3361 0.3098 0.4257 0.2639 0.4896 0.0365 0.1225 0.0 0.0
1.1638 86.0 123066 1.1072 0.1555 0.3086 0.1449 0.0978 0.2512 0.1862 0.108 0.2237 0.2605 0.1939 0.4238 0.3425 0.314 0.4264 0.2662 0.488 0.0417 0.1275 0.0 0.0
1.1661 87.0 124497 1.1089 0.1541 0.308 0.1389 0.0965 0.2511 0.188 0.1087 0.2232 0.259 0.193 0.398 0.3447 0.3109 0.4255 0.2665 0.4864 0.0389 0.1242 0.0 0.0
1.1339 88.0 125928 1.1062 0.156 0.3084 0.1417 0.0977 0.2515 0.1893 0.1093 0.2237 0.2608 0.1958 0.3968 0.3403 0.3152 0.4287 0.2681 0.4821 0.0406 0.1324 0.0 0.0
1.1317 89.0 127359 1.1039 0.1566 0.3103 0.1417 0.0989 0.2519 0.1898 0.1087 0.2238 0.2598 0.1943 0.3236 0.3394 0.3162 0.4291 0.2676 0.485 0.0427 0.1253 0.0 0.0
1.1428 90.0 128790 1.1031 0.1566 0.3127 0.1432 0.0979 0.2529 0.1877 0.1092 0.2247 0.2614 0.193 0.4249 0.3417 0.3151 0.4275 0.269 0.4867 0.0421 0.1313 0.0 0.0
1.1388 91.0 130221 1.1052 0.1547 0.3088 0.141 0.0952 0.2525 0.1869 0.1106 0.2241 0.2606 0.1924 0.4482 0.3366 0.3122 0.4271 0.2664 0.4819 0.0401 0.1335 0.0 0.0
1.1398 92.0 131652 1.1020 0.1563 0.3122 0.1417 0.098 0.2533 0.1916 0.1099 0.2263 0.2624 0.196 0.4259 0.3415 0.3141 0.4278 0.2708 0.4948 0.0403 0.1269 0.0 0.0
1.1389 93.0 133083 1.1024 0.1558 0.3135 0.1406 0.0976 0.2528 0.188 0.1085 0.225 0.2615 0.1927 0.4268 0.3411 0.3144 0.4276 0.2685 0.4925 0.0405 0.1258 0.0 0.0
1.1302 94.0 134514 1.1006 0.1556 0.3107 0.1409 0.0971 0.253 0.1885 0.1097 0.2248 0.2614 0.1938 0.4261 0.3398 0.3152 0.4286 0.2689 0.4907 0.0384 0.1264 0.0 0.0
1.1378 95.0 135945 1.1015 0.1556 0.3093 0.1411 0.0964 0.2535 0.1902 0.1092 0.2246 0.2612 0.1945 0.4256 0.339 0.3147 0.4277 0.2698 0.4903 0.038 0.1269 0.0 0.0
1.1416 96.0 137376 1.1003 0.1558 0.3094 0.1422 0.0971 0.2536 0.1903 0.1095 0.224 0.2609 0.1948 0.4254 0.3386 0.3162 0.4289 0.2699 0.4905 0.0371 0.1242 0.0 0.0
1.1581 97.0 138807 1.0994 0.1565 0.3094 0.1428 0.0978 0.2541 0.1909 0.1112 0.2251 0.2621 0.1956 0.4261 0.3385 0.3168 0.4294 0.2715 0.4914 0.0377 0.1275 0.0 0.0
1.1262 98.0 140238 1.1002 0.1562 0.3094 0.1431 0.0973 0.254 0.19 0.1112 0.2251 0.2618 0.1958 0.4252 0.3387 0.3163 0.4288 0.2709 0.4899 0.0376 0.1286 0.0 0.0
1.1558 99.0 141669 1.0999 0.1563 0.3092 0.1434 0.0974 0.254 0.1899 0.1111 0.225 0.262 0.1959 0.4256 0.3376 0.3165 0.4289 0.2712 0.4904 0.0375 0.1286 0.0 0.0
1.1426 100.0 143100 1.0998 0.1562 0.3092 0.1432 0.0973 0.254 0.1901 0.1111 0.2249 0.2618 0.1956 0.4256 0.3376 0.3165 0.4289 0.2711 0.4904 0.0373 0.128 0.0 0.0

Framework versions

  • Transformers 4.44.0
  • Pytorch 2.4.0+cu121
  • Datasets 2.20.0
  • Tokenizers 0.19.1
Downloads last month
54
Safetensors
Model size
41.6M params
Tensor type
F32
·
Inference API
Unable to determine this model's library. Check the docs .

Model tree for ArrayDice/total_detection_Model

Finetuned
(401)
this model