File size: 3,998 Bytes
b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 b637b0f 904abb1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 |
---
license: mit
language:
- ko
metrics:
- accuracy
- f1
base_model:
- facebook/convnext-tiny-224
pipeline_tag: image-classification
tags:
- multispectral
- convnext
- image-classification
- remote-sensing
- agriculture
- xai
---
# ConvNext_Multi ๋ชจ๋ธ ์นด๋
## Model Details
ConvNext_Multi๋ ๋ค์ค๋ถ๊ด(๋ฉํฐ์คํํธ๋ผ) ์์ ๋ฐ์ดํฐ๋ฅผ ์
๋ ฅ์ผ๋ก ํ์ฌ ์๋ฌผ ๋ฐ ์์์ ๋ถ๋ฅํ๋ ConvNeXt ๊ธฐ๋ฐ ์ด๋ฏธ์ง ๋ถ๋ฅ ๋ชจ๋ธ์
๋๋ค. ๋๋ก ๋ฐ ์์ฑ์์ ์ดฌ์ํ 5๋ฐด๋ (Blue, Green, Red, Near-Infrared, RedEdge) ์์์ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ๋๋ก ์ค๊ณ๋์ด, ๊ณ ํด์๋ ๋์
ยทํ๊ฒฝ ๋ชจ๋ํฐ๋ง์ ์ ํฉํฉ๋๋ค.
- **Developed by:** AI Research Team, MuhanRnd
- **License:** MIT
- **Base model:** facebook/convnext-tiny-224
- **Languages:** Korean (๋ชจ๋ธ ์ฃผ์ ๋ฐ ๋ฌธ์ํ)
- **Model type:** ์ด๋ฏธ์ง ๋ถ๋ฅ (๋ฉํฐ๋ฐด๋ ์
๋ ฅ)
## Uses
### Direct Use
- ๋ค์ค๋ถ๊ด ์์ ๊ธฐ๋ฐ ์์ก ์ํ ๋ถ๋ฅ
- ๋๋ก ์์์ 5๋ฐด๋ ์
๋ ฅ ๋ฉํฐ์คํํธ๋ผ ์ด๋ฏธ์ง ๋ถ๋ฅ ์์
### Downstream Use
- ์ ์ฌํ ๋ค์ค๋ถ๊ด ๋ฐ์ดํฐ์
์ ๋ํ ํ์ธํ๋
- ๋์
์ธ ๊ธฐํ ํ๊ฒฝ ๋ชจ๋ํฐ๋ง ๋์ ๋ถ๋ฅ ๋ฌธ์ ์ ์ฉ ๊ฐ๋ฅ
### Out-of-Scope Use
- RGB 3๋ฐด๋ ์์๋ง์ ์ฌ์ฉํ๋ ๊ฒฝ์ฐ (์
๋ ฅ ๊ตฌ์กฐ์ ํ์ฉ ๋ถ๊ฐ)
- ๋ณด์ ๋์ง ์์ ๋ฉํฐ๋ฐด๋ ์ด๋ฏธ์ง(๋ค์ค๋ถ๊ด ๋ณด์ ๊ฐ ์ฒ๋ฆฌ ํ์)
- ๊ฐ์ฒด ๊ฒ์ถ, ๋ถํ ๋ฑ ๋ถ๋ฅ ์ด์ธ์ ํ์คํฌ
## Bias, Risks, and Limitations
- ๋ณธ ๋ชจ๋ธ์ ํน์ ์ง์ญ ๋ฐ ์๋ฌผ ๋ฐ์ดํฐ๋ฅผ ์ค์ฌ์ผ๋ก ํ์ต๋์์ผ๋ฏ๋ก, ๋ฏธํ์ต ํ๊ฒฝ์์๋ ์ฑ๋ฅ ์ ํ๊ฐ ๋ฐ์ํ ์ ์์
- ๋ค์ค๋ถ๊ด ์์์ ํ์ง, ์ดฌ์ ์กฐ๊ฑด, ์ ์ฒ๋ฆฌ ๊ณผ์ ์ ๋ฏผ๊ฐํจ
- ๋ฐ์ดํฐ ํธํฅ์ผ๋ก ์ธํด ํน์ ์๋ฌผ์ด๋ ๋ฐฐ๊ฒฝ์ ๊ณผ์ ํฉ ๊ฐ๋ฅ์ฑ ์กด์ฌ
- ๋ชจ๋ธ ์์ธก์ ๋ณด์กฐ์ ํ๋จ ์๋ฃ๋ก ํ์ฉํด์ผ ํ๋ฉฐ, ์ต์ข
์์ฌ๊ฒฐ์ ์ ์ ๋ฌธ๊ฐ ํ๋จ๊ณผ ๋ณํ ํ์
## How to Get Started
```python
from transformers import AutoModelForImageClassification, AutoFeatureExtractor
import torch
# ๋ชจ๋ธ๊ณผ ํน์ง ์ถ์ถ๊ธฐ ๋ถ๋ฌ์ค๊ธฐ
model = AutoModelForImageClassification.from_pretrained("MhRnd/ConvNext_Multi")
extractor = AutoFeatureExtractor.from_pretrained("MhRnd/ConvNext_Multi")
# ๋ค์ค๋ฐด๋ ์ด๋ฏธ์ง ํ
์ (์: [batch_size, 5, H, W])
inputs = extractor(multi_band_images, return_tensors="pt")
# ๋ชจ๋ธ ์ถ๋ก
outputs = model(**inputs)
logits = outputs.logits
predicted_class = torch.argmax(logits, dim=1)
```
## Training Details
- **Training Data:**
- ๋๋ก ๋ฐ ์์ฑ ์ดฌ์ ๋ค์ค๋ถ๊ด(5๋ฐด๋) ์ด๋ฏธ์ง ๋ฐ์ดํฐ์
- ๋ผ๋ฒจ: ์ฃผ์ ์๋ฌผ ๋ฐ ์์ก ์ํ ํด๋์ค
- **Training Procedure:**
- ํ์ธํ๋: facebook/convnext-tiny-224 ๊ธฐ๋ฐ
- ์ํญ์: 2
- ๋ฐฐ์น์ฌ์ด์ฆ: 16
- ์ตํฐ๋ง์ด์ : AdamW
- ํ์ต๋ฅ : 1e-05, Step ์ค์ผ์ค๋ฌ ์ฌ์ฉ
## Evaluation
- **Testing Data:** ๋ณ๋ ๋ณด์ ํ ๊ฒ์ฆ์ฉ ๋ค์ค๋ถ๊ด ์ด๋ฏธ์ง์
- **Metrics:** ์ ํ๋(Accuracy), ์์ค(Loss)
- **Performance:**
- **๋ฒ ์คํธ ์ฑ๋ฅ (Epoch 2):**
- ํ๋ จ ์์ค: 1.3640
- ํ๋ จ ์ ํ๋: 0.2783
- ๊ฒ์ฆ ์์ค: 1.3898
- ๊ฒ์ฆ ์ ํ๋: 0.2069
- **๋ง์ง๋ง ์
๋ฐ์ดํธ:** 2025-08-20 08:32:18
- Accuracy: 90.0%
## Environmental Impact
- **Hardware:** NVIDIA RTX 3090 GPU
- **Training Duration:** ์ฝ 15๋ถ
## Citation
```
@article{liu2022convnext,
title={ConvNeXt: A ConvNet for the 2020s},
author={Liu, Zhuang and Mao, Han and Wu, Chao and Feichtenhofer, Christoph and Darrell, Trevor and Xie, Saining},
journal={arXiv preprint arXiv:2201.03545},
year={2022}
}
```
## Glossary
- **๋ค์ค๋ถ๊ด ์์(Multispectral Imagery):** ์ฌ๋ฌ ํ์ฅ๋์ ๋น์ ๋ถ๋ฆฌํ์ฌ ์ดฌ์ํ ์์์ผ๋ก, ์๋ฌผ์ ์์ก ์ํ ๋ถ์ ๋ฑ์ ํ์ฉ๋จ
- **ConvNeXt:** ํ๋์ ์ธ ๊ตฌ์กฐ๋ฅผ ๊ฐ์ถ ์ปจ๋ณผ๋ฃจ์
์ ๊ฒฝ๋ง(CNN)
## Model Card Authors
- AI Research Team, MuhanRnd
- [email protected]
|