ShadowCatLul's picture
Update README.md
1a87b67 verified
---
license: mit
tags:
- openclip
- vision-language
- image-classification
- zero-shot
- transfer-learning
library_name: timm
datasets:
- CUB_200_2011
- DTD
- FungiCLEF_2022
model-index:
- name: OpenCLIP - дообученные чекпоинты
results: []
---
# OpenCLIP: дообученные чекпоинты для различных доменов
Этот репозиторий содержит несколько чекпоинтов модели OpenCLIP, дообученных на различных датасетах для решения задач zero-shot классификации изображений.
## Описание модели
- **Базовая архитектура:** OpenCLIP (ViT backbone)
- **Дообучение:** Каждый чекпоинт соответствует разным экспериментам
- **Поддерживаемые задачи:** Классификация изображений
## Доступные чекпоинты
- `default_finetune_openclip_v1_epoch4_h.402...`:
Стандартное дообучение, OpenCLIP v1, 4 эпохи, best gzsl на всех классах - 0.382
- `default_finetune_openclip_v1_epoch1_uns0.38...`:
Стандартное дообучение, OpenCLIP, 1 эпоха, "uns0.38" — best тончность на unseen_classes - 0.44.
- `finetuned_openclip_v3_epoch1_h0.382...`:
Калибрация bias, OpenCLIP, 1 эпоха, "h0.382" — best gzsl на всех классах - 0.382
- `finetuned_openclip_v3_epoch1_uns0.44...`:
Калибрация bias, OpenCLIP, 1 эпоха, "uns0.44" — best тончность на unseen_classes - 0.44.
Каждый чекпоинт сохранён в формате PyTorch `.pickle` (~605 МБ) и требует наличия [Git LFS](https://git-lfs.com/).
## Использование
Загрузка чекпоинта в PyTorch:
```python
import torch
model = torch.load("finetuned_openclip_v3_epoch1_h0.3820202...pickle", map_location="cpu")
# Если используете официальный OpenCLIP:
# from open_clip import create_model_and_transforms
# model, _, _ = create_model_and_transforms('ViT-B/32', pretrained='laion2b_s34b_b79k')
```