ShadowCatLul's picture
Update README.md
1a87b67 verified
metadata
license: mit
tags:
  - openclip
  - vision-language
  - image-classification
  - zero-shot
  - transfer-learning
library_name: timm
datasets:
  - CUB_200_2011
  - DTD
  - FungiCLEF_2022
model-index:
  - name: OpenCLIP - дообученные чекпоинты
    results: []

OpenCLIP: дообученные чекпоинты для различных доменов

Этот репозиторий содержит несколько чекпоинтов модели OpenCLIP, дообученных на различных датасетах для решения задач zero-shot классификации изображений.

Описание модели

  • Базовая архитектура: OpenCLIP (ViT backbone)
  • Дообучение: Каждый чекпоинт соответствует разным экспериментам
  • Поддерживаемые задачи: Классификация изображений

Доступные чекпоинты

  • default_finetune_openclip_v1_epoch4_h.402...:
    Стандартное дообучение, OpenCLIP v1, 4 эпохи, best gzsl на всех классах - 0.382

  • default_finetune_openclip_v1_epoch1_uns0.38...:
    Стандартное дообучение, OpenCLIP, 1 эпоха, "uns0.38" — best тончность на unseen_classes - 0.44.

  • finetuned_openclip_v3_epoch1_h0.382...:
    Калибрация bias, OpenCLIP, 1 эпоха, "h0.382" — best gzsl на всех классах - 0.382

  • finetuned_openclip_v3_epoch1_uns0.44...:
    Калибрация bias, OpenCLIP, 1 эпоха, "uns0.44" — best тончность на unseen_classes - 0.44.

Каждый чекпоинт сохранён в формате PyTorch .pickle (~605 МБ) и требует наличия Git LFS.

Использование

Загрузка чекпоинта в PyTorch:

import torch

model = torch.load("finetuned_openclip_v3_epoch1_h0.3820202...pickle", map_location="cpu")
# Если используете официальный OpenCLIP:
# from open_clip import create_model_and_transforms
# model, _, _ = create_model_and_transforms('ViT-B/32', pretrained='laion2b_s34b_b79k')