OpenCLIP: дообученные чекпоинты для различных доменов

Этот репозиторий содержит несколько чекпоинтов модели OpenCLIP, дообученных на различных датасетах для решения задач zero-shot классификации изображений.

Описание модели

  • Базовая архитектура: OpenCLIP (ViT backbone)
  • Дообучение: Каждый чекпоинт соответствует разным экспериментам
  • Поддерживаемые задачи: Классификация изображений

Доступные чекпоинты

  • default_finetune_openclip_v1_epoch4_h.402...:
    Стандартное дообучение, OpenCLIP v1, 4 эпохи, best gzsl на всех классах - 0.382

  • default_finetune_openclip_v1_epoch1_uns0.38...:
    Стандартное дообучение, OpenCLIP, 1 эпоха, "uns0.38" — best тончность на unseen_classes - 0.44.

  • finetuned_openclip_v3_epoch1_h0.382...:
    Калибрация bias, OpenCLIP, 1 эпоха, "h0.382" — best gzsl на всех классах - 0.382

  • finetuned_openclip_v3_epoch1_uns0.44...:
    Калибрация bias, OpenCLIP, 1 эпоха, "uns0.44" — best тончность на unseen_classes - 0.44.

Каждый чекпоинт сохранён в формате PyTorch .pickle (~605 МБ) и требует наличия Git LFS.

Использование

Загрузка чекпоинта в PyTorch:

import torch

model = torch.load("finetuned_openclip_v3_epoch1_h0.3820202...pickle", map_location="cpu")
# Если используете официальный OpenCLIP:
# from open_clip import create_model_and_transforms
# model, _, _ = create_model_and_transforms('ViT-B/32', pretrained='laion2b_s34b_b79k')

Downloads last month
0
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support