You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

Model Klasyfikacji BI-RADS na Obrazach Mammograficznych

Ten model to sfinetunowany ResNet-18 do klasyfikacji obrazów mammograficznych według skali BI-RADS (1-5).

Opis Modelu

Model został wytrenowany na zbiorze danych zawierającym obrazy mammograficzne z adnotacjami BI-RADS. Celem jest wsparcie w procesie diagnostycznym poprzez automatyczną kategoryzację zmian.

Architektura: ResNet-18 z ostatnią warstwą w pełni połączoną zmodyfikowaną do 5 klas wyjściowych (BI-RADS 1 do 5) i warstwą Dropout (0.5).

Dane treningowe: Model był trenowany na danych ze zbiorów BUSBRA oraz lokalnego zbioru obrazów prawidłowych (Normal). (Dodaj więcej szczegółów, jeśli chcesz).

Procedura treningowa: (Opisz krótko, np. liczba epok, learning rate, augmentacje - informacje z Twojego skryptu 1.py).

Przeznaczenie i Ograniczenia

Przeznaczenie: Model jest przeznaczony jako narzędzie pomocnicze dla radiologów do wstępnej oceny obrazów mammograficznych.

Ograniczenia:

  • Model nie zastępuje profesjonalnej diagnozy lekarskiej.
  • Jakość predykcji zależy od jakości obrazu wejściowego i jego podobieństwa do danych treningowych.
  • (Dodaj inne znane Ci ograniczenia).

Jak używać

Model można załadować i używać w PyTorch. Poniżej znajduje się przykład, jak załadować model i wykonać predykcję. Najpierw upewnij się, że masz zainstalowane torch i torchvision.

import torch
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Image
import torch.nn as nn
from huggingface_hub import hf_hub_download

# Definicja architektury modelu (taka sama jak w use_model.py)
def get_model_architecture():
    model = models.resnet18(weights=None)
    num_feats = model.fc.in_features
    model.fc = nn.Sequential(
        nn.Dropout(0.5),
        nn.Linear(num_feats, 5)
    )
    return model

# Ścieżka do repozytorium i nazwa pliku na Hugging Face Hub
REPO_ID = "TwojaNazwaUzytkownika/NazwaTwojegoModelu" # ZASTĄP!
FILENAME = "best_model.pth"

# Pobieranie wag modelu
model_path = hf_hub_download(repo_id=REPO_ID, filename=FILENAME)

# Ładowanie modelu
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = get_model_architecture()
model.load_state_dict(torch.load(model_path, map_location=device))
model.to(device)
model.eval()

print("Model załadowany pomyślnie z Hugging Face Hub!")

# Transformacje dla obrazu
imagenet_mean = [0.485, 0.456, 0.406]
imagenet_std = [0.229, 0.224, 0.225]
transform = transforms.Compose([
    transforms.Resize((224, 224)),
    transforms.ToTensor(),
    transforms.Normalize(mean=imagenet_mean, std=imagenet_std)
])

# Przykładowa predykcja
# try:
#     image = Image.open("sciezka/do/twojego/obrazu.jpg").convert("RGB")
#     image_tensor = transform(image).unsqueeze(0).to(device)
#     with torch.no_grad():
#         outputs = model(image_tensor)
#         probs = torch.nn.functional.softmax(outputs, dim=1)
#         confidence, predicted_idx = torch.max(probs, 1)
#         birads_category = predicted_idx.item() + 1
#     print(f"Przewidziana kategoria BI-RADS: {birads_category} z pewnością {confidence.item():.2%}")
# except FileNotFoundError:
#     print("Podaj poprawną ścieżkę do obrazu, aby przetestować predykcję.")
Downloads last month
0
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Space using Enterwar99/MODEL_MAMMOGRAFII 1