HuggingFace M.INC

Mattimax/DACMini-IT

Logo di DACMini


Descrizione

DACMini-IT è un modello di linguaggio compatto e instruction tuned per chat e dialogo in lingua italiana. Basato sull’architettura GPT-2 Small (italian adaptation), è progettato per essere rapido, leggero e facilmente distribuibile su dispositivi con risorse limitate.

Rispetto a DACMini “base”, DACMini-IT è addestrato su dataset italiani conversazionali strutturati in formato user-assistant, ottimizzando la capacità di seguire istruzioni e gestire conversazioni multi-turno naturali.


Dimensioni e caratteristiche tecniche

  • Parametri: 109M
  • Architettura: GPT-2 Small (italian adaptation)
  • Lunghezza massima del contesto: 512 token
  • Numero di strati: 12
  • Numero di teste di attenzione: 12
  • Dimensione embedding: 768
  • Vocabolario: ~50.000 token
  • Quantizzazione: supportata (8-bit / 4-bit opzionale con bitsandbytes)

Dataset di addestramento

Addestrato su Mattimax/DATA-AI_Conversation_ITA, un dataset italiano di dialoghi instruction tuned, contenente coppie prompt-response strutturate per favorire risposte coerenti, naturali e grammaticalmente corrette.


Obiettivi

  • Chatbot in lingua italiana con capacità di seguire istruzioni.
  • Risposte concise, chiare e naturali in contesti multi-turno.
  • Applicazioni leggere o offline dove la dimensione del modello è un vincolo.

Avvertenze e limitazioni

  • Modello sperimentale: può produrre errori logici o risposte non pertinenti.
  • Non addestrato su temi sensibili o contenuti specialistici.
  • Prestazioni limitate su conversazioni molto lunghe o prompt complessi.
  • Non destinato ad usi commerciali senza ulteriore validazione.

Uso consigliato

  • Applicazioni chatbot leggere o offline in italiano.
  • Prototipazione e test di pipeline NLP italiane.
  • Generazione di risposte sintetiche e dataset per training o valutazione.

Codice per inferenza di esempio

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# 1. Carica modello e tokenizer addestrati
model_path = "Mattimax/DACMini-IT"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path)
model.eval()

# 2. Funzione di generazione
def chat_inference(prompt, max_new_tokens=150, temperature=0.7, top_p=0.9):
    # Costruisci input nel formato usato in training
    formatted_prompt = f"<|user|> {prompt.strip()} <|assistant|>"

    # Tokenizza
    inputs = tokenizer(formatted_prompt, return_tensors="pt")

    # Genera risposta
    with torch.no_grad():
        output = model.generate(
            **inputs,
            max_new_tokens=max_new_tokens,
            temperature=temperature,
            top_p=top_p,
            do_sample=True,
            pad_token_id=tokenizer.pad_token_id or tokenizer.eos_token_id
        )

    # Decodifica e rimuovi prompt iniziale
    generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
    response = generated_text.split("<|assistant|>")[-1].strip()
    return response

# 3. Esempio d’uso
if __name__ == "__main__":
    while True:
        user_input = input("👤 Utente: ")
        if user_input.lower() in ["exit", "quit"]:
            break
        response = chat_inference(user_input)
        print(f"🤖 Assistant: {response}\n")

Referenze

Citazione

Se utilizzi Mattimax/DACMini-IT in un progetto, un articolo o qualsiasi lavoro, ti chiediamo gentilmente di citarlo usando il file CITATION.bib incluso nel repository:

@misc{mattimax2025dacminiit,
    title = {{Mattimax/DACMini-IT}: Un modello di linguaggio open source},
    author = {Mattimax},
    howpublished = {\url{https://huggingface.co/Mattimax/DACMini-IT}},
    year = {2025},
    note = {License: MIT. Se usi questo modello, per favore citane la fonte originale.}
}
Downloads last month
72
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Mattimax/DACMini-IT

Finetuned
Mattimax/DACMini
Quantized
(1)
this model
Quantizations
3 models

Dataset used to train Mattimax/DACMini-IT

Collection including Mattimax/DACMini-IT