AtomicGPT 3.0

Überblick

AtomicGPT 3.0 ist die neueste und leistungsstärkste Version unserer KI, die das Chatten und die Interaktion auf ein neues Level hebt! Es basiert auf einem erweiterten 50MB großen Datensatz und wurde gezielt optimiert, um intelligentere und kontextbezogene Antworten zu liefern. Die Trainingszeit betrug 10 Stunden, was eine perfekte Balance zwischen Effizienz und Qualität bietet.

Vergleiche

Aufgaben L-GPT_1 L-GPT_1.1 L-GPT_1.5 L-GPT_1.5 mini AtomicGPT 1.0< AtomicGPT 2.0 AtomicGPT 3.0
Q&A 7.5% 44.17% 73.33% 64.17% 58.33% 59.17% 90%

Warum ist AtomicGPT 3.0 besser als AtomicGPT 2.0?

AtomicGPT 3.0 übertrifft die vorherige Version in mehreren wichtigen Aspekten:

  • Erweiterter Datensatz: Mit einem 50MB großen Trainingsdatensatz werden nun noch präzisere und kontextbezogene Antworten generiert.
  • Viel bessere Antworten auf Fragen: Das Modell versteht Anfragen besser, kann tiefere Kontexte erfassen und gibt relevantere Antworten.
  • Mehr Wissen und Sprachverständnis: Durch das größere Trainingsset und optimierte Algorithmen hat AtomicGPT 3.0 ein höheres Sprachverständnis und kann sich besser an verschiedene Fragestellungen anpassen.
  • Gleiche bewährte Architektur: Das Modell basiert weiterhin auf kkirchheim/german-gpt2-medium, was das Training auf Deutsch besonders effektiv macht.
  • Optimiert für Low-End-Hardware & Budget-Server: AtomicGPT 3.0 wurde effizient trainiert, sodass es auch auf leistungsschwachen Rechnern problemlos läuft.

Training

  • Stunden von Training: 10 Stunden
  • Epochs von Training: 1 Epoch

Installation & Nutzung

Voraussetzungen

Um AtomicGPT 3.0 zu verwenden, benötigst du folgende Abhängigkeiten:

  • Python 3.x
  • transformers
  • torch

Schnellstart – Codebeispiel

from transformers import pipeline, AutoTokenizer
import torch

# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT-3"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
    "text-generation",
    model=MODEL_PATH,
    tokenizer=MODEL_PATH,
    device=0 if torch.cuda.is_available() else -1
)

def generate_response(prompt):
    output = chatbot(
        prompt,
        max_new_tokens=256,
        eos_token_id=tokenizer.eos_token_id,  # Stoppt am <End>-Token
        pad_token_id=tokenizer.pad_token_id,
        do_sample=True,
        temperature=0.7,
        top_p=0.9
    )
    return output[0]['generated_text']

def format_chat(user_input):
    return f"<user>{user_input}<End><AI Assistent>"

def extract_assistant_response(full_text):
    parts = full_text.split("<AI Assistent>")
    if len(parts) > 1:
        return parts[1].split("<End>")[0].strip()
    return "Error: Response format invalid"

def main():
    print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
    print("----------------------------------")

    while True:
        user_input = input("\nDu: ")
        if user_input.lower() == 'exit':
            break

        prompt = format_chat(user_input)
        full_response = generate_response(prompt)
        assistant_response = extract_assistant_response(full_response)
        print(f"\nAI Assistent: {assistant_response}")

if __name__ == "__main__":
    main()

Support & Community

Unterstütze uns und werde Teil unserer Community! Trete unserem Discord-Server bei und diskutiere mit anderen Entwicklern und KI-Enthusiasten. Discord beitreten

Kleiner Leak

Mini

Downloads last month
20
Safetensors
Model size
356M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 2 Ask for provider support

Model tree for Atomic-Ai/AtomicGPT-3

Finetuned
(3)
this model
Finetunes
1 model

Dataset used to train Atomic-Ai/AtomicGPT-3

Collection including Atomic-Ai/AtomicGPT-3