--- license: mit language: - de base_model: - Atomic-Ai/AtomicGPT-3 library_name: transformers metrics: - f1 - perplexity - exact_match tags: - conversational - ai - artificialintelligence - ki - machinelearning - deeplearning - neuralnetworks - nlp - computervision - generativeai - gpt2 - r1 - o3 - GPT - Transformers pipeline_tag: text-generation --- # AtomicGPT T1 18042025 ## Beschreibung ## AtomicGPT T1 18042025 **AtomicGPT T1 18042025** ist die neueste Version des ursprünglichen AtomicGPT T1. Dieses Update bringt spürbare Verbesserungen bei der Antwortqualität und im Denkprozess – das Modell reflektiert länger und liefert dadurch durchdachtere Antworten. ### Was ist neu? - **Verdoppelter Token-Speicher**: Statt 1.024 Tokens kann das neue Modell jetzt **2.048 Tokens** verarbeiten – das bedeutet: mehr Kontext, mehr Informationen, bessere Antworten. - **Verbessertes Training**: Das Training dauerte etwa eine Stunde mit insgesamt **10 Epochen**. Der Datensatz wurde außerdem von **800 KB auf 1 MB** erweitert – mehr Wissen für die KI! ### Fun Fact Das **"T"** im Namen steht für **Think** – weil dieses Modell nicht nur antwortet, sondern mitdenkt. Für das Training wurde unser vorheriges Modell **AtomicGPT 3.0** verwendet. Deswegen kann das Modell mit ausreichend Wissen bereitgestellt werden! **AtomicGPT T1** ist ein kleines deutsches KI-Modell, das in der Lage ist, qualitativ hochwertige Antworten in **deutscher Sprache** zu liefern. Das Modell ist noch nicht perfekt, aber in der Vergangenheit wurde es kontinuierlich mit verbessertem Wissen ausgestattet. ## Vergleiche | Aufgaben | L-GPT_1.5 | L-GPT_1.5 mini | AtomicGPT 1.0 | AtomicGPT 2.0 | AtomicGPT 3.0 | AtomicGPT T1 | AtomicGPT T1 18042025 | |--------------|-----------|----------------|----------------|----------------|----------------|----------------|--------------------------| | Q&A | 73.33% | 64.17% | 58.33% | 59.17% | 90% | 100% | **100%** | | **Hard Q&A** | – | – | – | – | 62.50% | 35.00% | **93,33%** | --- ## Verwendung Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird: ```text prompt ``` Wenn `` erkannt wird, sollte die Generierung gestoppt werden. ```python from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM import torch # Modell und Tokenizer laden MODEL_PATH = "Atomic-Ai/AtomicGPT-T1-18042025" tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) model = AutoModelForCausalLM.from_pretrained(MODEL_PATH) print("Spezielle Tokens:", tokenizer.additional_special_tokens) print("Pad Token:", tokenizer.pad_token) print("EOS Token:", tokenizer.eos_token) device = 0 if torch.cuda.is_available() else -1 print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz") chatbot = pipeline( "text-generation", model=model, tokenizer=tokenizer, device=device ) def generate_response(prompt): output = chatbot( prompt, max_new_tokens=2048, eos_token_id=50268, pad_token_id=tokenizer.pad_token_id, do_sample=True, temperature=0.7, top_p=0.9, top_k=50, repetition_penalty=1.1 ) return output[0]['generated_text'] def format_chat(user_input): return f"{user_input}" def extract_assistant_response(full_text): try: parts = full_text.split("") if len(parts) > 1: response_part = parts[1] if "" in response_part: return response_part.split("")[0].strip() else: return response_part.strip() return "Fehler: Antwortformat ungültig" except Exception as e: return f"Fehler bei der Extraktion: {str(e)}" def main(): print("\n=== AtomicGPT Chat ===") print("Chat gestartet! Gib 'exit' ein, um zu beenden.") print("----------------------------------") while True: user_input = input("\nDu: ") if user_input.lower() in ['exit', 'quit', 'ende']: print("Chat beendet. Auf Wiedersehen!") break try: prompt = format_chat(user_input) full_response = generate_response(prompt) assistant_response = extract_assistant_response(full_response) print(f"\nAI Assistent: {assistant_response}") except Exception as e: print(f"\nFehler: {str(e)}") print("Versuche es mit einer anderen Eingabe.") if __name__ == "__main__": main() ``` --- ## Unterstütze uns Tritt unserer Community bei: 👉 **[Discord Server](https://discord.gg/atKjP6Jb)** ---