Text Generation
Transformers
Safetensors
German
gpt2
legal
KI
Machine Learning
NLP
Transformers
Deep Learning
Sprachmodell
GPT-2
Deutsch
Textgenerierung
Open Source
Forschung
Legal
Automatisierung
Modelltraining
Künstliche Intelligenz
AI Assistent
Natural Language Processing
German NLP
GPT-2 Fine-Tuning
Chatbot
Low-End Hardware
Budget Server
Effizientes Modell
Sprachverarbeitung
Smart AI
Textanalyse
KI-Optimierung
AI-Training
Intelligente Antworten
text-generation-inference
metadata
license: mit
datasets:
- Atomic-Ai/AtomicGPT-3.0_Dataset
language:
- de
base_model:
- kkirchheim/german-gpt2-medium
pipeline_tag: text-generation
library_name: transformers
tags:
- legal
- KI
- Machine Learning
- NLP
- Transformers
- Deep Learning
- Sprachmodell
- GPT-2
- Deutsch
- Textgenerierung
- Open Source
- Forschung
- Legal
- Automatisierung
- Modelltraining
- Künstliche Intelligenz
- AI Assistent
- Natural Language Processing
- German NLP
- GPT-2 Fine-Tuning
- Chatbot
- Low-End Hardware
- Budget Server
- Effizientes Modell
- Sprachverarbeitung
- Smart AI
- Textanalyse
- KI-Optimierung
- AI-Training
- Intelligente Antworten
AtomicGPT 3.0
Überblick
AtomicGPT 3.0 ist die neueste und leistungsstärkste Version unserer KI, die das Chatten und die Interaktion auf ein neues Level hebt! Es basiert auf einem erweiterten 50MB großen Datensatz und wurde gezielt optimiert, um intelligentere und kontextbezogene Antworten zu liefern. Die Trainingszeit betrug 10 Stunden, was eine perfekte Balance zwischen Effizienz und Qualität bietet.
Vergleiche
Aufgaben | L-GPT_1 | L-GPT_1.1 | L-GPT_1.5 | L-GPT_1.5 mini | AtomicGPT 1.0< | AtomicGPT 2.0 | AtomicGPT 3.0 |
---|---|---|---|---|---|---|---|
Q&A | 7.5% | 44.17% | 73.33% | 64.17% | 58.33% | 59.17% | 90% |
Warum ist AtomicGPT 3.0 besser als AtomicGPT 2.0?
AtomicGPT 3.0 übertrifft die vorherige Version in mehreren wichtigen Aspekten:
- Erweiterter Datensatz: Mit einem 50MB großen Trainingsdatensatz werden nun noch präzisere und kontextbezogene Antworten generiert.
- Viel bessere Antworten auf Fragen: Das Modell versteht Anfragen besser, kann tiefere Kontexte erfassen und gibt relevantere Antworten.
- Mehr Wissen und Sprachverständnis: Durch das größere Trainingsset und optimierte Algorithmen hat AtomicGPT 3.0 ein höheres Sprachverständnis und kann sich besser an verschiedene Fragestellungen anpassen.
- Gleiche bewährte Architektur: Das Modell basiert weiterhin auf
kkirchheim/german-gpt2-medium
, was das Training auf Deutsch besonders effektiv macht. - Optimiert für Low-End-Hardware & Budget-Server: AtomicGPT 3.0 wurde effizient trainiert, sodass es auch auf leistungsschwachen Rechnern problemlos läuft.
Training
- Stunden von Training: 10 Stunden
- Epochs von Training: 1 Epoch
Installation & Nutzung
Voraussetzungen
Um AtomicGPT 3.0 zu verwenden, benötigst du folgende Abhängigkeiten:
- Python 3.x
transformers
torch
Schnellstart – Codebeispiel
from transformers import pipeline, AutoTokenizer
import torch
# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT-3"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
"text-generation",
model=MODEL_PATH,
tokenizer=MODEL_PATH,
device=0 if torch.cuda.is_available() else -1
)
def generate_response(prompt):
output = chatbot(
prompt,
max_new_tokens=256,
eos_token_id=tokenizer.eos_token_id, # Stoppt am <End>-Token
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
temperature=0.7,
top_p=0.9
)
return output[0]['generated_text']
def format_chat(user_input):
return f"<user>{user_input}<End><AI Assistent>"
def extract_assistant_response(full_text):
parts = full_text.split("<AI Assistent>")
if len(parts) > 1:
return parts[1].split("<End>")[0].strip()
return "Error: Response format invalid"
def main():
print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
print("----------------------------------")
while True:
user_input = input("\nDu: ")
if user_input.lower() == 'exit':
break
prompt = format_chat(user_input)
full_response = generate_response(prompt)
assistant_response = extract_assistant_response(full_response)
print(f"\nAI Assistent: {assistant_response}")
if __name__ == "__main__":
main()
Support & Community
Unterstütze uns und werde Teil unserer Community! Trete unserem Discord-Server bei und diskutiere mit anderen Entwicklern und KI-Enthusiasten. Discord beitreten
Kleiner Leak
Mini