Text Generation
Transformers
Safetensors
German
gpt2
ai
artificialintelligence
ki
machinelearning
deeplearning
neuralnetworks
nlp
computervision
generativeai
chatgpt
openai
aistrategy
aigovernance
ethicalai
aiethics
responsibleai
trustworthyai
aibias
aifairness
explainableai
aiinlaw
ailegislation
legaltech
legalai
aiandlaw
aiinhealthcare
aiinfinance
aiinmarketing
aiinbusiness
aiinindustry
robotics
automation
augmentedintelligence
aiusecases
aiapplications
aiintegration
aiinnovation
ai4good
aiandethics
regulationai
dataprivacy
datasecurity
cybersecurity
gdpr
aiandgdpr
aiandprivacy
aiandregulation
compliance
aiandcompliance
aiandpolitics
algorithmictransparency
aiandhumanrights
aiimpact
aiandjobs
aiandfutureofwork
superintelligence
agi
narrowai
strongai
weakai
aiart
aimeetscreativity
aiinmusic
aiineducation
edtech
aiinretail
aitrends
ai2025
aitechnology
futureofai
aiandsecurity
aiinsociety
aiethicsboard
aiandphilosophy
humanaiinteraction
aiinlawenforcement
aiandjustice
ai4law
ai4legal
aiandcontracts
aiandlitigation
aianddispute
aiandgovernance
ai4policy
aianddemocracy
aianddecisionmaking
aiinpublicsector
aiintransport
aiandautonomousvehicles
aiinspace
aiandclimate
aiandenergy
aiandbiotech
aiinmedicine
aianddiagnostics
text-generation-inference
license: mit | |
language: | |
- de | |
base_model: | |
- Atomic-Ai/AtomicGPT-3 | |
pipeline_tag: text-generation | |
library_name: transformers | |
datasets: | |
- Atomic-Ai/AtomicGPT-Think-1-dataset | |
metrics: | |
- f1 | |
- perplexity | |
- exact_match | |
tags: | |
- ai | |
- artificialintelligence | |
- ki | |
- machinelearning | |
- deeplearning | |
- neuralnetworks | |
- nlp | |
- computervision | |
- generativeai | |
- chatgpt | |
- openai | |
- aistrategy | |
- aigovernance | |
- ethicalai | |
- aiethics | |
- responsibleai | |
- trustworthyai | |
- aibias | |
- aifairness | |
- explainableai | |
- aiinlaw | |
- ailegislation | |
- legaltech | |
- legalai | |
- aiandlaw | |
- aiinhealthcare | |
- aiinfinance | |
- aiinmarketing | |
- aiinbusiness | |
- aiinindustry | |
- robotics | |
- automation | |
- augmentedintelligence | |
- aiusecases | |
- aiapplications | |
- aiintegration | |
- aiinnovation | |
- ai4good | |
- aiandethics | |
- regulationai | |
- dataprivacy | |
- datasecurity | |
- cybersecurity | |
- gdpr | |
- aiandgdpr | |
- aiandprivacy | |
- aiandregulation | |
- compliance | |
- aiandcompliance | |
- aiandpolitics | |
- algorithmictransparency | |
- aiandhumanrights | |
- aiimpact | |
- aiandjobs | |
- aiandfutureofwork | |
- superintelligence | |
- agi | |
- narrowai | |
- strongai | |
- weakai | |
- aiart | |
- aimeetscreativity | |
- aiinmusic | |
- aiineducation | |
- edtech | |
- aiinretail | |
- aitrends | |
- ai2025 | |
- aitechnology | |
- futureofai | |
- aiandsecurity | |
- aiinsociety | |
- aiethicsboard | |
- aiandphilosophy | |
- humanaiinteraction | |
- aiinlawenforcement | |
- aiandjustice | |
- ai4law | |
- ai4legal | |
- aiandcontracts | |
- aiandlitigation | |
- aianddispute | |
- aiandgovernance | |
- ai4policy | |
- aianddemocracy | |
- aianddecisionmaking | |
- aiinpublicsector | |
- aiintransport | |
- aiandautonomousvehicles | |
- aiinspace | |
- aiandclimate | |
- aiandenergy | |
- aiandbiotech | |
- aiinmedicine | |
- aianddiagnostics | |
# AtomicGPT T1 4k | |
## Beschreibung | |
Das **AtomicGPT T1 4k** ist unser erstes *Denken-Modell*! Der Denkprozess befindet sich zwischen `<think>` und `</think>`. | |
Das ist ein **4096 Tokens** Modell! | |
Der Vorteil ist, dass das KI-Modell bessere Antworten liefern kann, weil es sich vorher *Gedanken macht*! <br> | |
Das "T" im Name steht für **Think**! | |
Das Training hat **40 Minuten** gedauert mit **10 Epochen**. | |
Das Dataset war nur **800KB** groß und hat trotzdem erstaunlich gute Ergebnisse geliefert! | |
Für das Training wurde unser vorheriges Modell **AtomicGPT 3.0** verwendet. | |
Deswegen kann das Modell mit ausreichend Wissen bereitgestellt werden! | |
**AtomicGPT T1** ist ein kleines deutsches KI-Modell, das in der Lage ist, qualitativ hochwertige Antworten in **deutscher Sprache** zu liefern. | |
Das Modell ist noch nicht perfekt, aber in der Vergangenheit wurde es kontinuierlich mit verbessertem Wissen ausgestattet. | |
## Vergleiche | |
| Aufgaben | L-GPT_1 | L-GPT_1.1 | L-GPT_1.5 | L-GPT_1.5 mini | AtomicGPT 1.0 | AtomicGPT 2.0 | AtomicGPT 3.0 | AtomicGPT T1 | | |
|----------|---------|-----------|-----------|----------------|----------------|----------------|----------------|----------------| | |
| Q&A | 7.5% | 44.17% | 73.33% | 64.17% | 58.33% | 59.17% | 90% | **100%** | | |
--- | |
## Verwendung | |
Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird: | |
```text | |
<user>prompt<End><AI Assistent> | |
``` | |
Wenn `<End>` erkannt wird, sollte die Generierung gestoppt werden. | |
```python | |
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM | |
import torch | |
# Modell und Tokenizer laden | |
MODEL_PATH = "Atomic-Ai/AtomicGPT-T1-4k" | |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) | |
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH) | |
print("Spezielle Tokens:", tokenizer.additional_special_tokens) | |
print("Pad Token:", tokenizer.pad_token) | |
print("EOS Token:", tokenizer.eos_token) | |
device = 0 if torch.cuda.is_available() else -1 | |
print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz") | |
chatbot = pipeline( | |
"text-generation", | |
model=model, | |
tokenizer=tokenizer, | |
device=device | |
) | |
def generate_response(prompt): | |
output = chatbot( | |
prompt, | |
max_new_tokens=1024, | |
eos_token_id=50268, | |
pad_token_id=tokenizer.pad_token_id, | |
do_sample=True, | |
temperature=0.7, | |
top_p=0.9, | |
top_k=50, | |
repetition_penalty=1.1 | |
) | |
return output[0]['generated_text'] | |
def format_chat(user_input): | |
return f"<user>{user_input}<End><AI Assistent>" | |
def extract_assistant_response(full_text): | |
try: | |
parts = full_text.split("<AI Assistent>") | |
if len(parts) > 1: | |
response_part = parts[1] | |
if "<End>" in response_part: | |
return response_part.split("<End>")[0].strip() | |
else: | |
return response_part.strip() | |
return "Fehler: Antwortformat ungültig" | |
except Exception as e: | |
return f"Fehler bei der Extraktion: {str(e)}" | |
def main(): | |
print("\n=== AtomicGPT Chat ===") | |
print("Chat gestartet! Gib 'exit' ein, um zu beenden.") | |
print("----------------------------------") | |
while True: | |
user_input = input("\nDu: ") | |
if user_input.lower() in ['exit', 'quit', 'ende']: | |
print("Chat beendet. Auf Wiedersehen!") | |
break | |
try: | |
prompt = format_chat(user_input) | |
full_response = generate_response(prompt) | |
assistant_response = extract_assistant_response(full_response) | |
print(f"\nAI Assistent: {assistant_response}") | |
except Exception as e: | |
print(f"\nFehler: {str(e)}") | |
print("Versuche es mit einer anderen Eingabe.") | |
if __name__ == "__main__": | |
main() | |
``` | |
--- | |
## Unterstütze uns | |
Tritt unserer Community bei: | |
👉 **[Discord Server](https://discord.gg/atKjP6Jb)** | |
--- |