AtomicThink 1.0 mini – Das smarte deutsche KI-Modell für höchste Ansprüche
Warum AtomicThink 1.0 mini?
AtomicThink 1.0 mini ist die ideale Wahl für alle, die ein leistungsstarkes, kompaktes und deutschsprachiges KI-Modell suchen.
Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu 1024 Tokens pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
Vorteile auf einen Blick:
- Hervorragende Antwortqualität: Präzise, durchdachte und kontextstarke Antworten.
- Großer Wissensumfang: Dank erweitertem Datensatz vielseitig einsetzbar.
- Schnell & effizient: Optimiert für schnelle Inferenz auf CPU und GPU.
- Einfach zu integrieren: Kompatibel mit HuggingFace Transformers.
- Made in Germany: Fokus auf deutsche Sprache und Anforderungen.
Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink 1.0 mini jetzt herunter und überzeuge dich selbst!
Beschreibung
AtomicThink 1.0 mini ist die nächste Evolutionsstufe nach AtomicGPT T1.5 mini.
Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
Was ist neu?
Größerer Datensatz:
Das Training erfolgte mit einem Datensatz von über 10 MB – ein deutlicher Sprung im Vergleich zu vorherigen Versionen.
Dadurch verfügt das Modell über ein deutlich erweitertes Wissen und kann vielseitigere Anfragen beantworten.Verbessertes Training:
Das Training dauerte etwa eine Stunde mit insgesamt 10 Epochen.
Fun Fact
Das "Think" im Namen steht für Denken – weil dieses Modell nicht nur antwortet, sondern mitdenkt.
Für das Training wurde das Vorgängermodell AtomicGPT-T1 (18042025) als Basis verwendet.
So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
AtomicThink 1.0 mini ist ein kompaktes deutsches KI-Modell, das hochwertige Antworten in deutscher Sprache liefert.
Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.
Vergleiche
Nicht Verfügbar
Verwendung
Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird:
<user>prompt<End><AI Assistent>
Wenn <End>
erkannt wird, sollte die Generierung gestoppt werden.
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
import torch
# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicThink-1.0-mini"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)
print("Spezielle Tokens:", tokenizer.additional_special_tokens)
print("Pad Token:", tokenizer.pad_token)
print("EOS Token:", tokenizer.eos_token)
device = 0 if torch.cuda.is_available() else -1
print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz")
chatbot = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
device=device
)
def generate_response(prompt):
output = chatbot(
prompt,
max_new_tokens=2048,
eos_token_id=50268,
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
temperature=0.7,
top_p=0.9,
top_k=50,
repetition_penalty=1.1
)
return output[0]['generated_text']
def format_chat(user_input):
return f"<user>{user_input}<End><AI Assistent>"
def extract_assistant_response(full_text):
try:
parts = full_text.split("<AI Assistent>")
if len(parts) > 1:
response_part = parts[1]
if "<End>" in response_part:
return response_part.split("<End>")[0].strip()
else:
return response_part.strip()
return "Fehler: Antwortformat ungültig"
except Exception as e:
return f"Fehler bei der Extraktion: {str(e)}"
def main():
print("\n=== AtomicGPT Chat ===")
print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
print("----------------------------------")
while True:
user_input = input("\nDu: ")
if user_input.lower() in ['exit', 'quit', 'ende']:
print("Chat beendet. Auf Wiedersehen!")
break
try:
prompt = format_chat(user_input)
full_response = generate_response(prompt)
assistant_response = extract_assistant_response(full_response)
print(f"\nAI Assistent: {assistant_response}")
except Exception as e:
print(f"\nFehler: {str(e)}")
print("Versuche es mit einer anderen Eingabe.")
if __name__ == "__main__":
main()
Unterstütze uns
Tritt unserer Community bei:
👉 Discord Server
- Downloads last month
- 27
Model tree for Atomic-Ai/AtomicThink-1.0-mini
Base model
kkirchheim/german-gpt2-medium