--- license: mit language: - de base_model: - Atomic-Ai/AtomicGPT-3 library_name: transformers datasets: - Atomic-Ai/AtomicGPT-Think-1-dataset metrics: - f1 - perplexity - exact_match tags: - conversational - ai - artificialintelligence - ki - machinelearning - deeplearning - neuralnetworks - nlp - computervision - generativeai - gpt2 - r1 - o3 - GPT - Transformers pipeline_tag: text-generation new_version: Atomic-Ai/AtomicGPT-T1.5-mini --- # AtomicGPT T1 ## Beschreibung Das **AtomicGPT T1** ist unser erstes *Denken-Modell*! Der Denkprozess befindet sich zwischen `` und ``. Der Vorteil ist, dass das KI-Modell bessere Antworten liefern kann, weil es sich vorher *Gedanken macht*!
Das "T" im Name steht für **Think**! Das Training hat **40 Minuten** gedauert mit **10 Epochen**. Das Dataset war nur **800KB** groß und hat trotzdem erstaunlich gute Ergebnisse geliefert! Für das Training wurde unser vorheriges Modell **AtomicGPT 3.0** verwendet. Deswegen kann das Modell mit ausreichend Wissen bereitgestellt werden! **AtomicGPT T1** ist ein kleines deutsches KI-Modell, das in der Lage ist, qualitativ hochwertige Antworten in **deutscher Sprache** zu liefern. Das Modell ist noch nicht perfekt, aber in der Vergangenheit wurde es kontinuierlich mit verbessertem Wissen ausgestattet. ## Vergleiche | Aufgaben | L-GPT_1 | L-GPT_1.1 | L-GPT_1.5 | L-GPT_1.5 mini | AtomicGPT 1.0 | AtomicGPT 2.0 | AtomicGPT 3.0 | AtomicGPT T1 | |----------|---------|-----------|-----------|----------------|----------------|----------------|----------------|----------------| | Q&A | 7.5% | 44.17% | 73.33% | 64.17% | 58.33% | 59.17% | 90% | **100%** | --- ## Verwendung Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird: ```text prompt ``` Wenn `` erkannt wird, sollte die Generierung gestoppt werden. ```python from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM import torch # Modell und Tokenizer laden MODEL_PATH = "Atomic-Ai/AtomicGPT-T1" tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) model = AutoModelForCausalLM.from_pretrained(MODEL_PATH) print("Spezielle Tokens:", tokenizer.additional_special_tokens) print("Pad Token:", tokenizer.pad_token) print("EOS Token:", tokenizer.eos_token) device = 0 if torch.cuda.is_available() else -1 print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz") chatbot = pipeline( "text-generation", model=model, tokenizer=tokenizer, device=device ) def generate_response(prompt): output = chatbot( prompt, max_new_tokens=1024, eos_token_id=50268, pad_token_id=tokenizer.pad_token_id, do_sample=True, temperature=0.7, top_p=0.9, top_k=50, repetition_penalty=1.1 ) return output[0]['generated_text'] def format_chat(user_input): return f"{user_input}" def extract_assistant_response(full_text): try: parts = full_text.split("") if len(parts) > 1: response_part = parts[1] if "" in response_part: return response_part.split("")[0].strip() else: return response_part.strip() return "Fehler: Antwortformat ungültig" except Exception as e: return f"Fehler bei der Extraktion: {str(e)}" def main(): print("\n=== AtomicGPT Chat ===") print("Chat gestartet! Gib 'exit' ein, um zu beenden.") print("----------------------------------") while True: user_input = input("\nDu: ") if user_input.lower() in ['exit', 'quit', 'ende']: print("Chat beendet. Auf Wiedersehen!") break try: prompt = format_chat(user_input) full_response = generate_response(prompt) assistant_response = extract_assistant_response(full_response) print(f"\nAI Assistent: {assistant_response}") except Exception as e: print(f"\nFehler: {str(e)}") print("Versuche es mit einer anderen Eingabe.") if __name__ == "__main__": main() ``` --- ## Unterstütze uns Tritt unserer Community bei: 👉 **[Discord Server](https://discord.gg/atKjP6Jb)** ---