Ask a Question Open In Colab

Template-uri de chat

Introducere

Template-urile de chat sunt esențiale pentru structurarea interacțiunilor dintre modelele de limbaj și utilizatori. Indiferent dacă construiți un chatbot simplu sau un agent AI complex, înțelegerea modului de a formata corect conversațiile este crucială pentru a obține cele mai bune rezultate de la modelul dumneavoastră. În acest ghid, vom explora ce sunt template-urile de chat, de ce sunt importante și cum să le folosiți eficient.

Template-urile de chat sunt cruciale pentru: - Menținerea unei structuri consecvente de conversație - Asigurarea identificării corecte a rolurilor - Gestionarea contextului pe mai multe tururi - Suportarea funcționalităților avansate precum utilizarea instrumentelor

Tipuri de modele și template-uri

Modele de bază versus modele instruct

Un model de bază este antrenat pe date text brute pentru a prezice următorul token, în timp ce un model instruct este ajustat specific pentru a urma instrucțiuni și a se angaja în conversații. De exemplu, SmolLM2-135M este un model de bază, în timp ce SmolLM2-135M-Instruct este varianta sa ajustată pentru instrucțiuni.

Modelele ajustate pentru instrucțiuni sunt antrenate să urmeze o structură conversațională specifică, făcându-le mai potrivite pentru aplicații de chatbot. Mai mult, modelele instruct pot gestiona interacțiuni complexe, inclusiv utilizarea instrumentelor, intrări multimodale și apeluri de funcții.

Pentru a face ca un model de bază să se comporte ca un model instruct, trebuie să formatăm prompturile într-un mod consecvent pe care modelul să îl înțeleagă. Aici intervin template-urile de chat. ChatML este unul dintre aceste formate de template care structurează conversațiile cu indicatori clari de rol (sistem, utilizator, asistent). Iată un ghid despre ChatML.

Când folosiți un model instruct, verificați întotdeauna că folosiți formatul corect de template de chat. Folosirea unui template greșit poate duce la performanțe slabe ale modelului sau comportament neașteptat. Cea mai ușoară modalitate de a vă asigura de acest lucru este să verificați configurația tokenizer-ului modelului pe Hub. De exemplu, modelul `SmolLM2-135M-Instruct` folosește această configurație.

Formate comune de template

Înainte de a aprofunda implementări specifice, este important să înțelegem cum diferite modele se așteaptă ca conversațiile lor să fie formatate. Să explorăm câteva formate comune de template folosind un exemplu simplu de conversație:

Vom folosi următoarea structură de conversație pentru toate exemplele:

messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Hello!"},
    {"role": "assistant", "content": "Hi! How can I help you today?"},
    {"role": "user", "content": "What's the weather?"},
]

Acesta este template-ul ChatML folosit în modele precum SmolLM2 și Qwen 2:

<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
Hello!<|im_end|>
<|im_start|>assistant
Hi! How can I help you today?<|im_end|>
<|im_start|>user
What's the weather?<|im_start|>assistant

Acesta folosește formatul de template mistral:

<s>[INST] You are a helpful assistant. [/INST]
Hi! How can I help you today?</s>
[INST] Hello! [/INST]

Diferențele cheie între aceste formate includ:

  1. Gestionarea mesajelor de sistem:

  2. Granițele mesajelor:

  3. Token-uri speciale:

Înțelegerea acestor diferențe este cheia pentru a lucra cu modele variate. Să vedem cum biblioteca transformers ne ajută să gestionăm aceste variații automat:

from transformers import AutoTokenizer

# Acestea vor folosi template-uri diferite automat
mistral_tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.1")
qwen_tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat")
smol_tokenizer = AutoTokenizer.from_pretrained("HuggingFaceTB/SmolLM2-135M-Instruct")

messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Hello!"},
]

# Fiecare va formata conform template-ului modelului său
mistral_chat = mistral_tokenizer.apply_chat_template(messages, tokenize=False)
qwen_chat = qwen_tokenizer.apply_chat_template(messages, tokenize=False)
smol_chat = smol_tokenizer.apply_chat_template(messages, tokenize=False)
Faceți clic pentru a vedea exemplele de template

Template ChatML pentru Qwen 2 și SmolLM2:

<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
Hello!<|im_end|>
<|im_start|>assistant
Hi! How can I help you today?<|im_end|>
<|im_start|>user
What's the weather?<|im_start|>assistant

Template Mistral:

<s>[INST] You are a helpful assistant. [/INST]
Hi! How can I help you today?</s>
[INST] Hello! [/INST]

Funcționalități avansate

Template-urile de chat pot gestiona scenarii mai complexe dincolo de simpla interacțiune conversațională, inclusiv:

  1. Utilizarea instrumentelor: Când modelele trebuie să interacționeze cu instrumente externe sau API-uri
  2. Intrări multimodale: Pentru gestionarea imaginilor, audio sau alte tipuri de media
  3. Apeluri de funcții: Pentru executarea structurată de funcții
  4. Context multi-turn: Pentru menținerea istoricului conversației
Când implementați funcționalități avansate: - Testați temeinic cu modelul dumneavoastră specific. Template-urile de viziune și utilizare a instrumentelor sunt deosebit de diverse. - Monitorizați cu atenție utilizarea token-urilor între fiecare funcționalitate și model. - Documentați formatul așteptat pentru fiecare funcționalitate

Pentru conversații multimodale, template-urile de chat pot include referințe la imagini sau imagini codificate în base64:

messages = [
    {
        "role": "system",
        "content": "You are a helpful vision assistant that can analyze images.",
    },
    {
        "role": "user",
        "content": [
            {"type": "text", "text": "What's in this image?"},
            {"type": "image", "image_url": "https://example.com/image.jpg"},
        ],
    },
]

Iată un exemplu de template de chat cu utilizarea instrumentelor:

messages = [
    {
        "role": "system",
        "content": "You are an AI assistant that can use tools. Available tools: calculator, weather_api",
    },
    {"role": "user", "content": "What's 123 * 456 and is it raining in Paris?"},
    {
        "role": "assistant",
        "content": "Let me help you with that.",
        "tool_calls": [
            {
                "tool": "calculator",
                "parameters": {"operation": "multiply", "x": 123, "y": 456},
            },
            {"tool": "weather_api", "parameters": {"city": "Paris", "country": "France"}},
        ],
    },
    {"role": "tool", "tool_name": "calculator", "content": "56088"},
    {
        "role": "tool",
        "tool_name": "weather_api",
        "content": "{'condition': 'rain', 'temperature': 15}",
    },
]

Cele mai bune practici

Ghiduri generale

Când lucrați cu template-uri de chat, urmați aceste practici cheie:

  1. Formatare consecventă: Folosiți întotdeauna același format de template în toată aplicația
  2. Definirea clară a rolurilor: Specificați clar rolurile (sistem, utilizator, asistent, instrument) pentru fiecare mesaj
  3. Gestionarea contextului: Fiți atenți la limitele token-urilor când mențineți istoricul conversației
  4. Gestionarea erorilor: Includeți gestionarea adecvată a erorilor pentru apelurile de instrumente și intrările multimodale
  5. Validare: Validați structura mesajelor înainte de a le trimite la model
Capcane comune de evitat: - Amestecarea diferitelor formate de template în aceeași aplicație - Depășirea limitelor de token-uri cu istoricuri lungi de conversație - Neescaparea corespunzătoare a caracterelor speciale în mesaje - Uitarea validării structurii mesajelor de intrare - Ignorarea cerințelor specifice de template ale modelului

Exercițiu practic

Să exersăm implementarea template-urilor de chat cu un exemplu din lumea reală.

Urmați acești pași pentru a converti setul de date `HuggingFaceTB/smoltalk` în formatul chatml:
  1. Încărcați setul de date:
from datasets import load_dataset

dataset = load_dataset("HuggingFaceTB/smoltalk")
  1. Creați o funcție de procesare:
def convert_to_chatml(example):
    return {
        "messages": [
            {"role": "user", "content": example["input"]},
            {"role": "assistant", "content": example["output"]},
        ]
    }
  1. Aplicați template-ul de chat folosind tokenizer-ul modelului ales

Amintiți-vă să validați că formatul de ieșire se potrivește cu cerințele modelului țintă!

Resurse adiționale

< > Update on GitHub