Maintenant que vous avez tous les détails, commençons ! Nous allons réaliser quatre choses :
(Si ce n’est pas déjà fait) créez un compte Hugging Face ici.
👉🏻 Rejoignez notre serveur Discord ici.
Lorsque vous rejoignez, n’oubliez pas de vous présenter dans #introduce-yourself.
Nous disposons de plusieurs canaux liés aux agents IA :
agents-course-announcements : pour les dernières informations du cours.🎓-agents-course-general : pour les discussions générales et les bavardages.agents-course-questions : pour poser des questions et aider vos camarades.agents-course-showcase : pour présenter vos meilleurs agents.De plus, vous pouvez consulter :
smolagents : pour les discussions et l’assistance concernant la bibliothèque.Si c’est votre première utilisation de Discord, nous avons rédigé un guide Discord 101 pour vous donner les meilleures pratiques. Consultez la section suivante.
Restez à jour avec les derniers matériels de cours, mises à jour, et annonces en suivant l’organisation du cours Hugging Face Agents.
👉 Rendez-vous ici et cliquez sur suivre.
Aidez-nous à rendre ce cours plus visible ! Il y a deux façons de nous aider :
Vous pouvez télécharger l’image en cliquant 👉 ici
Installez Ollama
Suivez les instructions officielles ici.
Téléchargez un modèle localement
ollama pull qwen2:7b #Consultez le site web d'Ollama pour plus de modèlesollama serve
Si vous rencontrez l’erreur “listen tcp 127.0.0.1:11434: bind: address already in use”, vous pouvez utiliser la commande sudo lsof -i :11434 pour identifier l’ID du processus (PID) qui utilise actuellement ce port. Si le processus est ollama, il est probable que le script d’installation ci-dessus ait démarré le service ollama, vous pouvez donc ignorer cette commande pour démarrer Ollama.
Utilisez LiteLLMModel au lieu de InferenceClientModel
Pour utiliser le module LiteLLMModel dans smolagents, vous pouvez exécuter la commande pip pour installer le module.
pip install 'smolagents[litellm]' from smolagents import LiteLLMModel
model = LiteLLMModel(
model_id="ollama_chat/qwen2:7b", # Ou essayez d'autres modèles supportés par Ollama
api_base="http://127.0.0.1:11434", # Serveur local Ollama par défaut
num_ctx=8192,
)http://localhost:11434.LiteLLMModel est conçu pour communiquer avec tout modèle qui supporte le format d’API OpenAI chat/completion.InferenceClientModel par LiteLLMModel sans autres changements de code nécessaires. C’est une solution transparente et prête à l’emploi.Félicitations ! 🎉 Vous avez terminé le processus d’intégration ! Vous êtes maintenant prêt à commencer à apprendre sur les agents IA. Amusez-vous bien !
Continuez à apprendre, restez formidable 🤗
< > Update on GitHub