Intégration : Vos Premiers Pas ⛵

Il est temps de démarrer

Maintenant que vous avez tous les détails, commençons ! Nous allons réaliser quatre choses :

  1. Créez votre compte Hugging Face si ce n’est pas déjà fait
  2. Inscrivez-vous sur Discord et présentez-vous (ne soyez pas timide 🤗)
  3. Suivez le cours Hugging Face Agents sur le Hub
  4. Faites passer le mot à propos du cours

Étape 1 : Créez votre compte Hugging Face

(Si ce n’est pas déjà fait) créez un compte Hugging Face ici.

Étape 2 : Rejoignez notre communauté Discord

👉🏻 Rejoignez notre serveur Discord ici.

Lorsque vous rejoignez, n’oubliez pas de vous présenter dans #introduce-yourself.

Nous disposons de plusieurs canaux liés aux agents IA :

De plus, vous pouvez consulter :

Si c’est votre première utilisation de Discord, nous avons rédigé un guide Discord 101 pour vous donner les meilleures pratiques. Consultez la section suivante.

Étape 3 : Suivez l’organisation du cours Hugging Face Agents

Restez à jour avec les derniers matériels de cours, mises à jour, et annonces en suivant l’organisation du cours Hugging Face Agents.

👉 Rendez-vous ici et cliquez sur suivre.

Suivre

Étape 4 : Faites passer le mot à propos du cours

Aidez-nous à rendre ce cours plus visible ! Il y a deux façons de nous aider :

  1. Montrez votre soutien en ⭐ aimant le dépôt du cours.
Favoriser le dépôt
  1. Partagez votre parcours d’apprentissage : Faites savoir aux autres que vous suivez ce cours ! Nous avons préparé une illustration que vous pouvez utiliser dans vos publications sur les réseaux sociaux.
Partagez votre parcours d'apprentissage

Vous pouvez télécharger l’image en cliquant 👉 ici

Étape 5 : Exécuter des modèles localement avec Ollama (En cas de limites de crédits)

  1. Installez Ollama

    Suivez les instructions officielles ici.

  2. Téléchargez un modèle localement

    ollama pull qwen2:7b #Consultez le site web d'Ollama pour plus de modèles
  1. Démarrez Ollama en arrière-plan (Dans un terminal)
    ollama serve

Si vous rencontrez l’erreur “listen tcp 127.0.0.1:11434: bind: address already in use”, vous pouvez utiliser la commande sudo lsof -i :11434 pour identifier l’ID du processus (PID) qui utilise actuellement ce port. Si le processus est ollama, il est probable que le script d’installation ci-dessus ait démarré le service ollama, vous pouvez donc ignorer cette commande pour démarrer Ollama.

  1. Utilisez LiteLLMModel au lieu de InferenceClientModel

    Pour utiliser le module LiteLLMModel dans smolagents, vous pouvez exécuter la commande pip pour installer le module.

    pip install 'smolagents[litellm]'
    from smolagents import LiteLLMModel

    model = LiteLLMModel(
        model_id="ollama_chat/qwen2:7b",  # Ou essayez d'autres modèles supportés par Ollama
        api_base="http://127.0.0.1:11434",  # Serveur local Ollama par défaut
        num_ctx=8192,
    )
  1. Pourquoi cela fonctionne-t-il ?

Félicitations ! 🎉 Vous avez terminé le processus d’intégration ! Vous êtes maintenant prêt à commencer à apprendre sur les agents IA. Amusez-vous bien !

Continuez à apprendre, restez formidable 🤗

< > Update on GitHub