Qu’est-ce qu’un Agent ?

Planification de l'Unité 1

À la fin de cette section, vous vous sentirez à l’aise avec le concept d’agents et leurs diverses applications dans l’IA.

Pour expliquer ce qu’est un Agent, commençons par une analogie.

La Vue d’Ensemble : Alfred l’Agent

Voici Alfred. Alfred est un Agent.

Voici Alfred

Imaginez qu’Alfred reçoive une commande, par exemple : « Alfred, je voudrais un café s’il te plaît. »

Je voudrais un café

Parce qu’Alfred comprend le langage naturel, il saisit rapidement notre demande.

Avant de satisfaire la commande, Alfred se livre au raisonnement et à la planification, déterminant les étapes et les outils dont il a besoin pour :

  1. Aller à la cuisine
  2. Utiliser la machine à café
  3. Préparer le café
  4. Ramener le café
Raisonnement et planification

Une fois qu’il a établi un plan, il doit agir. Pour exécuter son plan, il peut utiliser les outils qu’il connaît.

Dans ce cas, pour préparer un café, il utilise une machine à café. Il active la machine à café pour préparer le café.

Préparer le café

Enfin, Alfred nous apporte le café fraîchement préparé.

Apporter le café

Et voilà ce qu’est un Agent : un modèle d’IA capable de raisonner, de planifier et d’interagir avec son environnement.

On l’appelle Agent parce qu’il possède de l’agency (la capacité d’agir), autrement dit, il peut interagir avec l’environnement.

Vue d'ensemble du processus

Soyons plus formels

Maintenant que vous avez une vue d’ensemble, voici une définition plus précise :

Un Agent est un système qui utilise un modèle d’IA pour interagir avec son environnement afin d’atteindre un objectif défini par l’utilisateur. Il combine le raisonnement, la planification et l’exécution d’actions (souvent via des outils externes) pour accomplir des tâches.

Pensez à l’Agent comme ayant deux parties principales :

  1. Le Cerveau (Modèle d’IA)

C’est là que toute la réflexion se passe. Le modèle d’IA gère le raisonnement et la planification. Il décide quelles Actions entreprendre en fonction de la situation.

  1. Le Corps (Capacités et Outils)

Cette partie représente tout ce avec quoi l’Agent est équipé.

La portée des actions possibles dépend de ce avec quoi l’agent a été équipé. Par exemple, comme les humains n’ont pas d’ailes, ils ne peuvent pas effectuer l’Action “voler”, mais ils peuvent exécuter des Actions comme “marcher”, “courir”, “sauter”, “saisir”, etc.

Le spectre de l’« Agency »

Suivant cette définition, les Agents existent sur un spectre continu d’agency croissante :

Niveau d’Agency Description Comment ça s’appelle Exemple de modèle
☆☆☆ La sortie de l’agent n’a aucun impact sur le flux du programme Processeur simple process_llm_output(llm_response)
★☆☆ La sortie de l’agent détermine le flux de contrôle de base Routeur if llm_decision(): path_a() else: path_b()
★★☆ La sortie de l’agent détermine l’exécution de fonction Appelant d’outils run_function(llm_chosen_tool, llm_chosen_args)
★★★ La sortie de l’agent contrôle l’itération et la continuation du programme Agent multi-étapes while llm_should_continue(): execute_next_step()
★★★ Un flux de travail agentique peut en démarrer un autre Multi-Agent if llm_trigger(): execute_agent()

Tableau tiré du guide conceptuel smolagents.

Quel type de modèles d’IA utilisons-nous pour les Agents ?

Le modèle d’IA le plus courant dans les Agents est un LLM (Large Language Model), qui prend du Texte en entrée et produit du Texte en sortie.

Des exemples bien connus sont GPT4 d’OpenAI, LLama de Meta, Gemini de Google, etc. Ces modèles ont été entraînés sur une vaste quantité de texte et sont capables de bien généraliser. Nous en apprendrons plus sur les LLM dans la section suivante.

Il est également possible d'utiliser des modèles qui acceptent d'autres entrées comme modèle central de l'Agent. Par exemple, un Vision Language Model (VLM), qui est comme un LLM mais comprend aussi les images en entrée. Nous nous concentrerons sur les LLM pour l'instant et discuterons d'autres options plus tard.

Comment une IA peut-elle agir sur son environnement ?

Les LLM sont des modèles incroyables, mais ils ne peuvent que générer du texte.

Cependant, si vous demandez à une application de chat bien connue comme HuggingChat ou ChatGPT de générer une image, ils le peuvent ! Comment est-ce possible ?

La réponse est que les développeurs de HuggingChat, ChatGPT et d’applications similaires ont implémenté des fonctionnalités supplémentaires (appelées Outils), que le LLM peut utiliser pour créer des images.

Tour Eiffel en brocolis
Le modèle a utilisé un Outil de Génération d'Images pour générer cette image.

Nous en apprendrons plus sur les outils dans la section Outils.

Quel type de tâches un Agent peut-il accomplir ?

Un Agent peut effectuer n’importe quelle tâche que nous implémentons via des Outils pour compléter des Actions.

Par exemple, si j’écris un Agent pour agir comme mon assistant personnel (comme Siri) sur mon ordinateur, et que je lui demande “d’envoyer un email à mon Manager pour demander de reporter la réunion d’aujourd’hui”, je peux lui donner du code pour envoyer des emails. Ce sera un nouvel Outil que l’Agent peut utiliser chaque fois qu’il doit envoyer un email. Nous pouvons l’écrire en Python :

def send_message_to(recipient, message):
    """Utile pour envoyer un message e-mail à un destinataire"""
    ...

Le LLM, comme nous le verrons, générera du code pour exécuter l’outil quand il en aura besoin, et ainsi accomplir la tâche désirée.

send_message_to("Manager", "Pouvons-nous reporter la réunion d'aujourd'hui ?")

La conception des Outils est très importante et a un grand impact sur la qualité de votre Agent. Certaines tâches nécessiteront des Outils très spécifiques à créer, tandis que d’autres peuvent être résolues avec des outils à usage général comme “web_search”.

Notez que les Actions ne sont pas les mêmes que les Outils. Une Action, par exemple, peut impliquer l’utilisation de plusieurs Outils pour être complétée.

Permettre à un agent d’interagir avec son environnement permet une utilisation réelle pour les entreprises et les particuliers.

Exemple 1 : Assistants Virtuels Personnels

Les assistants virtuels comme Siri, Alexa ou Google Assistant, fonctionnent comme des agents quand ils interagissent au nom des utilisateurs avec leurs environnements numériques.

Ils prennent les requêtes des utilisateurs, analysent le contexte, récupèrent des informations depuis des bases de données, et fournissent des réponses ou initient des actions (comme définir des rappels, envoyer des messages, ou contrôler des appareils intelligents).

Exemple 2 : Chatbots de Service Client

Beaucoup d’entreprises déploient des chatbots comme agents qui interagissent avec les clients en langage naturel.

Ces agents peuvent répondre aux questions, guider les utilisateurs à travers des étapes de dépannage, ouvrir des tickets dans les bases de données internes, ou même compléter des transactions.

Leurs objectifs prédéfinis peuvent inclure l’amélioration de la satisfaction utilisateur, la réduction des temps d’attente, ou l’augmentation des taux de conversion des ventes. En interagissant directement avec les clients, en apprenant des dialogues, et en adaptant leurs réponses au fil du temps, ils démontrent les principes fondamentaux d’un agent en action.

Exemple 3 : Personnage Non-Joueur IA dans un jeu vidéo

Les agents IA alimentés par des LLM peuvent rendre les Personnages Non-Joueurs (PNJ) plus dynamiques et imprévisibles.

Au lieu de suivre des arbres de comportement rigides, ils peuvent répondre de façon contextuelle, s’adapter aux interactions des joueurs, et générer des dialogues plus nuancés. Cette flexibilité aide à créer des personnages plus réalistes et engageants qui évoluent aux côtés des actions du joueur.


Pour résumer, un Agent est un système qui utilise un Modèle d’IA (typiquement un LLM) comme moteur de raisonnement principal, pour :

Maintenant que vous avez une bonne compréhension de ce que sont les Agents, renforçons votre compréhension avec un court quiz non noté. Après ça, nous plongerons dans le “cerveau de l’Agent” : les LLM.

< > Update on GitHub