À la fin de cette section, vous vous sentirez à l’aise avec le concept d’agents et leurs diverses applications dans l’IA.
Pour expliquer ce qu’est un Agent, commençons par une analogie.
Voici Alfred. Alfred est un Agent.
Imaginez qu’Alfred reçoive une commande, par exemple : « Alfred, je voudrais un café s’il te plaît. »
Parce qu’Alfred comprend le langage naturel, il saisit rapidement notre demande.
Avant de satisfaire la commande, Alfred se livre au raisonnement et à la planification, déterminant les étapes et les outils dont il a besoin pour :
Une fois qu’il a établi un plan, il doit agir. Pour exécuter son plan, il peut utiliser les outils qu’il connaît.
Dans ce cas, pour préparer un café, il utilise une machine à café. Il active la machine à café pour préparer le café.
Enfin, Alfred nous apporte le café fraîchement préparé.
Et voilà ce qu’est un Agent : un modèle d’IA capable de raisonner, de planifier et d’interagir avec son environnement.
On l’appelle Agent parce qu’il possède de l’agency (la capacité d’agir), autrement dit, il peut interagir avec l’environnement.
Maintenant que vous avez une vue d’ensemble, voici une définition plus précise :
Un Agent est un système qui utilise un modèle d’IA pour interagir avec son environnement afin d’atteindre un objectif défini par l’utilisateur. Il combine le raisonnement, la planification et l’exécution d’actions (souvent via des outils externes) pour accomplir des tâches.
Pensez à l’Agent comme ayant deux parties principales :
C’est là que toute la réflexion se passe. Le modèle d’IA gère le raisonnement et la planification. Il décide quelles Actions entreprendre en fonction de la situation.
Cette partie représente tout ce avec quoi l’Agent est équipé.
La portée des actions possibles dépend de ce avec quoi l’agent a été équipé. Par exemple, comme les humains n’ont pas d’ailes, ils ne peuvent pas effectuer l’Action “voler”, mais ils peuvent exécuter des Actions comme “marcher”, “courir”, “sauter”, “saisir”, etc.
Suivant cette définition, les Agents existent sur un spectre continu d’agency croissante :
| Niveau d’Agency | Description | Comment ça s’appelle | Exemple de modèle |
|---|---|---|---|
| ☆☆☆ | La sortie de l’agent n’a aucun impact sur le flux du programme | Processeur simple | process_llm_output(llm_response) |
| ★☆☆ | La sortie de l’agent détermine le flux de contrôle de base | Routeur | if llm_decision(): path_a() else: path_b() |
| ★★☆ | La sortie de l’agent détermine l’exécution de fonction | Appelant d’outils | run_function(llm_chosen_tool, llm_chosen_args) |
| ★★★ | La sortie de l’agent contrôle l’itération et la continuation du programme | Agent multi-étapes | while llm_should_continue(): execute_next_step() |
| ★★★ | Un flux de travail agentique peut en démarrer un autre | Multi-Agent | if llm_trigger(): execute_agent() |
Tableau tiré du guide conceptuel smolagents.
Le modèle d’IA le plus courant dans les Agents est un LLM (Large Language Model), qui prend du Texte en entrée et produit du Texte en sortie.
Des exemples bien connus sont GPT4 d’OpenAI, LLama de Meta, Gemini de Google, etc. Ces modèles ont été entraînés sur une vaste quantité de texte et sont capables de bien généraliser. Nous en apprendrons plus sur les LLM dans la section suivante.
Les LLM sont des modèles incroyables, mais ils ne peuvent que générer du texte.
Cependant, si vous demandez à une application de chat bien connue comme HuggingChat ou ChatGPT de générer une image, ils le peuvent ! Comment est-ce possible ?
La réponse est que les développeurs de HuggingChat, ChatGPT et d’applications similaires ont implémenté des fonctionnalités supplémentaires (appelées Outils), que le LLM peut utiliser pour créer des images.
Nous en apprendrons plus sur les outils dans la section Outils.
Un Agent peut effectuer n’importe quelle tâche que nous implémentons via des Outils pour compléter des Actions.
Par exemple, si j’écris un Agent pour agir comme mon assistant personnel (comme Siri) sur mon ordinateur, et que je lui demande “d’envoyer un email à mon Manager pour demander de reporter la réunion d’aujourd’hui”, je peux lui donner du code pour envoyer des emails. Ce sera un nouvel Outil que l’Agent peut utiliser chaque fois qu’il doit envoyer un email. Nous pouvons l’écrire en Python :
def send_message_to(recipient, message):
"""Utile pour envoyer un message e-mail à un destinataire"""
...Le LLM, comme nous le verrons, générera du code pour exécuter l’outil quand il en aura besoin, et ainsi accomplir la tâche désirée.
send_message_to("Manager", "Pouvons-nous reporter la réunion d'aujourd'hui ?")La conception des Outils est très importante et a un grand impact sur la qualité de votre Agent. Certaines tâches nécessiteront des Outils très spécifiques à créer, tandis que d’autres peuvent être résolues avec des outils à usage général comme “web_search”.
Notez que les Actions ne sont pas les mêmes que les Outils. Une Action, par exemple, peut impliquer l’utilisation de plusieurs Outils pour être complétée.
Permettre à un agent d’interagir avec son environnement permet une utilisation réelle pour les entreprises et les particuliers.
Les assistants virtuels comme Siri, Alexa ou Google Assistant, fonctionnent comme des agents quand ils interagissent au nom des utilisateurs avec leurs environnements numériques.
Ils prennent les requêtes des utilisateurs, analysent le contexte, récupèrent des informations depuis des bases de données, et fournissent des réponses ou initient des actions (comme définir des rappels, envoyer des messages, ou contrôler des appareils intelligents).
Beaucoup d’entreprises déploient des chatbots comme agents qui interagissent avec les clients en langage naturel.
Ces agents peuvent répondre aux questions, guider les utilisateurs à travers des étapes de dépannage, ouvrir des tickets dans les bases de données internes, ou même compléter des transactions.
Leurs objectifs prédéfinis peuvent inclure l’amélioration de la satisfaction utilisateur, la réduction des temps d’attente, ou l’augmentation des taux de conversion des ventes. En interagissant directement avec les clients, en apprenant des dialogues, et en adaptant leurs réponses au fil du temps, ils démontrent les principes fondamentaux d’un agent en action.
Les agents IA alimentés par des LLM peuvent rendre les Personnages Non-Joueurs (PNJ) plus dynamiques et imprévisibles.
Au lieu de suivre des arbres de comportement rigides, ils peuvent répondre de façon contextuelle, s’adapter aux interactions des joueurs, et générer des dialogues plus nuancés. Cette flexibilité aide à créer des personnages plus réalistes et engageants qui évoluent aux côtés des actions du joueur.
Pour résumer, un Agent est un système qui utilise un Modèle d’IA (typiquement un LLM) comme moteur de raisonnement principal, pour :
Comprendre le langage naturel : Interpréter et répondre aux instructions humaines de manière significative.
Raisonner et planifier : Analyser l’information, prendre des décisions, et concevoir des stratégies pour résoudre des problèmes.
Interagir avec son environnement : Rassembler des informations, entreprendre des actions, et observer les résultats de ces actions.
Maintenant que vous avez une bonne compréhension de ce que sont les Agents, renforçons votre compréhension avec un court quiz non noté. Après ça, nous plongerons dans le “cerveau de l’Agent” : les LLM.
< > Update on GitHub