Pour résoudre une tâche, l’agent raisonne et planifie.
Cela exploite la capacité du Large Language Model (LLM) de l’agent à analyser l’information lorsqu’elle est présentée dans son prompt.
Pensez-y comme le dialogue interne de l’agent, où il considère la tâche à accomplir et élabore sa stratégie.
La capacité à raisonner permet à l’agent d’analyser les observations actuelles et de décider quelles seront les prochaines actions.
Grâce à ce processus, l’agent peut décomposer des problèmes complexes en étapes plus petites et gérables, réfléchir sur des expériences passées et ajuster continuellement ses plans en fonction des nouvelles informations.
Voici quelques exemples de raisonnements courants :
| Type de Raisonnement | Exemple |
|---|---|
| Planification | “Je dois décomposer cette tâche en trois étapes : 1) recueillir les données, 2) analyser les tendances, 3) générer le rapport” |
| Analyse | “D’après le message d’erreur, le problème semble provenir des paramètres de connexion à la base de données” |
| Prise de Décision | “Étant donné les contraintes budgétaires de l’utilisateur, je devrais recommander l’option de milieu de gamme” |
| Résolution de Problème | “Pour optimiser ce code, je devrais d’abord le profiler pour identifier les goulets d’étranglement” |
| Intégration de la Mémoire | “L’utilisateur avait mentionné sa préférence pour Python plus tôt, donc je fournirai des exemples en Python” |
| Auto-Réflexion | “Ma dernière approche n’a pas bien fonctionné, je devrais essayer une stratégie différente” |
| Définition d’Objectifs | “Pour accomplir cette tâche, je dois d’abord établir les critères d’acceptation” |
| Priorisation | “La vulnérabilité de sécurité doit être traitée avant d’ajouter de nouvelles fonctionnalités” |
Remarque : Dans le cas des LLMs ajustés pour l’appel de fonction, le processus de raisonnement est optionnel.
Si vous n’êtes pas familier avec l’appel de fonction, plus de détails seront donnés dans la section Actions.
Une méthode clé est l’approche Re-Act, qui est la concaténation de “Raisonnement” (Reasoning) et “Action” (Act).
Re-Act est une technique de prompting simple qui ajoute “Réfléchissons étape par étape” avant de laisser le LLM décoder les tokens suivants.
En effet, inviter le modèle à réfléchir “étape par étape” encourage le processus de décodage vers des tokens qui génèrent un plan, plutôt qu’une solution finale, puisque le modèle est incité à décomposer le problème en sous-tâches.
Cela permet au modèle d’examiner les sous-étapes plus en détail, ce qui conduit généralement à moins d’erreurs que d’essayer de générer directement la solution finale.
Ces modèles ont été entraînés pour inclure systématiquement des sections spécifiques de réflexion (encadrées par les tokens spéciaux <think> et </think>). Il ne s’agit pas simplement d’une technique d’invite comme Re-Act, mais d’une méthode d’entraînement où le modèle apprend à générer ces sections après avoir analysé des milliers d’exemples montrant ce que nous attendons de lui.
Maintenant que nous comprenons mieux le processus de raisonnement, approfondissons la seconde partie du processus : l’Action.
< > Update on GitHub