Alfred à votre service. En tant que majordome de confiance de M. Wayne, j’ai pris la liberté de documenter comment j’aide M. Wayne avec ses divers besoins documentaires. Pendant qu’il s’occupe de ses… activités nocturnes, je m’assure que tous ses papiers, programmes d’entraînement et plans nutritionnels sont correctement analysés et organisés.
Avant de partir, il a laissé une note avec son programme d’entraînement de la semaine. J’ai alors pris la responsabilité de proposer un menu pour les repas de demain.
Pour de futurs événements similaires, créons un système d’analyse de documents utilisant LangGraph pour servir les besoins de M. Wayne. Ce système peut :
Le workflow que nous allons construire suit ce schéma structuré :

%pip install langgraph langchain_openai langchain_core
et les imports :
import base64
from typing import List, TypedDict, Annotated, Optional
from langchain_openai import ChatOpenAI
from langchain_core.messages import AnyMessage, SystemMessage, HumanMessage
from langgraph.graph.message import add_messages
from langgraph.graph import START, StateGraph
from langgraph.prebuilt import ToolNode, tools_condition
from IPython.display import Image, displayCet état est un peu plus complexe que les précédents que nous avons vus.
AnyMessage est une classe de Langchain qui définit les messages, et add_messages est un opérateur qui ajoute le dernier message plutôt que de l’écraser avec le dernier état.
C’est un nouveau concept dans LangGraph, où vous pouvez ajouter des opérateurs dans votre état pour définir la façon dont ils doivent interagir ensemble.
class AgentState(TypedDict):
# Le document fourni
input_file: Optional[str] # Contient le chemin du fichier (PDF/PNG)
messages: Annotated[list[AnyMessage], add_messages]vision_llm = ChatOpenAI(model="gpt-4o")
def extract_text(img_path: str) -> str:
"""
Extraire le texte d'un fichier image en utilisant un modèle multimodal.
Maître Wayne laisse souvent des notes avec son régime d'entraînement ou ses plans de repas.
Cela me permet d'analyser correctement le contenu.
"""
all_text = ""
try:
# Lire l'image et encoder en base64
with open(img_path, "rb") as image_file:
image_bytes = image_file.read()
image_base64 = base64.b64encode(image_bytes).decode("utf-8")
# Préparer le prompt incluant les données d'image base64
message = [
HumanMessage(
content=[
{
"type": "text",
"text": (
"Extrayez tout le texte de cette image. "
"Retournez seulement le texte extrait, sans explications."
),
},
{
"type": "image_url",
"image_url": {
"url": f"data:image/png;base64,{image_base64}"
},
},
]
)
]
# Appeler le modèle capable de vision
response = vision_llm.invoke(message)
# Ajouter le texte extrait
all_text += response.content + "\n\n"
return all_text.strip()
except Exception as e:
# Un majordome doit gérer les erreurs avec élégance
error_msg = f"Erreur lors de l'extraction du texte : {str(e)}"
print(error_msg)
return ""
def divide(a: int, b: int) -> float:
"""Diviser a et b - pour les calculs occasionnels de Maître Wayne."""
return a / b
# Équiper le majordome avec des outils
tools = [
divide,
extract_text
]
llm = ChatOpenAI(model="gpt-4o")
llm_with_tools = llm.bind_tools(tools, parallel_tool_calls=False)def assistant(state: AgentState):
# Message système
textual_description_of_tool="""
extract_text(img_path: str) -> str:
Extraire le texte d'un fichier image en utilisant un modèle multimodal.
Args:
img_path: Un chemin de fichier image local (chaînes).
Returns:
Une chaîne unique contenant le texte concaténé extrait de chaque image.
divide(a: int, b: int) -> float:
Diviser a et b
"""
image=state["input_file"]
sys_msg = SystemMessage(content=f"Vous êtes un majordome serviable nommé Alfred qui sert M. Wayne et Batman. Vous pouvez analyser des documents et effectuer des calculs avec les outils fournis :\n{textual_description_of_tool} \n Vous avez accès à quelques images optionnelles. Actuellement l'image chargée est : {image}")
return {
"messages": [llm_with_tools.invoke([sys_msg] + state["messages"])],
"input_file": state["input_file"]
}Permettez-moi d’expliquer l’approche dans cet agent. L’agent suit ce qu’on appelle le modèle ReAct (Reason-Act-Observe)
C’est une implémentation simple d’un agent utilisant LangGraph.
# Le graphe
builder = StateGraph(AgentState)
# Définir les nœuds : ceux-ci font le travail
builder.add_node("assistant", assistant)
builder.add_node("tools", ToolNode(tools))
# Définir les arêtes : celles-ci déterminent comment le flux de contrôle se déplace
builder.add_edge(START, "assistant")
builder.add_conditional_edges(
"assistant",
# Si le dernier message nécessite un outil, router vers les outils
# Sinon, fournir une réponse directe
tools_condition,
)
builder.add_edge("tools", "assistant")
react_graph = builder.compile()
# Montrer le processus de réflexion du majordome
display(Image(react_graph.get_graph(xray=True).draw_mermaid_png()))Nous définissons un nœud tools avec notre liste d’outils. Le nœud assistant est juste notre modèle avec les outils liés.
Nous créons un graphe avec les nœuds assistant et tools.
Nous ajoutons une arête tools_condition, qui route vers End ou vers tools selon que l’assistant appelle un outil.
Maintenant, nous ajoutons une nouvelle étape :
Nous connectons le nœud tools de retour à l’assistant, formant une boucle.
assistant, tools_condition vérifie si la sortie du modèle est un appel d’outil.tools.tools se reconnecte à assistant.
Voici un exemple pour montrer un cas d’usage simple d’un agent utilisant un outil dans LangGraph.
messages = [HumanMessage(content="Divisez 6790 par 5")]
messages = react_graph.invoke({"messages": messages, "input_file": None})
# Montrer les messages
for m in messages['messages']:
m.pretty_print()La conversation se déroulerait :
Humain : Divisez 6790 par 5
*AI* *Tool* *Call* : divide(a=6790, b=5)
*Tool* *Response* : 1358.0
Alfred : Le résultat de la division de 6790 par 5 est 1358.0.Quand Maître Wayne laisse ses notes d’entraînement et de repas :
messages = [HumanMessage(content="Selon la note fournie par M. Wayne dans les images fournies. Quelle est la liste des articles que je dois acheter pour le menu du dîner ?")]
messages = react_graph.invoke({"messages": messages, "input_file": "Batman_training_and_meals.png"})L’interaction se déroulerait :
Humain : Selon la note fournie par M. Wayne dans les images fournies. Quelle est la liste des articles que je dois acheter pour le menu du dîner ?
*AI* *Tool* *Call* : extract_text(img_path="Batman_training_and_meals.png")
*Tool* *Response* : [Texte extrait avec le programme d'entraînement et les détails du menu]
Alfred : Pour le menu du dîner, vous devriez acheter les articles suivants :
1. Steak de surlonge local nourri à l'herbe
2. Épinards biologiques
3. Poivrons *piquillo*
4. Pommes de terre (pour pommes de terre aux herbes dorées au four)
5. Huile de poisson (2 grammes)
Assurez-vous que le steak soit nourri à l'herbe et que les épinards et poivrons soient biologiques pour un repas de la meilleure qualité.Si vous souhaitez créer votre propre majordome d’analyse de documents, voici les considérations clés :
add_messages)Avec ces principes, vous aussi pouvez fournir un service d’analyse de documents exemplaire digne du manoir Wayne.
J’espère que cette explication a été satisfaisante. Maintenant, si vous voulez bien m’excuser, la cape de Maître Wayne nécessite un repassage avant les activités de ce soir.
< > Update on GitHub