![]()
Bienvenido a esta primera Unidad Bonus, donde aprenderás a hacer fine-tuning de un Modelo de Lenguaje Grande (LLM) para llamadas a funciones.
En términos de LLMs, la llamada a funciones se está convirtiendo rápidamente en una técnica imprescindible.
La idea es que, en lugar de depender solo de enfoques basados en prompts como hicimos en la Unidad 1, la llamada a funciones entrena a tu modelo para realizar acciones e interpretar observaciones durante la fase de entrenamiento, haciendo tu IA más robusta.
¿Cuándo debería hacer esta Unidad Bonus?
Esta sección es opcional y es más avanzada que la Unidad 1, así que no dudes en hacer esta unidad ahora o revisitarla cuando tu conocimiento haya mejorado gracias a este curso.
Pero no te preocupes, esta Unidad Bonus está diseñada para tener toda la información que necesitas, así que te guiaremos a través de cada concepto fundamental del fine-tuning de un modelo para llamadas a funciones, incluso si aún no has aprendido el funcionamiento interno del fine-tuning.
La mejor manera para que puedas seguir esta Unidad Bonus es:
Saber cómo hacer Fine-Tuning de un LLM con Transformers, si no es el caso revisa esto.
Saber cómo usar SFTTrainer para hacer fine-tuning de nuestro modelo, para aprender más sobre esto revisa esta documentación.
Llamadas a Funciones
Cómo los LLMs modernos estructuran sus conversaciones de manera efectiva permitiéndoles activar Herramientas.
LoRA (Adaptación de Bajo Rango)
Un método de fine-tuning ligero y eficiente que reduce la sobrecarga computacional y de almacenamiento. LoRA hace que el entrenamiento de modelos grandes sea más rápido, económico y fácil de implementar.
El Ciclo Pensamiento → Acción → Observación en modelos de Llamadas a Funciones
Un enfoque simple pero poderoso para estructurar cómo tu modelo decide cuándo (y cómo) llamar funciones, rastrear pasos intermedios e interpretar los resultados de Herramientas o APIs externas.
Nuevos Tokens Especiales
Introduciremos marcadores especiales que ayudan al modelo a distinguir entre:
Al final de esta unidad bonus, serás capaz de:
Y habrás hecho fine-tuning de tu propio modelo para realizar llamadas a funciones. 🔥
¡Sumerjámonos en las llamadas a funciones!
< > Update on GitHub