万事俱备,即刻启程!请完成以下四个步骤:
(如未注册)请点击此处创建账户
👉🏻 点击此链接加入服务器
加入后请至 #introduce-yourself 频道完成自我介绍
我们设有多个 AI 智能体专属频道:
agents-course-announcements:课程最新动态发布🎓-agents-course-general:日常交流与自由讨论agents-course-questions:答疑互助专区agents-course-showcase:智能体成果展示厅另可关注技术研讨频道:
smolagents:开发库技术交流与支持若您是 Discord 新用户,我们准备了《Discord 基础操作指南》供参考,详见下一章节
通过关注课程组织,实时获取最新课程资料、更新通知与重要公告
👉 访问课程主页点击 Follow
两种方式支持课程发展:
点击 👉 此处下载宣传图
安装Ollama
请按照官方说明安装Ollama
本地拉取模型
ollama pull qwen2:7b #访问ollama网站获取更多模型信息ollama serve
如果遇到listen tcp 127.0.0.1:11434: bind: address already in use错误,你可以使用命令sudo lsof -i :11434来识别当前占用该端口的进程ID(PID)。若该进程是ollama,则可能是上述安装脚本已启动了ollama服务,因此可以跳过此命令直接使用Ollama。
使用LiteLLMModel替代InferenceClientModel
要在smolagents中使用LiteLLMModel模块,可运行pip命令安装该模块。
pip install smolagents[litellm]
from smolagents import LiteLLMModel
model = LiteLLMModel(
model_id="ollama_chat/qwen2:7b", # 或尝试其他Ollama支持的模型
api_base="http://127.0.0.1:11434", # 默认的Ollama本地服务器地址
num_ctx=8192,
)http://localhost:11434提供一个与OpenAI兼容的API,用于本地模型服务。LiteLLMModel设计用于与任何支持OpenAI chat/completion API格式的模型进行通信。InferenceClientModel替换为LiteLLMModel,无需其他代码改动从而实现即插即用的解决方案。恭喜!🎉 您已完成启航准备!现在可以正式开启智能体技术的学习之旅,祝您探索愉快!
保持学习热情,继续闪耀 🤗
< > Update on GitHub