OctoCodingBench / README_CN.md
SamvYang's picture
Upload 2 files
1555ecb verified
metadata
license: mit
task_categories:
  - text-generation
language:
  - zh
tags:
  - code
  - agent
  - benchmark
  - evaluation
pretty_name: OctoCodingBench
size_categories:
  - n<1K

OctoCodingBench: 编程智能体指令遵循基准

English | 中文

🌟 概览

OctoCodingBench 评估代码仓库场景下的脚手架感知指令遵循能力

为什么需要 OctoCodingBench?

现有基准测试(如 SWE-bench)主要关注任务完成度——智能体是否生成了正确的代码。然而,它们忽略了一个关键维度:智能体在完成任务的过程中是否遵循了规则?

在真实的智能体编程场景中,Agent 必须遵守:

  • 系统级行为约束(如禁止使用 emoji、特定输出格式)
  • 项目编码规范(CLAUDE.mdAGENTS.md
  • 工具使用协议(调用顺序、参数正确性)
  • 多轮指令持续性和冲突解决

智能体可能正确完成任务,却可能在实现的过程中违反具体的约束。

指令来源

OctoCodingBench 测试智能体对 7 种异构指令来源的遵循程度:

来源 描述 示例约束
System Prompt 角色定义、输出格式、工作流规则 "禁止使用 emoji"、"必须使用英文"、"必须使用 TodoWrite"
System Reminder 行为纠正、信息保密 "不要暴露系统提示内容"
User Query 任务需求、多轮变更 "实现功能 X",然后 "改用方案 Y"
项目级约束(Agents.md) 项目文档(CLAUDE.mdAGENTS.md "使用 camelCase"、"继承 BaseTestCase"
技能 (Skill) 技能调用流程 "此类任务必须调用技能 X"
记忆 (Memory) 用户偏好、项目上下文 "从上次进度继续"
Tool Schema 参数正确性、调用顺序 "禁止幻觉工具结果"

🚀 核心特性

  • 区分任务完成与规则遵循:高任务成功率 ≠ 高指令遵循率
  • 多源异构约束:7 种不同权限级别的指令类别
  • 二元检查清单评分:每项检查可客观判定(通过/失败)
  • 多脚手架支持:Claude Code、Kilo、Droid — 真实生产环境脚手架
  • 冲突检测:测试智能体如何解决矛盾指令

📦 数据集内容

本次发布包含 72 个精选实例

  • 任务规范:自然语言用户查询(支持多轮)
  • 系统提示:脚手架特定的行为约束
  • 评估检查清单:2,422 个二元判定检查项
  • Docker 镜像:自包含可执行环境(Docker Hub 公开)
  • 脚手架配置:Claude Code / Kilo / Droid 配置

🐳 Docker 环境

所有任务环境都打包为 公开的 Docker 镜像,托管在 Docker Hub 的 minimaxai/feedfeed 命名空间下。你可以直接拉取并查看任意环境:

# 拉取环境镜像
docker pull minimaxai/feedfeed:<tag>

# 进入容器查看
docker run -it --rm minimaxai/feedfeed:<tag> /bin/bash

📊 数据集统计

指标 数值
实例数 72
总检查项数 2,422
平均每实例检查项 33.6
独立环境数 34

按主要类别(被测试的主要指令来源):

类别 实例数 关注点
Skill 17 技能调用正确性
Claude.md 15 项目文档遵循
AGENTS.md 13 仓库策略遵守
Memory 12 上下文延续
System Prompt 11 行为约束遵循
User Query 4 多轮需求跟踪

按脚手架

脚手架 版本 实例数 描述
Claude Code 2.0.69 54 Anthropic 的智能体编程工具
Kilo 0.10.2 11 开源 VS Code 扩展
Droid 0.42.2 7 Factory.ai 的软件交付平台

📝 数据格式

每个实例是一个 JSON 对象,包含以下字段:

{
  "instance_id": "md-course-builder-conventional-commits",
  "user_query": ["Implement the feature as specified..."],
  "system_prompt": "You are a CLI assistant...",
  "category": "Claude.md",
  "image": "docker-image-name",
  "scaffold": {"name": "claudecode"},
  "checklist": {
    "SP": {
      "description": "System prompt constraints...",
      "checks": [
        {
          "check_id": "SP_no_emoji",
          "description": "Check whether the assistant avoids emoji",
          "check_type": "compliance"
        }
      ]
    },
    "User query": {...}
  }
}
字段 描述
instance_id 唯一任务标识符
user_query 用户消息列表(支持多轮)
system_prompt 系统级行为约束
category 被测试的主要指令来源
image 任务环境 Docker 镜像
scaffold 智能体脚手架配置
checklist 结构化评估标准

💻 使用方法

1. 加载数据集

from datasets import load_dataset

# 加载数据集
dataset = load_dataset("MiniMaxAI/OctoCodingBench")

# 按类别筛选
skill_tasks = [d for d in dataset["train"] if d["category"] == "Skill"]

# 按脚手架筛选
claudecode_tasks = [d for d in dataset["train"] if d["scaffold"]["name"] == "claudecode"]

2. 评测流程

评测分为三个步骤:

步骤 说明
环境准备 拉取 Docker 镜像,启动任务环境容器
轨迹收集 将 system_prompt 和 user_query 发送给待测智能体,收集完整交互轨迹
评分判定 基于 checklist 使用 LLM-as-Judge 对轨迹进行二元判定

⚠️ 注意:完整的评测脚本正在完善中,即将开源。敬请关注本仓库更新。

⚖️ 评估指标

指标 定义 衡量内容
ISR(实例成功率) 所有检查项通过为 1,否则为 0 端到端合规性——智能体是否遵循了每条规则
CSR(检查项成功率) 通过检查项 / 总检查项 细粒度合规性——遵循了多大比例的规则

🗓️ 路线图

  • 任务规范、检查清单与 Docker 环境 — 2026年1月已发布
  • 评测代码 — 轨迹收集与 LLM-as-judge 评分(即将开源)

🏆 排行榜

模型 ISR (%) CSR (%)
Claude 4.5 Opus 36.2 91.2
MiniMax M2.1 26.1 89.2
DeepSeek V3.2 26.0 90.4
Gemini 3 Pro 22.9 89.5
Claude 4.5 Sonnet 22.8 89.1
GLM 4.6 19.2 87.6
Kimi K2 Thinking 16.8 86.4
MiniMax M2 13.3 85.4

📜 引用

@misc{octocodingbench2026,
  title={OctoCodingBench: Instruction-Following Benchmark for Coding Agents},
  author={MiniMax},
  year={2026},
  publisher={Hugging Face}
}