简要概括
经过一些实验,我们对 transformers 智能体构建智能体系统的性能印象深刻,因此我们想看看它有多好!我们使用一个
-
用库构建的代码智能体 https://github.com/aymeric-roucher/gaia
gaia: 一个严苛的智能体基准
什么是智能体?
一句话: 智能体是基于大语言模型 (llm) 的系统,可以根据当前用例的需要调用外部工具,也可以不调用,并根据 llm 的输出进行后续步骤的迭代。工具可以包括从 web 搜索 api 到 python 解释器的任何东西。
形象类比: 所有程序都可以描述为图表。先做 a,再做 b。if/else 分支是图中的岔路口,但它们不会改变图的结构。我们将 智能体 定义为: llm 输出将改变图结构的系统。智能体决定调用工具 a 或工具 b 或不调用任何工具,它决定是否再运行一步: 这些都会改变图的结构。您可以将 llm 集成到一个固定的工作流中,比如在
llm judge 中,但这并不是一个智能体系统,因为 llm 的输出不会改变图的结构。
-
llm judge https://hf.co/papers/2310.17631
下面是两个执行
-
检索增强生成 https://hf.co/learn/cookbook/en/rag_zephyr_langchain
智能体系统赋予大语言模型 (llm) 超能力。详情请阅读
-
我们早期关于 transformers agents 2.0 发布的博客 https://hf.co/blog/agents
-
gaia https://hf.co/datasets/gaia-benchmark/gaia
以下是一个棘手问题的例子:
在 2008 年的画作《乌兹别克斯坦的刺绣》中展示的水果中,哪些是 1949 年 10 月海洋班轮早餐菜单的一部分,该班轮后来作为电影《最后的航程》的漂浮道具使用?请将这些水果按逗号分隔的列表给出,并根据它们在画作中的排列顺时针顺序,从 12 点位置开始。使用每种水果的复数形式。
你可以看到这个问题涉及几个难点:
-
以约束格式回答。 -
多模态能力,需要从图像中读取水果。 -
需要收集多个信息,有些信息依赖于其他信息: -
图片中的水果 -
用作《最后的航程》漂浮道具的海洋班轮的身份 -
上述海洋班轮 1949 年 10 月的早餐菜单 -
上述内容迫使正确的解决路径使用几个链式步骤。
解决这个问题需要高水平的计划能力和严格的执行力,这恰恰是 llm 难以应对的两个领域。
因此,它是测试智能体系统的绝佳测试集!
在 gaia 的
-
公开排行榜 https://hf.co/spaces/gaia-benchmark/leaderboard
下面让我们继续
构建合适的工具 ️
我们使用了三种主要工具来解决 gaia 问题:
a. 网页浏览器
对于网页浏览,我们主要复用了
browser
类,以及几个用于网页导航的工具,如 visit_page
、page_down
或 find_in_page
。这个工具返回当前视口的 markdown 表示。与其他解决方案 (如截屏并使用视觉模型) 相比,使用 markdown 极大地压缩了网页信息,这可能会导致一些遗漏。然而,我们发现该工具整体表现良好,且使用和编辑都不复杂。
-
autogen 团队的提交 https://github.com/microsoft/autogen/tree/gaia_multiagent_v01_march_1st/samples/tools/autogenbench/scenarios/gaia/templates/orchestrator
注意: 我们认为,将来改进这个工具的一个好方法是使用 selenium 包加载页面,而不是使用 requests。这将允许我们加载 javascript (许多页面在没有 javascript 的情况下无法正常加载) 并接受 cookies 以访问某些页面。
b. 文件检查器
许多 gaia 问题依赖于各种类型的附件文件,如 .xls
、.mp3
、.pdf
等。这些文件需要被正确解析。我们再次使用了 autogen 的工具,因为它们非常有效。
非常感谢 autogen 团队开源他们的工作。使用这些工具使我们的开发过程加快了几周!
c. 代码解释器
我们不需要这个工具,因为我们的智能体自然会生成并执行 python 代码: 详见下文。
代码智能体
为什么选择代码智能体?
如
考虑他们论文中给出的这个例子:

它突出了使用代码的几个优点:
-
代码操作比 json 简洁得多。 -
需要运行 4 个并行的 5 个连续操作流?在 json 中,你需要生成 20 个 json blob,每个在其独立的步骤中; 而在代码中,这只需 1 步。 -
平均而言,论文显示代码操作需要比 json 少 30% 的步骤,这相当于生成的 tokens 减少了 30%。由于 llm 调用通常是智能体系统的主要成本,这意味着你的智能体系统运行成本减少了约 30%。 -
代码允许重用常见库中的工具 -
使用代码在基准测试中表现更好,原因有二: -
它是一种更直观的表达操作的方式 -
llm 的训练数据中有大量代码,这可能使它们在编写代码方面比编写 json 更流畅。
我们在
在我们最近的构建 transformers 智能体的实验中,我们还观察到了一些额外的优势:
-
在代码中存储一个命名变量要容易得多。例如,需要存储一个由工具生成的岩石图像以供以后使用? -
在代码中没有问题: 使用 “rock_image = image_generation_tool(“a picture of a rock”)” 将变量存储在你的变量字典中的 “rock_image” 键下。之后 llm 可以通过再次引用 “rock_image” 来在任何代码块中使用其值。 -
在 json 中,你需要做一些复杂的操作来创建一个名称来存储这个图像,以便 llm 以后知道如何再次访问它。例如,将图像生成工具的任何输出保存为 “image_{i}.png”,并相信 llm 稍后会理解 image_4.png 是内存中之前调用工具的输出?或者让 llm 也输出一个 “output_name” 键来选择存储变量的名称,从而使你的操作 json 的结构复杂化? -
智能体日志可读性大大提高。
transformers 智能体的 codeagent 实现
llm 生成的代码直接执行可能非常不安全。如果你让 llm 编写和执行没有防护措施的代码,它可能会产生任何幻觉: 例如,它可能认为所有你的个人文件需要被《沙丘》的传说副本覆盖,或者认为你唱《冰雪奇缘》主题曲的音频需要分享到你的博客上!
所以对于我们的智能体,我们必须使代码执行安全。通常的方法是自上而下: “使用一个功能齐全的 python 解释器,但禁止某些操作”。
为了更安全,我们选择了相反的方法, 从头开始构建一个 llm 安全的 python 解释器。给定 llm 提供的 python 代码块,我们的解释器从 python 模块
-
python ast 库文档 https://docs.python.org/3/library/ast.html -
抽象语法树表示 https://en.wikipedia.org/wiki/abstract_syntax_tree
例如,一个 import
语句首先会检查导入是否在用户定义的 authorized_imports
列表中明确提及: 如果没有,则不执行。我们包括了一份默认的 python 内置标准函数列表,如 print
和 range
。任何在此列表之外的内容都不会执行,除非用户明确授权。例如, open
(如 with open("path.txt", "w") as file:
) 不被授权。
遇到函数调用 ( ast.call
) 时,如果函数名是用户定义的工具之一,则工具会被调用并传递调用参数。如果是先前定义并允许的其他函数,则正常运行。
我们还做了几个调整以帮助 llm 使用解释器:
-
我们限制执行操作的数量以防止 llm 生成的代码中出现无限循环: 每次操作时计数器增加,如果达到一定阈值则中断执行。 -
我们限制打印输出的行数,以避免用垃圾填满 llm 的上下文长度。例如,如果 llm 读取一个 100 万行的文本文件并决定打印每一行,那么在某个点上这个输出会被截断,以防止智能体内存爆炸。
基础多智能体协调
网页浏览是一项非常上下文丰富的活动,但大多数检索到的上下文实际上是无用的。例如,在上面的 gaia 问题中,唯一重要的信息是获取画作《乌兹别克斯坦的刺绣》的图像。周围的内容,比如我们找到它的博客内容,通常对解决更广泛的任务无用。
为了解决这个问题,使用多智能体步骤是有意义的!例如,我们可以创建一个管理智能体和一个网页搜索智能体。管理智能体应解决高级任务,并分配具体的网页搜索任务给网页搜索智能体。网页搜索智能体应仅返回有用的搜索结果,以避免管理智能体被无用信息干扰。
我们在工作流程中创建了这种多智能体协调:
-
顶级智能体是一个
reactcodeagent 。它天生处理代码,因为它的操作是用 python 编写和执行的。它可以访问以下工具: -
informational_web_search
-
page_down
-
find_in_page
-
…… (完整列表 在这行 ) -
file_inspector
读取文本文件,带有一个可选的question
参数,以便根据内容只返回对特定问题的答案,而不是整个文件内容。 -
visualizer
专门回答有关图像的问题。 -
search_agent
浏览网页。更具体地说,这个工具只是一个网页搜索智能体的包装器,这是一个 json 智能体 (json 在严格的顺序任务中仍然表现良好,比如网页浏览,其中你向下滚动,然后导航到新页面,等等)。这个智能体可以访问网页浏览工具: -
reactcodeagent https://hf.co/docs/transformers/main/en/main_classes/agent#transformers.reactcodeagent -
完整工具列表 https://github.com/aymeric-roucher/gaia/blob/a66aefc857d484a051a5eb66b49575dfaadff266/gaia.py#l107
将智能体作为工具嵌入是一种简单的多智能体协调方法,但我们想看看它能走多远——结果它能走得相当远!
规划组件 ️
目前有
-
我们已知或可以从上下文中推导出的事实摘要和需要发现的事实 -
基于新观察和上述事实摘要,逐步制定解决任务的计划
可以调整参数 n 以在目标用例中获得更好的性能: 我们为管理智能体选择了 n=2,为网页搜索智能体选择了 n=5。
一个有趣的发现是,如果我们不提供计划的先前版本作为输入,得分会提高。直观的解释是,llm 通常对上下文中任何相关信息有强烈的偏向。如果提示中存在先前版本的计划,llm 可能会大量重复使用它,而不是在需要时重新评估方法并重新生成计划。
然后,将事实摘要和计划用作额外的上下文来生成下一步操作。规划通过在 llm 面前展示实现目标的所有步骤和当前状态,鼓励 llm 选择更好的路径。
结果
我们在验证集上得到了 44.2% 的成绩: 这意味着 transformers 智能体的 reactcodeagent 现在总体排名第一,比第二名高出 4 分!在测试集中,我们得到了 33.3% 的成绩,排名第二,超过了微软 autogen 的提交,并且在硬核的第 3 级问题中获得了最高平均分。

这是一个支持
据我们所知,langchain 和 llamaindex 不支持代码操作,微软的 autogen 对代码操作有一些支持 (在
下一步
希望你喜欢阅读这篇博客!工作才刚刚开始,我们将继续改进 transformers agents,从多个方面入手:
-
llm 引擎: 我们的提交使用了 gpt-4o (不幸的是), 没有任何微调。我们的假设是,使用经过微调的 os 模型可以消除解析错误,并获得更高的分数! -
多智能体协调: 我们的协调方式较为简单,通过更无缝的协调,我们可能会取得更大的进展! -
网页浏览器工具: 使用 selenium
包,我们可以拥有一个通过 cookie 横幅并加载 javascript 的网页浏览器,从而读取许多当前无法访问的页面。 -
进一步改进规划: 我们正在进行一些消融测试,采用文献中的其他选项,看看哪种方法效果最好。我们计划尝试现有组件的替代实现以及一些新组件。当我们有更多见解时,会发布我们的更新!
请在未来几个月关注 transformers agents!
现在我们已经建立了智能体的内部专业知识,欢迎随时联系我们的用例,我们将很乐意提供帮助!
英文原文:
https://hf.co/blog/beating-gaia 原文作者: aymeric roucher, sergei petrov
译者: innovation64
发表评论