探索 SakanaAI/AI-Scientist-v2:实现Workshop级别自动化科学发现的AI智能体系统
SakanaAI推出的AI-Scientist-v2是一个端到端的自动化科学研究智能体系统。该系统通过智能体树搜索技术,能够自主生成假设、运行实验、分析数据并撰写科学论文。值得注意的是,它已成功生成了首篇完全由AI撰写并通过同行评审的Workshop论文,标志着大语言模型在自动化科研领域的重大突破。
发布快照卡
数据来源: Publish BaselineStars
2,849
Forks
476
Open Issues
50
快照时间: 2026/03/28 00:00
项目概览
在人工智能加速渗透各行各业的今天,完全自主的科学研究系统正变得越来越强大。SakanaAI 开源的 AI-Scientist-v2(项目地址:https://github.com/SakanaAI/AI-Scientist-v2 )正是这一趋势下的前沿探索。作为第一代 AI Scientist 的升级版,该项目引入了“智能体树搜索(Agentic Tree Search)”机制,旨在实现 Workshop 级别的自动化科学发现。
该项目近期受到广泛关注的核心原因在于其里程碑式的成就:系统生成了第一篇完全由 AI 撰写并通过同行评审被接收的 Workshop 论文(相关实验指向 ICLR 2025 Workshop)。这不仅展示了大型语言模型(LLM)在复杂逻辑推理和长文本生成上的潜力,也为未来的自动化科研(AI for Science)范式提供了具体的参考实现。对于关注 AI 智能体、自动化工作流以及前沿学术探索的开发者而言,该项目提供了一个极具研究价值的开源范本。
核心能力与适用边界
核心能力:
- 端到端自动化科研:系统能够自主完成从“生成研究假设”、“编写代码运行实验”、“收集与分析数据”到“撰写符合学术规范的科学手稿”的完整闭环。
- 智能体树搜索(Agentic Tree Search):相较于传统的线性提示词工程,该系统采用树状搜索策略来探索研究方向,能够在多个假设分支中评估并选择最优路径,显著提升了研究的新颖性和成功率。
- 多模型支持:根据项目文档,系统支持配置多种主流大语言模型及其 API Keys,以驱动底层的智能体决策引擎。
适用边界:
- 推荐使用对象:探索 AI 自动化科研边界的学术研究人员、大语言模型(LLM)应用开发者、以及希望利用 AI 辅助生成初步研究 baseline 的计算机科学团队。
- 不推荐使用对象:需要进行严格物理实验或涉及人类伦理审查的生命科学/医学研究团队;对算力与 API Token 成本极度敏感的个人开发者;期望该系统能直接产出顶会(Top-tier Conference)Oral 级别突破性成果的用户。
观点与推断
基于现有数据和项目文档,可以得出以下推断:
首先,从“线性执行”到“智能体树搜索”的架构演进,表明自动化科研的瓶颈正在从“文本生成”转向“方向探索与纠错”。树搜索机制允许 AI 在实验失败时回溯并尝试新的假设,这更接近人类科学家的真实研究过程,预示着 Agent 架构在复杂任务中的必然演进方向。
其次,该系统成功产出被 ICLR 2025 Workshop 接收的论文,意味着 AI 生成的学术内容已经跨越了“格式正确”的门槛,达到了具备一定逻辑连贯性和初步创新性的“Workshop 级别”。然而,这也暗示了当前系统生成的成果可能仍处于微创新或实验性验证阶段,距离解决重大开放性科学问题仍有较长距离。
最后,项目目前拥有 50 个 Open Issues,且自 2025 年 12 月以来未有代码推送,这可能表明项目在复杂环境下的稳定性仍需社区共同打磨。同时,缺乏明确的开源协议(NOASSERTION)可能会阻碍企业级用户的深度集成与商业化应用。
30分钟上手路径
虽然系统执行完整的科研流程需要较长时间,但开发者可以在 30 分钟内完成环境搭建并启动基础测试:
-
克隆项目仓库: 使用 Git 将项目克隆至本地环境。
git clone https://github.com/SakanaAI/AI-Scientist-v2.gitcd AI-Scientist-v2 -
配置 Python 环境: 建议使用 Conda 或 venv 创建独立的 Python 虚拟环境,并安装依赖。
pip install -r requirements.txt -
配置 API 密钥: 根据文档中的
Supported Models and API Keys指引,在环境变量或配置文件中设置所需 LLM 的 API 密钥。例如:export OPENAI_API_KEY="your_api_key_here" -
运行基础 Demo: 查阅项目提供的 ICLR 2025 Workshop 实验模板,运行一个轻量级的假设生成或数据分析脚本,验证系统连通性与智能体基础决策能力。
风险与限制
在实际部署和使用 AI-Scientist-v2 时,需重点关注以下风险:
- 数据隐私与合规风险:系统在运行过程中需要将实验数据、代码和初步思路发送至第三方 LLM API。对于涉及保密协议(NDA)或未公开的核心商业机密研究,存在严重的数据泄露风险。
- 学术伦理与政策限制:完全由 AI 撰写的论文在提交给学术会议或期刊时,可能面临严格的审查。目前各大顶会对于 AI 作为“作者”或主要贡献者的政策仍在动态调整中,存在被拒稿或撤稿的合规风险。
- 高昂的运行成本:智能体树搜索(Agentic Tree Search)本质上是一种计算密集型策略,会在多个分支上进行大量的 LLM 调用。这可能导致 API Token 消耗呈指数级增长,带来不可忽视的财务成本。
- 维护与稳定性风险:项目当前未声明开源协议(NOASSERTION),且积累了数十个未解决的 Issues,使用者在遇到底层 Bug 时可能需要自行排查修复,缺乏官方的即时技术支持保障。
证据来源
- GitHub API 仓库数据: https://api.github.com/repos/SakanaAI/AI-Scientist-v2 (获取时间: 2026-03-28)
- GitHub API 发行版数据: https://api.github.com/repos/SakanaAI/AI-Scientist-v2/releases/latest (获取时间: 2026-03-28)
- 项目 README 文件: https://github.com/SakanaAI/AI-Scientist-v2/blob/main/README.md (获取时间: 2026-03-28)
- 项目主页: https://github.com/SakanaAI/AI-Scientist-v2 (获取时间: 2026-03-28)