研究助手
给墨鱼一个研究方向,它帮你搜论文、读摘要、做对比分析,甚至生成文献综述初稿。
场景描述
你正在做 AI Agent 相关的研究,需要跟踪最新论文、对比不同方法、整理文献综述。让 Hermes Agent 通过 arxiv 技能和搜索能力帮你加速。
前置准备
- ✅
arxiv技能已安装 - ✅
web-content-fetch或defuddle技能已安装 - ✅ LLM 已配置(长上下文模型更佳)
第一步:论文搜索
你:搜索 arXiv 上最近一周关于 AI Agent 的论文,
筛选出引用量最高的 5 篇,
给我标题、摘要翻译和核心贡献。Hermes 会:
- 调用 arxiv 技能搜索
- 筛选和排序
- 翻译摘要并提取关键信息
搜索结果示例:
Hermes:找到 5 篇相关论文——
📄 1. "AgentBench: Evaluating LLMs as Agents"
核心贡献:提出了多维度 Agent 评测基准,覆盖 8 个真实场景
引用:1,200+ | 发布:2024-03
📄 2. "AutoGen: Enabling Next-Gen LLM Applications"
核心贡献:多 Agent 对话框架,支持自定义 Agent 间通信
引用:980+ | 发布:2024-02
📄 3. "ToolLLM: Facilitating Large Language Models to Master Tools"
核心贡献:大规模工具学习,支持 16,000+ API 调用
引用:750+ | 发布:2024-01
...第二步:深度阅读
你:帮我读一下这篇论文 https://arxiv.org/abs/xxxx.xxxxx
重点分析:
1. 核心方法是什么?
2. 与现有方法相比有哪些创新?
3. 实验结果如何?
4. 有什么局限性?深度阅读输出示例:
Hermes:论文分析如下——
🔍 核心方法
提出 ReAct 框架,将推理(Reasoning)和行动(Acting)
交织执行,而非传统链式思考后执行。
🆕 创新点
- 首次证明"边想边做"比"想完再做"效果提升 15-20%
- 在 HotpotQA 和 ALFWorld 上达到 SOTA
📊 实验结果
HotpotQA: EM 64.2%(+8.1%)
ALFWorld: 成功率 74.5%(+12.3%)
⚠️ 局限性
- 每次推理需调用 LLM 3-5 次,成本较高
- 在需要长期规划的任务上表现不稳定
- 依赖 prompt 工程,鲁棒性有待验证第三步:对比分析
你:对比以下三篇论文的方法差异:
1. 论文 A:ReAct 框架
2. 论文 B:Plan-and-Execute 框架
3. 论文 C:自适应 Agent 框架
从方法、效果、适用场景三个维度做对比表。第四步:生成文献综述
你:基于我们讨论的这些论文,
写一份 2000 字左右的文献综述,
主题是"大语言模型驱动的自主 Agent",
要求引用格式标准,逻辑清晰。第五步:持续跟踪
你:创建一个每周任务,搜索 arXiv 上 AI Agent 领域的新论文,
筛选与我研究方向相关的,
生成摘要报告发到飞书。进阶玩法
- 知识库联动:搜索结果自动保存到 Obsidian
- 多源搜索:同时搜索 arXiv、Semantic Scholar、Google Scholar
- 论文推荐:基于你的阅读历史推荐相关论文
- 实验复现:让墨鱼帮你理解并复现论文中的实验
深入阅读
- arxiv 技能源码 — 内置学术搜索技能
- web-content-fetch 技能源码 — 内置网页抓取技能