Skip to content

研究助手

给墨鱼一个研究方向,它帮你搜论文、读摘要、做对比分析,甚至生成文献综述初稿。

场景描述

你正在做 AI Agent 相关的研究,需要跟踪最新论文、对比不同方法、整理文献综述。让 Hermes Agent 通过 arxiv 技能和搜索能力帮你加速。

前置准备

  • arxiv 技能已安装
  • web-content-fetchdefuddle 技能已安装
  • ✅ LLM 已配置(长上下文模型更佳)

第一步:论文搜索

你:搜索 arXiv 上最近一周关于 AI Agent 的论文,
    筛选出引用量最高的 5 篇,
    给我标题、摘要翻译和核心贡献。

Hermes 会:

  1. 调用 arxiv 技能搜索
  2. 筛选和排序
  3. 翻译摘要并提取关键信息

搜索结果示例:

Hermes:找到 5 篇相关论文——

📄 1. "AgentBench: Evaluating LLMs as Agents"
   核心贡献:提出了多维度 Agent 评测基准,覆盖 8 个真实场景
   引用:1,200+ | 发布:2024-03
   
📄 2. "AutoGen: Enabling Next-Gen LLM Applications"
   核心贡献:多 Agent 对话框架,支持自定义 Agent 间通信
   引用:980+ | 发布:2024-02

📄 3. "ToolLLM: Facilitating Large Language Models to Master Tools"
   核心贡献:大规模工具学习,支持 16,000+ API 调用
   引用:750+ | 发布:2024-01
   ...

第二步:深度阅读

你:帮我读一下这篇论文 https://arxiv.org/abs/xxxx.xxxxx
    重点分析:
    1. 核心方法是什么?
    2. 与现有方法相比有哪些创新?
    3. 实验结果如何?
    4. 有什么局限性?

深度阅读输出示例:

Hermes:论文分析如下——

🔍 核心方法
  提出 ReAct 框架,将推理(Reasoning)和行动(Acting)
  交织执行,而非传统链式思考后执行。

🆕 创新点
  - 首次证明"边想边做"比"想完再做"效果提升 15-20%
  - 在 HotpotQA 和 ALFWorld 上达到 SOTA
  
📊 实验结果
  HotpotQA: EM 64.2%(+8.1%)
  ALFWorld: 成功率 74.5%(+12.3%)
  
⚠️ 局限性
  - 每次推理需调用 LLM 3-5 次,成本较高
  - 在需要长期规划的任务上表现不稳定
  - 依赖 prompt 工程,鲁棒性有待验证

第三步:对比分析

你:对比以下三篇论文的方法差异:
    1. 论文 A:ReAct 框架
    2. 论文 B:Plan-and-Execute 框架  
    3. 论文 C:自适应 Agent 框架
    从方法、效果、适用场景三个维度做对比表。

第四步:生成文献综述

你:基于我们讨论的这些论文,
    写一份 2000 字左右的文献综述,
    主题是"大语言模型驱动的自主 Agent",
    要求引用格式标准,逻辑清晰。

第五步:持续跟踪

你:创建一个每周任务,搜索 arXiv 上 AI Agent 领域的新论文,
    筛选与我研究方向相关的,
    生成摘要报告发到飞书。

进阶玩法

  • 知识库联动:搜索结果自动保存到 Obsidian
  • 多源搜索:同时搜索 arXiv、Semantic Scholar、Google Scholar
  • 论文推荐:基于你的阅读历史推荐相关论文
  • 实验复现:让墨鱼帮你理解并复现论文中的实验

深入阅读

基于 CC BY-NC-SA 4.0 发布 | GitHub