2026-04-23 论文速递

对 agent / LLM / AI 基础设施方向共 10 篇 arXiv 论文的自动摘要,由 Claude Code 生成分析。

1. Nemobot Games: Crafting Strategic AI Gaming Agents for Interactive Learning with Large Language Models

arXiv: 2604.21896 · cs.AI · 相关度分数 23

论文提出 Nemobot,一个基于 LLM 的交互式 agentic 游戏编程环境,按 Shannon 博弈机分类法在四类游戏中构建可自我精炼的策略 agent。

阅读完整分析 →


2. Tool Attention Is All You Need: Dynamic Tool Gating and Lazy Schema Loading for Eliminating the MCP/Tools Tax in Scalable Agentic Workflows

arXiv: 2604.21816 · cs.AI · 相关度分数 23

提出 Tool Attention 中间件:用意图-schema 嵌入相似度 + 状态门控 + 两阶段懒加载,将 MCP 每轮工具 token 开销削减 95%,缓解"MCP Tax"。

阅读完整分析 →


3. Memanto: Typed Semantic Memory with Information-Theoretic Retrieval for Long-Horizon Agents

arXiv: 2604.22085 · cs.AI · 相关度分数 20

Memanto 用类型化语义 memory schema + 信息论检索引擎,摒弃知识图谱,在 LongMemEval/LoCoMo 上达到 SOTA,单次检索、零 ingestion 延迟。

阅读完整分析 →


4. Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation

arXiv: 2604.21536 · cs.IR · 相关度分数 20

提出一种用预训练 LLM 生成的文本用户画像向序列推荐器做知识蒸馏的方法,推理时无需 LLM,兼顾语义理解与效率。

阅读完整分析 →


5. MambaCSP: Hybrid-Attention State Space Models for Hardware-Efficient Channel State Prediction

arXiv: 2604.21957 · cs.IT · 相关度分数 20

MambaCSP 用混合注意力的 selective SSM 替代 LLM 做信道状态预测,精度提升 9-12% 的同时吞吐快 3 倍、显存降 2.6 倍。

阅读完整分析 →


6. Trust but Verify: Introducing DAVinCI – A Framework for Dual Attribution and Verification in Claim Inference for Language Models

arXiv: 2604.21193 · cs.AI · 相关度分数 20

DAVinCI 是一个双阶段框架,把 LLM 生成的声明同时做"归因"和"验证",以提升事实可靠性与可审计性,在 FEVER 等数据集上各项指标提升 5–20%。

阅读完整分析 →


7. Emergent Strategic Reasoning Risks in AI: A Taxonomy-Driven Evaluation Framework

arXiv: 2604.22119 · cs.AI · 相关度分数 19

提出 ESRRSim:一个分类法驱动的 agentic 评测框架,用于自动化检测 LLM 的"涌现策略推理风险"(欺骗、评测博弈、奖励黑客等)。

阅读完整分析 →


8. Lightweight Retrieval-Augmented Generation and Large Language Model-Based Modeling for Scalable Patient-Trial Matching

arXiv: 2604.22061 · cs.CL · 相关度分数 19

提出轻量化 RAG + LLM 框架用于患者-临床试验匹配:先用检索筛选 EHR 关键片段,再用 LLM 编码并接轻量分类器,以远低于端到端 LLM 的算力达到同等效果。

阅读完整分析 →


9. LayerBoost: Layer-Aware Attention Reduction for Efficient LLMs

arXiv: 2604.22050 · cs.LG · 相关度分数 19

LayerBoost 基于各层敏感度对 transformer attention 做差异化替换(softmax/线性滑窗/删除),配合轻量蒸馏 healing,在高并发下吞吐提升最多 68%。

阅读完整分析 →


10. Enhancing Online Recruitment with Category-Aware MoE and LLM-based Data Augmentation

arXiv: 2604.21264 · cs.AI · 相关度分数 19

针对在线招聘中 Person-Job Fit 任务,论文用 LLM 做数据增强润色低质量 JD,并引入 category-aware MoE 区分相似候选-岗位对,离线与线上均显著提升。

阅读完整分析 →