
FunReason 核心技术深度剖析
--- - 用GPT-4o生成的CoT可能包含策略痕迹 - 需要验证生成数据的可执行性 - 需要确保格式统一性 --- --- 目标:区分function call和普通对话 技术实现: 示例: --- 目标:验证查询是否可用给定工具解决 核心逻辑: 典型Case: Case 1: 通过 Case ...
Read More
FunReason 核心技术深度剖析
--- - 用GPT-4o生成的CoT可能包含策略痕迹 - 需要验证生成数据的可执行性 - 需要确保格式统一性 --- --- 目标:区分function call和普通对话 技术实现: 示例: --- 目标:验证查询是否可用给定工具解决 核心逻辑: 典型Case: Case 1: 通过 Case ...
Read More
论文笔记: Your LLM Knows the Future
一份关于通过掩码标记(Mask Tokens)解锁LLM多词元并行预测潜力的论文笔记,着重分析了其实现机制与关键创新。
Read More

K-ON Stacking Knowledge On the Head Layer of Large Language Model
K-ON仅适用于封闭实体集的benchmark评测,实际应用价值远不如GraphRAG等动态方案
Read More
H2HTALK 论文精要笔记
对论文《H2HTALK: Evaluating Large Language Models as Emotional Companion》的核心内容提炼,着重解析其创建的H2HTALK基准数据集,用于快速回顾和掌握关键创新。
Read More
MemLLM: Finetuning LLMs to Use Explicit Read-Write Memory
对MemLLM论文的精炼分析报告,该工作通过微调教会LLM使用一个可读写的外部结构化记忆库,以解决知识更新、幻觉等核心问题。
Read More


GL-Fusion: Rethinking GNN-LLM Integration
深度融合GNN和LLM的创新架构,通过Structure-Aware Transformers、Graph-Text Cross-Attention和Twin Predictor实现图结构与文本语义的协同建模
Read More
HippoRAG 2: Baselines & Benchmarks 深度解析
对 NeurIPS 2025 论文 HippoRAG 2 的 baselines 和 benchmarks 进行深度解析,揭示现有 RAG 系统在三类记忆任务上的表现差异
Read More
MemoryLLM Towards Self-Updatable Large Language Models
在input进入transformer块之前,添加一个memory pool,将input tensor维度增加,作为记忆,每次推理对这个memory pool随机增加和删减,实现记忆的动态注入和遗忘
Read More

LifelongAgentBench: Evaluating LLM Agents as Lifelong Learners
测试LLM In-context Learning能力的评估框架,而非真正的Lifelong能力
Read More
RAISE Agent: From LLM to Conversational Agent
ReAct + Context工程的记忆增强架构,展示微调在Agent领域的蒸馏学习价值
Read More
Continual Fine-Tuning for Multilingual LLMs
日期: 2025-9-26 链接: ArXiv keywords: 指标创新 多语言 方法过时 方法论价值:相似度度量指标和层冻结实验的参考价值 当Phase 1和Phase 2数据集编码相似任务时,任务能力不退化 - Heuristic Layer Freezing: 冻结Base→Phase1变...
Read More


