- ✍️ Mem0公式ブログ解説: State of AI Agent Memory 2026 — メモリアーキテクチャの本番運用比較
- 📄 論文解説: Memory in the Age of AI Agents — エージェントメモリの3次元分類法
- 📄 論文解説: Survey on Evaluation of LLM-based Agents — エージェント評価手法の体系的分類
- 📄 論文解説: Memory for Autonomous LLM Agents — エージェントメモリの機構・評価・フロンティア
- ✍️ AWS公式ブログ解説: Amazon Bedrock AgentCore Evaluationsによるエージェント品質の自動評価
本記事は arXiv:2509.24389 “LLaDA-MoE” の解説記事です。 論文概要(Abstract) LLaDA-MoE は、マスク拡散言語モデル LLaDA に Sparse Mixture-of-Experts(MoE)アーキテクチャを統合した研究である。著者らは、Transformer の FFN 層を Sparse MoE 層に置換し、7B の総パラメータ中わずか ...