- ✍️ Anthropic公式ブログ解説: Code Execution with MCP — コード実行によるエージェント効率の98.7%トークン削減
- ✍️ Google公式ブログ解説: Agent2Agent (A2A) プロトコル — エージェント間相互運用の新標準
- 📄 NeurIPS 2024論文解説: iAgents — 情報非対称下でのマルチエージェント自律協調とInfoNavメカニズム
- 📄 ACL 2025論文解説: MultiAgentBench — LLMマルチエージェントの協調・競争を通信トポロジごとに定量評価
- 📄 論文解説: A Survey of AI Agent Protocols — MCP・A2Aを含むエージェントプロトコルの体系的分類
本記事は DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models (arXiv:2401.06066) の解説記事です。 論文概要(Abstract) DeepSeekMoEは、MoEアーキテクチャにおけるエキスパートの専門化(specialization)を極限ま...