Home
0h-n0 TechBLog
キャンセル

📄 論文解説: FluxMem — Beta混合モデルによる適応的メモリ構造選択フレームワーク

論文概要(Abstract) 本記事は https://arxiv.org/abs/2602.14038 の解説記事です。 FluxMemは、LLMエージェントのメモリシステムにおいて「どの構造で記憶するか」を会話コンテキストに応じて動的に選択するフレームワークである。3層のメモリ階層(短期・中期・長期)と3種のメモリ構造(線形・グラフ・階層)を組み合わせ、Beta混合モデル(BMM)に...

📄 論文解説: HOBBIT — 混合精度エキスパートオフローディングによるMoE推論の高速化

本記事は HOBBIT: A Mixed Precision Expert Offloading System for Fast MoE Inference (arXiv:2411.01433) の解説記事です。 論文概要(Abstract) HOBBITは、MoEモデルの推論においてエキスパートの重みをGPUメモリ外(CPU RAM/SSD)にオフロードする際の速度低下を、混合精度ロー...

📄 論文解説: Memori — セマンティックトリプルで実現する高精度・低コストLLMエージェント記憶層

本記事は Memori: A Persistent Memory Layer for Efficient, Context-Aware LLM Agents (arXiv:2603.19935) の解説記事です。 論文概要(Abstract) Memoriは、LLMエージェントの長期記憶をデータ構造化問題として再定義した永続記憶層である。著者らは、非構造化の対話履歴をセマンティックトリプ...

📄 論文解説: MoEモデルのSSDオフロードはエネルギー効率で有害か

本記事は SSD Offloading for LLM Mixture-of-Experts Weights Considered Harmful in Energy Efficiency(Kyung, Yun, Ahn, 2025)の解説記事です。 論文概要 Mixture-of-Experts(MoE)モデルは、パラメータ数に対して推論時に活性化されるエキスパートの割合が低いため、S...

📄 論文解説: A-MAC — 5因子構造化判定によるLLMエージェントの適応的メモリ入力制御

本記事は Adaptive Memory Admission Control for LLM Agents(Zhang, Jiang et al., 2026)の解説記事です。 論文概要 本論文は、LLMエージェントの長期記憶においてどの情報をメモリに保存すべきかを判断する「メモリ入力制御(Memory Admission Control)」問題に対し、5つの解釈可能な因子による適応的ス...

📄 論文解説: VITA-1.5 — GPT-4oレベルのリアルタイム映像×音声対話を7Bモデルで実現

本記事は VITA-1.5: Towards GPT-4o Level Real-time Vision and Speech Interaction (arXiv:2501.12186) の解説記事です。 論文概要(Abstract) VITA-1.5は、映像・画像・音声・テキストの4つのモダリティをリアルタイムで統合処理するオープンソースのマルチモーダルLLMである。著者らは、前身の...