最近の更新
LLM 362
- 論文解説: SemanticCacheQA — LLMセマンティックキャッシュの効率と精度を評価するベンチマーク 30/03/2026
- OpenTelemetry GenAI SIGが提唱するAIエージェント可観測性の標準化戦略 30/03/2026
- 論文解説: DeepSeek-V3 — MLA+MoE+FP8混合精度で671Bモデルを低コスト学習する技術詳細 29/03/2026
- 論文解説: Methods of Improving LLM Training Stability — QK-NormからRMSNormまでの学習安定化技法 29/03/2026
- 論文解説: Self-RAG — 自己反省トークンによる適応的検索拡張生成 29/03/2026
- 論文解説: FlashAttention-2 — GPU並列性とワーク分割の改善によるAttention高速化 29/03/2026
- 論文解説: QLoRA — 4bit量子化とLoRAの組み合わせで65Bモデルを単一GPUでファインチューニング 29/03/2026
- NVIDIA Tech Blog解説: CUDA Graphsによるllama.cpp推論最適化 — カーネルローンチオーバーヘッドの体系的削減 29/03/2026
- 論文解説: GQA — Grouped-Query AttentionによるKVキャッシュ効率化とMHAからの変換手法 29/03/2026
- Cloudflare Tech Blog解説: Infire — Rust製LLM推論エンジンのエッジ最適化アーキテクチャ 29/03/2026
- 論文解説: Gated Delta Networks — Delta Ruleとゲーティングで線形注意の連想記憶能力を改善する 29/03/2026
- 論文解説: Direct Preference Optimization (DPO) — 報酬モデル不要のLLMアライメント手法 29/03/2026
- 論文解説: DeepSeek-V2 — Multi-Head Latent Attentionによる KVキャッシュ93%削減の設計と実装 29/03/2026
- 論文解説: PagedAttention — LLMサービングのKVキャッシュメモリ管理を仮想メモリ方式で最適化 29/03/2026
- 論文解説: PagedAttention — 仮想メモリ着想のKVキャッシュ管理でLLMサービングを高効率化 29/03/2026
- 論文解説: Orca — Iteration-Level Schedulingによる生成モデルサービングの革新 29/03/2026
- 論文解説: Agents Are Not Enough — 単一エージェントの限界とSociety of Agentsフレームワーク 28/03/2026
- ICLR 2025論文解説: Cascade Routing — LLMルーティングとカスケードの統合フレームワーク 28/03/2026
- 論文解説: FeatureBench — AIコーディングエージェントの新機能実装能力を測定するベンチマーク 28/03/2026
- 論文解説: Pick and Spin — セルフホスト型LLMのマルチモデルオーケストレーション 28/03/2026
- Google Research解説: エージェントシステムのスケーリング科学 — マルチエージェントが機能する条件と失敗する条件の定量分析 28/03/2026
- 論文解説: OneShield Privacy Guard — LLMプライバシーガードレールの実デプロイ比較分析 28/03/2026
- テックブログ解説: NVIDIA AI Blueprint — コスト効率の高いLLMルーティング基盤 28/03/2026
- Anthropic Engineering解説: マルチエージェント研究システムの設計と実装 — 単一エージェント比90.2%の性能向上を実現したアーキテクチャ 28/03/2026
- 論文解説: Reasoning Models Generate Societies of Thought — 推論モデル内部に自発的に創発する思考の社会 28/03/2026
- ICLR 2025論文解説: RouteLLM — 人間の選好データを活用したLLMルーティングフレームワーク 28/03/2026
- 論文解説: Hardware Acceleration of LLMs — GPU・FPGA・ASIC・PIM横断サーベイ 27/03/2026
- 論文解説: LUT-LLM — ルックアップテーブルによるFPGA上のLLM推論高速化 27/03/2026
- 論文解説: The AI Scientist — 完全自動オープンエンド科学的発見に向けて 27/03/2026
- 論文解説: FlightLLM — FPGAによるLLM推論の完全マッピングフロー 27/03/2026
- Google Research解説: Titans + MIRAS — AIに長期記憶を与える統一フレームワーク 25/03/2026
- 論文解説: FluxMem — Beta混合モデルによる適応的メモリ構造選択フレームワーク 25/03/2026
- 論文解説: Memori — セマンティックトリプルで実現する高精度・低コストLLMエージェント記憶層 25/03/2026
- 論文解説: A-MAC — 5因子構造化判定によるLLMエージェントの適応的メモリ入力制御 25/03/2026
- 論文解説: Titans — 推論時ニューラルメモリ更新による200万トークン超の長期記憶 25/03/2026
- 論文解説: SelfCheckGPT — 外部知識不要のLLM幻覚検出手法 24/03/2026
- 論文解説: MT-Bench — LLM-as-a-Judgeパラダイムの実証分析 24/03/2026
- 論文解説: RGB Benchmark — RAGに必要な4能力の体系的評価 24/03/2026
- ACL 2024論文解説: RAGTruth — RAGシステムの幻覚検出コーパスと評価手法 24/03/2026
- 論文解説: RAGAS — RAGパイプラインの自動評価フレームワーク 24/03/2026
- 論文解説: Adaptive Orchestration — マルチエージェントAIシステムの認知アーキテクチャ 23/03/2026
- 論文解説: FlowBench — LLMエージェントのワークフロー型別評価ベンチマーク 23/03/2026
- 論文解説: Tool-Augmented LLMs — 統合アーキテクチャと障害パターンのサーベイ 23/03/2026
- IJCAI 2024論文解説: Large Language Model based Multi-Agents — LLMマルチエージェントの進展と課題の包括的サーベイ 22/03/2026
- NeurIPS 2023論文解説: Toolformer — 言語モデルが自らツール使用を学習する自己教師あり手法 22/03/2026
- ACL 2025論文解説: MultiAgentBench — LLMマルチエージェントの協調・競争を評価するベンチマーク 22/03/2026
- 論文解説: Multi-Agent Collaboration Mechanisms — LLMベースマルチエージェント協調メカニズムの体系的サーベイ 22/03/2026
- 論文解説: AutoGen — マルチエージェント会話によるLLMアプリケーション構築フレームワーク 22/03/2026
- 論文解説: ARES — An Automated Evaluation Framework for Retrieval-Augmented Generation Systems 21/03/2026
- ICML 2024論文解説: LLMガードレールの体系的設計手法 21/03/2026
- 論文解説: FrugalGPT — LLMコスト98%削減のカスケード戦略 21/03/2026
- 論文解説: Llama Guard — LLMベース入出力ガードレールの設計と実装 21/03/2026
- 論文解説: Hybrid Agentic AI and Multi-Agent Systems in Smart Manufacturing — LLMエージェントと従来型MASの融合による処方的保全 20/03/2026
- 論文解説: Why Do Multi-Agent LLM Systems Fail? — マルチエージェントLLMシステムの失敗分類学 20/03/2026
- 論文解説: FD-LLM — 振動センサーデータからの故障診断に特化したLLMフレームワーク 20/03/2026
- 論文解説: Flow-of-Action — SOPに基づくLLMマルチエージェント根本原因分析システム 20/03/2026
- 論文解説: Exploring LLM-based Frameworks for Fault Diagnosis — HVACシステムにおけるマルチLLM故障診断の実証的評価 20/03/2026
- JetBrains Research解説: LLMエージェントのコンテキスト管理 — Observation MaskingとLLM要約の比較 20/03/2026
- 論文解説: CRAG — 検索品質を自己評価・修正するCorrective RAG 20/03/2026
- 論文解説: RAGAS — RAGシステムの自動評価フレームワーク 20/03/2026
- MLSys 2024論文解説: Prompt Cache — Modular Attention Reuse for Low-Latency Inference 20/03/2026
- 論文解説: Recursively Summarizing Enables Long-Term Dialogue Memory in LLMs 20/03/2026
- 論文解説: FrugalGPT — 複数LLMのカスケード戦略によるコスト削減と精度向上 20/03/2026
- Redis AI Agent Memory: ステートフルAIシステムのためのメモリアーキテクチャ解説 20/03/2026
- 論文解説: CacheBlend — RAGにおけるKVキャッシュ融合による高速LLM推論 20/03/2026
- 論文解説: RouteLLM — 選好データに基づくLLMルーティングフレームワーク 20/03/2026
- 論文解説: SWE-RL — 強化学習によるLLMのソフトウェアエンジニアリング推論能力の向上 20/03/2026
- 論文解説: SWE-bench Verified — LLMコーディングエージェント評価の業界標準ベンチマーク 20/03/2026
- 論文解説: OpenHands — An Open Platform for AI Software Agents 20/03/2026
- 論文解説: ChatDev — Communicative Agents for Software Development 20/03/2026
- 論文解説: Gemini 1.5 — 100万トークン長文脈理解を実現するMoEアーキテクチャ 20/03/2026
- 論文解説: LLMs Get Lost In Multi-Turn Conversation 20/03/2026
- 論文解説: SWE-agent — Agent-Computer Interfaces Enable Automated Software Engineering 20/03/2026
- 論文解説: Efficient Memory Management for Large Language Model Serving with PagedAttention 20/03/2026
- 論文解説: ToolBeHonest — ツール使用LLMの幻覚を多層的に診断するベンチマーク 18/03/2026
- 論文解説: Learning to Rewrite Tool Descriptions for Reliable LLM-Agent Tool Use 18/03/2026
- 論文解説: LLM Agents Making Agent Tools — 研究論文からツールを自動構築するToolMaker 18/03/2026
- 論文解説: ToolACE — LLM Function Calling訓練データの自動生成パイプライン 18/03/2026
- 論文解説: Efficient Tool Use with Chain-of-Abstraction Reasoning 18/03/2026
- 論文解説: Agentic AI for Enterprise - Multi-Agent Orchestration with Guardrails 15/03/2026
- OpenTelemetry公式ブログ解説: LLMアプリケーションの可観測性設計パターン 14/03/2026
- BAIR Blog解説: The Shift from Models to Compound AI Systems — モノリシックモデルから複合AIへの転換 14/03/2026
- Anthropic Research解説: Building Effective AI Agents — エージェント設計パターンの実践ガイド 14/03/2026
- EMNLP 2025論文解説: How Good are LLM-based Rerankers? — リランキングモデルの実証分析 14/03/2026
- ICLR 2025論文解説: RouteLLM — 人間の嗜好データからLLMルーティングを学習する 14/03/2026
- 論文解説: Retrieval-Augmented Generation for Large Language Models — RAGパイプライン設計の体系的整理 14/03/2026
- vLLM公式ブログ解説: How Speculative Decoding Boosts vLLM Performance — 実装と性能評価 13/03/2026
- 論文解説: Fast Inference from Transformers via Speculative Decoding — 投機的デコーディングの原論文 13/03/2026
- 論文解説: EAGLE-3 — 学習時テストスケーリングによるLLM投機的デコーディングの進化 13/03/2026
- 論文解説: Medusa — 複数デコーディングヘッドによるLLM推論高速化フレームワーク 13/03/2026
- 論文解説: EAGLE — Feature Uncertaintyの再考によるLLM投機的デコーディングの高速化 13/03/2026
- Google Research解説: ユーザーレベル差分プライバシーによるLLMファインチューニング 12/03/2026
- 論文解説: FedKSeed — ゼロ次最適化による勾配不要の連合LLMファインチューニング 12/03/2026
- 論文解説: HetLoRA — 異種LoRA構成による通信効率的な連合LLMファインチューニング 12/03/2026
- ACL 2025論文解説: GNN-RAG — GNNの推論とLLMの言語理解を融合した知識グラフ質問応答 12/03/2026
- 論文解説: FLoRA — LoRAアダプタは勾配圧縮器である 12/03/2026
- 論文解説: Hybrid LLM — Conformal Predictionによる品質保証付きLLMルーティング 12/03/2026
- 論文解説: FrugalGPT — LLM APIコストを最大98%削減するカスケード戦略 12/03/2026
- 論文解説: MeanCache — ユーザー中心セマンティックキャッシュによるLLMサービスコスト削減 12/03/2026
- 論文解説: OpenFedLLM — 分散プライベートデータによるLLMの連合学習フレームワーク 12/03/2026
- ICLR 2025論文解説: RouteLLM — 嗜好データを用いたLLMルーティングによるコスト効率的推論 12/03/2026
- ICML 2025論文解説: EncryptedLLM — GPU加速FHEによるプライバシー保護LLM推論 12/03/2026
- Microsoft Research解説: PromptWizard — フィードバック駆動の自己進化型プロンプト最適化 11/03/2026
- NeurIPS 2024論文解説: Teach Better or Show Smarter? — 命令最適化 vs 例示最適化の体系的比較 11/03/2026
- 論文解説: GEPA — 反省的プロンプト進化が強化学習を超える(ICLR 2026 Oral) 11/03/2026
- 論文解説: TextGrad — テキストによる自動微分でLLMパイプラインを最適化する 11/03/2026
- 論文解説: DSPy — 宣言的LMパイプラインを自己改善コンパイラで最適化するフレームワーク 11/03/2026
- EMNLP 2025論文解説: GRPO-LEAD - 難易度考慮型GRPOによる簡潔な数学推論 10/03/2026
- NVIDIA NeMo-RL: GRPOによるDeepScaleRレシピの再現と大規模RL学習基盤 10/03/2026
- 論文解説: DAPO - 大規模GRPO学習の4つの失敗パターンとその解決策 10/03/2026
- 論文解説: DeepSeek-R1 - 強化学習によるLLM推論能力の段階的獲得パイプライン 10/03/2026
- 論文解説: DeepSeekMath - Group Relative Policy Optimization(GRPO)による数学推論の限界突破 10/03/2026
- テックブログ解説: Sufficient Context — RAGにおけるコンテキスト十分性の新しいレンズ(Google Research / ICLR 2025) 09/03/2026
- OpenAI Cookbook解説: Self-Evolving Agents — 自律的プロンプト最適化による自己進化エージェント 09/03/2026
- AWS解説: Amazon Bedrock Intelligent Prompt Routing - マネージドLLMルーティングの実装と設計 09/03/2026
- 論文解説: AutoMix - 追加学習不要の自己検証型LLMカスケードルーティング 09/03/2026
- 論文解説: AI駆動の自己修復ネットワーク制御プレーン — DRL+LLMハイブリッドアーキテクチャ 09/03/2026
- 論文解説: RAG vs ロングコンテキストLLMの包括的比較とSelf-Routeハイブリッド手法 09/03/2026
- 論文解説: Hybrid LLM - 品質保証付きコスト効率クエリルーティング 09/03/2026
- 論文解説: SELF-ROUTE — LLMの自己判定によるRAG/ロングコンテキスト動的ルーティング 09/03/2026
- NVIDIA AI Blueprint解説: コスト効率の高いLLMルーティングの実装アーキテクチャ 09/03/2026
- テックブログ解説: Context Rot — 入力トークン増加がLLM性能に与える影響(Chroma Research) 09/03/2026
- 論文解説: Kubernetes環境における自律エージェントの会話型インターフェース 09/03/2026
- 論文解説: RouteLLM - 選好データを活用したLLMルーティングフレームワーク 09/03/2026
- 論文解説: EvoAgent — 継続的探索によるエージェント自己進化フレームワーク 09/03/2026
- 論文解説: LaRA — RAGとロングコンテキストLLMのベンチマーク比較(ICML 2025) 09/03/2026
- 論文解説: CacheBlend - RAG向けKVキャッシュ融合によるLLM推論高速化 08/03/2026
- Anthropic Model Context Protocol (MCP)解説:LLMツール統合のオープン標準 08/03/2026
- 論文解説: MCP Safety Audit — MCPエコシステムのセキュリティ脅威分類とLLM脆弱性評価 08/03/2026
- 論文解説: ToolSandbox - LLMツール利用能力のステートフル評価ベンチマーク 08/03/2026
- 論文解説: LLM-Inference-Bench — マルチプラットフォームLLM推論ベンチマーク 08/03/2026
- CNCFブログ解説: すべてのAIプラットフォームがKubernetesに収斂する理由 08/03/2026
- NVIDIA技術ブログ解説: Run:ai + DynamoによるマルチノードスケジューリングでのLLM推論最適化 08/03/2026
- NVIDIA技術ブログ解説: Triton + TensorRT-LLMによるKubernetes上のLLMスケーリング 08/03/2026
- Red Hat技術ブログ解説: KubernetesでvLLMをデプロイしGuideLLMでベンチマークする実践ガイド 08/03/2026
- OpenAI Responses API設計思想の解説:Assistants APIからの進化と技術的背景 08/03/2026
- NVIDIA技術ブログ解説: Mastering LLM Techniques - 推論最適化の実践ガイド 07/03/2026
- OSDI 2022論文解説: Orca - Iteration-Level SchedulingによるLLMサービング最適化 07/03/2026
- 論文解説: SGLang - RadixAttentionとZero-Overhead Schedulerによる高性能LLM推論 07/03/2026
- 論文解説: BatchLLM - 大規模バッチLLM推論のGlobal Prefix SharingとToken Batching最適化 07/03/2026
- 論文解説: Efficient Memory Management for Large Language Model Serving with PagedAttention 07/03/2026
- 論文解説: Evaluating AGENTS.md — リポジトリレベルコンテキストファイルはコーディングエージェントに有効か 06/03/2026
- 論文解説: AutoTool — グラフベースのツール遷移確率によるLLMエージェントの効率的ツール選択 05/03/2026
- LLMトークン最適化: セマンティックキャッシュとプロンプト圧縮によるコスト・レイテンシ削減 05/03/2026
- 論文解説: Toolshed — RAG-Tool Fusionによる大規模ツール選択のスケーリング手法 05/03/2026
- LLMアプリケーションにおけるリトライ・フォールバック・サーキットブレーカーの使い分け 05/03/2026
- 論文解説: Don't Break the Cache — エージェントタスクにおけるプロンプトキャッシュの最適設計 05/03/2026
- 論文解説: SemCache — LLM推論のためのセマンティックキャッシュの精度と粒度を改善する 05/03/2026
- 論文解説: Agentic Plan Caching — LLMエージェントのコスト削減を実現するテスト時計画キャッシュ 05/03/2026
- 論文解説: Scaling LLM Test-Time Compute — 推論時間計算量の最適配分による性能向上 04/03/2026
- 論文解説: DeepSeek-V3 Technical Report — 671B MoEモデルの設計と効率的学習 04/03/2026
- 論文解説: SRE-Agent — LLMマルチエージェントによるSREタスク自動化フレームワーク 03/03/2026
- 論文解説: SWE-RL — 強化学習によるLLMのソフトウェアエンジニアリング推論能力の強化 28/02/2026
- 論文解説: Agentless — エージェント不要のシンプルなパイプラインでSWE-benchを解く 28/02/2026
- 論文解説: SWE-agent — Agent-Computer Interface設計がLLMエージェントのソフトウェアエンジニアリング性能を決める 28/02/2026
- 論文解説: Qwen2.5-Coder — 5.5兆トークンで学習したオープンソースコーディングLLMの設計と性能 27/02/2026
- NVIDIA解説: NVFP4 KV Cacheで長コンテキストLLM推論を最適化 — メモリ50%削減・TTFT 3倍高速化 24/02/2026
- Meta AI解説: 量子化Llamaモデル — QATとSpinQuantで推論速度2.5倍・モデルサイズ56%削減 24/02/2026
- Google Research解説: ReAct — 推論と行動のシナジーによるLLMエージェントの基盤パラダイム 24/02/2026
- 論文解説: AdaptiveRAG — クエリ複雑度分類器でRAG構成を動的適応し35%コスト削減 24/02/2026
- 論文解説: プロンプトキャッシュ戦略の体系的分析 — Claude/GPT-4/GeminiのAPIコスト60-80%削減 24/02/2026
- 論文解説: CodeAct — 実行可能コードでLLMエージェントの行動空間を統一する 24/02/2026
- MLSys 2024 Best Paper解説: AWQ — 活性化ベース重み量子化でLLMを4bitに圧縮 24/02/2026
- Databricks Research解説: Long Context RAGにおけるLLM性能の大規模ベンチマーク 24/02/2026
- NeurIPS 2024論文解説: KVQuant — KVキャッシュ量子化で1000万トークンコンテキストを実現 24/02/2026
- 論文解説: FrugalGPT — LLMカスケード・プロンプト適応・近似の3戦略で最大98%コスト削減 24/02/2026
- 論文解説: ReWOO — 観察を分離した効率的エージェント推論でトークン消費を大幅削減 24/02/2026
- 論文解説: Agentic RAG — 自律エージェント型RAGアーキテクチャのサーベイ 24/02/2026
- 論文解説: RouteLLM — 選好データから学習するLLMルーターで推論コストを2倍以上削減 24/02/2026
- MLSys 2024論文解説: Prompt Cache — モジュラーAttention再利用による低レイテンシ推論 24/02/2026
- ICML 2024論文解説: LATS — モンテカルロ木探索でLLMエージェントの推論・行動・計画を統合 24/02/2026
- SOSP 2023論文解説: Efficient Memory Management for Large Language Model Serving with PagedAttention 24/02/2026
- ICML 2025論文解説: LaRA — RAGとLong-Context LLMのベンチマーク比較 24/02/2026
- 論文解説: Don't Break the Cache — プロンプトキャッシュの3社比較評価 24/02/2026
- 論文解説: syftr — Bayesian最適化によるRAGパイプラインのPareto最適構成探索 24/02/2026
- 論文解説: Don't Do RAG — Cache-Augmented Generation(CAG)がRAGを置き換える条件 24/02/2026
- 論文解説: Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 24/02/2026
- NeurIPS 2023論文解説: Reflexion — 言語フィードバックによる自己改善エージェント 24/02/2026
- 論文解説: CachedAttention — マルチターン会話のKVキャッシュ再利用でTTFT 2.8倍高速化 23/02/2026
- Anthropic公式解説: Claude Prompt Cachingの技術仕様と最適化戦略 23/02/2026
- 論文解説: Towards Optimizing the Costs of LLM Usage — 品質予測とLP緩和によるLLMコスト40-90%削減 23/02/2026
- NVIDIA Developer Blog解説: AI Blueprint for Cost-Efficient LLM Routingの実装アーキテクチャ 23/02/2026
- 論文解説: LLMによるノーコード開発の適性要因 — エンドユーザーIoTアプリケーション開発への適用 23/02/2026
- 論文解説: Text-to-SQL based QA on Product Catalogs — RAG vs SQL の定量比較 23/02/2026
- 論文解説: CHASE-SQL — マルチパス推論×DPO候補選択でBIRDベンチマーク73.0%を達成したText-to-SQL 23/02/2026
- 論文解説: RAGCache — RAG向けKVキャッシュでTTFTを最大4倍高速化 23/02/2026
- 論文解説: DistServe — Prefill/Decode分離によるGoodput最適化LLMサービング 23/02/2026
- 論文解説: CoALA — 認知アーキテクチャに基づくLLMエージェントのメモリ分類体系 23/02/2026
- ICLR 2024論文解説: MiniLLM — 逆KLダイバージェンスによるLLMオンポリシー蒸留 23/02/2026
- COLING 2025論文解説: MAC-SQL — マルチエージェント協調によるText-to-SQLフレームワーク 23/02/2026
- AWS公式解説: Letta(旧MemGPT)がAurora PostgreSQL + pgvectorでプロダクション向けAIエージェントを構築する方法 23/02/2026
- AWS公式解説: Amazon Bedrockプロンプトキャッシュの技術仕様とConverse API実装 23/02/2026
- AWS公式解説: Amazon Bedrock Cross-Region Inferenceでスロットリングを解消しスループットを向上させる 23/02/2026
- サーベイ解説: A Survey of Vibe Coding with Large Language Models — 制約付きMDPによる形式化と5つの開発モデル 23/02/2026
- 論文解説: ROUTE — マルチタスクFTとエキスパートLLM協調でText-to-SQL精度76.4%を達成 23/02/2026
- 論文解説: StructRAG — 推論時ハイブリッド情報構造化によるRAGの知識集約的推論強化 23/02/2026
- NeurIPS 2024論文解説: Compact Language Models via Pruning and Knowledge Distillation (Minitron) 23/02/2026
- COLING 2025論文解説: MAC-SQL — Selector・Decomposer・Refinerによるマルチエージェント協調Text-to-SQL 23/02/2026
- AWS公式解説: Amazon Bedrockのコスト最適化戦略 — 7つの手法で推論コストを最大90%削減 23/02/2026
- 論文解説: LLM4FaaS — LLMとFunction-as-a-Serviceで実現するノーコードアプリケーション開発 23/02/2026
- 論文解説: Llumnix — ライブマイグレーションによるLLM推論の動的スケジューリング 23/02/2026
- 論文解説: FrugalGPT — カスケード型LLMルーティングでコスト最大98%削減 23/02/2026
- NeurIPS 2024論文解説: HippoRAG — 海馬モデルに基づくLLMの長期記憶型RAGアーキテクチャ 23/02/2026
- CIDR 2025論文解説: AOP — DAGベース並列実行によるLLMパイプライン自動オーケストレーション 23/02/2026
- LangChain公式解説: LCEL(LangChain Expression Language)の設計思想とRunnable API 23/02/2026
- AWS公式ブログ解説: Bedrock Intelligent Prompt Routingのコスト・レイテンシ最適化戦略 23/02/2026
- Anthropic解説: Model Context Protocol (MCP) — AIアシスタントと外部データを接続する標準プロトコル 23/02/2026
- 論文解説: MemEngine — LLMエージェントメモリの統一モジュラーフレームワーク 23/02/2026
- 論文解説: Mem0 — ベクトルDB×グラフDBで実現するプロダクション向けLLMエージェント長期記憶 23/02/2026
- サーベイ解説: A Survey of NL2SQL with Large Language Models — LLMベースText-to-SQLの体系的分類 23/02/2026
- ICML 2025論文解説: A Unified Approach to Routing and Cascading for LLMs — ルーティングとカスケードの統一的最適化 23/02/2026
- 論文解説: ALCE — LLMの引用付きテキスト生成を自動評価するベンチマーク 23/02/2026
- 論文解説: DIN-SQL — 分解型In-Context Learningで実現するText-to-SQL自己修正パイプライン 23/02/2026
- ICLR 2025論文解説: CHASE-SQL — マルチパス推論と選好最適化によるText-to-SQL 23/02/2026
- 論文解説: Vibe Coding — AIとの対話によるプログラミングの実証分析 23/02/2026
- 論文解説: Agentic Retrieval-Augmented Generation — エージェント型RAGアーキテクチャの体系的分類 23/02/2026
- 論文解説: RouteLLM — 選好データに基づくLLMルーティングでコスト85%削減 23/02/2026
- 論文解説: PipeRAG — パイプライン並列化によるRAG高速化のアルゴリズム・システム協調設計 23/02/2026
- 論文解説: MemGPT — OS仮想メモリ概念でLLMエージェントの長期記憶を実現する 23/02/2026
- CIDR 2025論文解説: Text2SQL is Not Enough — TAGフレームワークによるDB×LLM推論の統合 23/02/2026
- NeurIPS 2025論文解説: A-MEM — Zettelkasten方式によるLLMエージェントの自律的メモリ管理 23/02/2026
- 論文解説: HELMET — 51モデルで検証する長コンテキストLLMの効果的な評価フレームワーク 22/02/2026
- 論文解説: Optima — LLMベースマルチエージェントシステムの効果と効率を同時最適化するフレームワーク 22/02/2026
- 論文解説: LLM-based ACR — 14モデル×8データセットによる自動コードレビューの実証研究 22/02/2026
- 論文解説: Don't Break the Cache — プロンプトキャッシュのエージェントタスクにおける体系的評価 22/02/2026
- サーベイ解説: コードレビューベンチマークの変遷 — Pre-LLM時代からLLM時代への評価実践の体系的分析 22/02/2026
- 論文解説: Nexus — ドメイン特化スーパーバイザーの専門化と階層集約によるマルチエージェントシステム 22/02/2026
- 論文解説: CodeReviewBench — LLM自動コードレビューの4軸包括的ベンチマーク 22/02/2026
- 論文解説: LongCodeBench — 1MトークンコンテキストにおけるコーディングLLMの体系的評価 22/02/2026
- 論文解説: Towards a Theoretical Understanding of Why and When Multi-Agent Workflows Work Better than Single-Agent Workflows 22/02/2026
- 論文解説: Agentless — エージェントレス設計でLLMベースのソフトウェアエンジニアリングを再考する 22/02/2026
- 論文解説: On the Design and Analysis of LLM-Based Algorithms — 自己修正・アンサンブル・外部検証の理論的分析 22/02/2026
- 論文解説: Agent-R — MCTSベースの反復的自己訓練でLLMエージェントに自己反省能力を獲得させる 22/02/2026
- 論文解説: SWE-RL — オープンソースコード進化データによる強化学習でLLMコーディングエージェントを強化する 22/02/2026
- 論文解説: From Local to Global — GraphRAGによるクエリ指向要約の知識グラフアプローチ 22/02/2026
- AWS公式ブログ解説: Amazon MemoryDBによる永続セマンティックキャッシュでLLMワークロードを高速化・コスト削減 22/02/2026
- Anthropic解説: Code Execution with MCP — プログラマティックツール呼び出しでトークン消費98.7%削減 22/02/2026
- 論文解説: Smart RAG — クエリ分解×知識源評価×適応生成でRAG精度を段階的に改善 22/02/2026
- 論文解説: Multi-Agent Collaboration Mechanisms — LLMマルチエージェント協調の分類体系と設計指針 22/02/2026
- 論文解説: CoRAG — Chain-of-Retrieval Augmented Generation 22/02/2026
- 論文解説: OctoTools — DAG並列実行で推論時間47%削減の拡張可能なエージェントフレームワーク 22/02/2026
- 論文解説: MCTS-RAG — モンテカルロ木探索で小規模LMの検索拡張推論を飛躍的に強化 22/02/2026
- 論文解説: Speculative RAG — 並列ドラフト生成によるRAG高速化と精度向上の同時達成 22/02/2026
- Google解説: Gemini 3 API主要アップデート — thinking_level・media_resolution・Thought Signaturesの技術詳細 22/02/2026
- 論文解説: MCP-Zero — MCPエージェントのための能動的ツール発見フレームワーク 22/02/2026
- 論文解説: CoRAG — 反復的検索クエリ連鎖で知識集約型QAの精度を大幅向上 22/02/2026
- 論文解説: Semantic Caching for LLM-Driven RAG Systems — コスト効率の高いセマンティックキャッシュ戦略 22/02/2026
- 論文解説: MAESTRO — Multi-Agent Evaluation and Testing for Real-world Orchestration 22/02/2026
- サーベイ解説: Agentic RAG — エージェント型検索拡張生成の体系的分類と設計パターン 22/02/2026
- 論文解説: RouterBench — LLMルーターの包括的ベンチマークによるマルチソースルーティング最適化 22/02/2026
- 論文解説: PyramidKV — KVキャッシュ12%でFull精度の99%を維持する動的圧縮手法 22/02/2026
- 論文解説: FrugalGPT — 複数LLMカスケードによるコスト最大98%削減 22/02/2026
- 論文解説: Benchmarking Large Language Models for Vulnerability Detection — LLM脆弱性検出の定量評価 21/02/2026
- 論文解説: Not What You've Signed Up For — 間接プロンプトインジェクションの体系的脅威分析 21/02/2026
- 論文解説: Prompt Injection Attacks on Agentic Coding Assistants — 5製品の実証評価 21/02/2026
- NVIDIA Technical Blog解説: Teacher-Studentパラダイムで小規模LLMのコードレビュー精度を18%向上 21/02/2026
- 論文解説: WebArena — 812タスクの現実的Web環境で自律エージェントを評価する 21/02/2026
- 論文解説: Large Language Models are Zero-Shot Reasoners 21/02/2026
- Microsoft Research解説: CORE — LLMのProposer-Rankerアーキテクチャで静的解析の指摘を自動修正 21/02/2026
- Anthropic解説: Effective Context Engineering for AI Agents 21/02/2026
- 論文解説: A-RAG — 階層的検索インターフェースによるエージェントRAGのスケーリング 21/02/2026
- 論文解説: MLE-bench — 75のKaggleコンペでMLエンジニアリングエージェントを評価する 21/02/2026
- 論文解説: Reasoning Language Models: A Blueprint — 推論言語モデル構築の体系的設計図 21/02/2026
- 論文解説: GAIA — 汎用AIアシスタントの実力を測る466タスクベンチマーク 21/02/2026
- 論文解説: Tree of Thoughts — LLMによる探索的問題解決フレームワーク 21/02/2026
- サーベイ解説: リランキングモデルの進化 — ヒューリスティクスからLLMまでの体系的分類 21/02/2026
- 論文解説: LLM4CR — RAGとイテレーティブリファインメントによるLLMベースコードレビュー自動化 21/02/2026
- 論文解説: τ-bench — ツール・エージェント・ユーザー三者間対話の信頼性ベンチマーク 21/02/2026
- 論文解説: Self-Consistency Improves Chain of Thought Reasoning in Language Models 21/02/2026
- NVIDIA解説: Agent Morpheus — 生成AIによるエンタープライズCVE分析の自動化 21/02/2026
- NeurIPS 2024論文解説: RankRAG — コンテキストランキングとRAGを単一LLMで統合する 21/02/2026
- 論文解説: SWE-bench — 実世界GitHubイシューでLLMのソフトウェアエンジニアリング能力を評価する 21/02/2026
- 論文解説: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 21/02/2026
- EMNLP 2024論文解説: CodeAgent — マルチエージェントLLMによる自律的コードレビューシステム 21/02/2026
- 論文解説: Chain-of-Retrieval Augmented Generation — 反復的クエリ再構成でマルチホップQAの精度を向上 20/02/2026
- 論文解説: Query Routing for Homogeneous Tools — 同種ツール間の軽量クエリルーティング手法 20/02/2026
- 論文解説: AdaptiveRAG — クエリ分類×適応的検索戦略でRAGの精度とコストを両立する 20/02/2026
- 論文解説: SRAG — マルチホップ質問応答のための構造化RAG 20/02/2026
- 論文解説: RouteLLM — 人間選好データによるLLMコスト最適化ルーティング 20/02/2026
- 論文解説: RULER — Needle-in-a-Haystackの先にあるロングコンテキストLLM評価の決定版 20/02/2026
- Anthropic解説: Effective Context Engineering for AI Agents — LLMの注意予算を最適化する実践戦略 20/02/2026
- 論文解説: Agentic AI Systems in Financial Services — マルチエージェントLLMの信頼性設計パターン 20/02/2026
- 論文解説: TTT-E2E — テスト時学習でロングコンテキストLLMのメモリ・速度限界を突破する 20/02/2026
- 論文解説: Strategic and Selective Mixtures — LLMルーティングとカスケードの実装判断ガイド 20/02/2026
- EMNLP 2023論文解説: Query Rewriting for Retrieval-Augmented Large Language Models 20/02/2026
- NeurIPS 2024論文解説: Found in the Middle — Ms-PoEでLost in the Middle問題を解決する 20/02/2026
- 論文解説: A Systematic Review of Reliability Frameworks for Production LLM Systems 20/02/2026
- 論文解説: Corrective Retrieval Augmented Generation (CRAG) 20/02/2026
- 論文解説: MetaGPT — SOP駆動マルチエージェント協調フレームワーク 20/02/2026
- 論文解説: Lost in the Middle — LLMはロングコンテキストをどう使うか 20/02/2026
- AWS公式解説: LlamaIndex×Amazon Bedrockで構築するAgentic RAGアプリケーション 19/02/2026
- ACL 2025論文解説: MAIN-RAG — マルチエージェント協調フィルタリングでRAGの検索ノイズを解消する 19/02/2026
- 論文解説: LightRAG — デュアルレベル検索とインクリメンタル更新で実現する軽量グラフRAG 19/02/2026
- 論文解説: GraphRAG — ナレッジグラフとコミュニティ構造でRAGをグローバルに拡張する 19/02/2026
- 論文解説: Agentic RAG — 自律エージェントによる検索拡張生成の包括的サーベイ 19/02/2026
- 論文解説: Muon + MLA + MoE — 3技術統合で68%メモリ削減・3.2倍推論高速化を実現 19/02/2026
- 論文解説: MegaScale-MoE — 1,440 GPU上で1.88倍高速化を実現するMoE学習システム 19/02/2026
- 論文解説: DeepSeekMath — GRPOによるLLM数学推論の限界突破 19/02/2026
- 論文解説: Kimi K2 — 1兆パラメータMoE+MuonClipで実現するオープンエージェント知能 19/02/2026
- 論文解説: Muon is Scalable for LLM Training — Newton-Schulz直交化による2倍効率のオプティマイザ 19/02/2026
- 論文解説: JOrthoBench — 日本語表記ゆれによるLLM評価の盲点を暴く 19/02/2026
- 論文解説: MetaLLM — Multi-Armed Banditによるコスト効率最適のLLMルーティングフレームワーク 19/02/2026
- 論文解説: DeepSeek-V3 Technical Report — 671B MoEモデルの革新的アーキテクチャと$560万学習の全貌 19/02/2026
- 論文解説: AutoMix — 自己検証とPOMDPによるLLM自動カスケードルーティング 19/02/2026
- AWS技術ブログ解説: LLM-as-a-Judge on Amazon Bedrock — マネージドLLM評価の実装ガイド 19/02/2026
- 論文解説: RouterBench — LLMルーター評価のための標準ベンチマーク 19/02/2026
- NVIDIA技術ブログ解説: Mastering LLM Techniques: Evaluation — LLM・RAG評価の包括的ガイド 19/02/2026
- ICLR 2024論文解説: Hybrid LLM — クエリ難易度予測によるコスト効率的なLLMルーティング 19/02/2026
- 論文解説: PromptEval — プロンプトエンジニアリングの「何が重要か」を定量評価するフレームワーク 19/02/2026
- 論文解説: FrugalGPT — LLMカスケードで最大98%コスト削減を実現する合成フレームワーク 19/02/2026
- 論文解説: Evaluation-Driven Development and Operations(EDD)— LLMエージェントのライフサイクル評価統合パラダイム 19/02/2026
- ICLR 2025論文解説: RouteLLM — 選好データで学習するLLMルーティングフレームワーク 19/02/2026
- NVIDIA解説: Mixture of Expertsが最先端AIモデルを駆動する仕組み 19/02/2026
- 論文解説: When Better Prompts Hurt — 評価駆動プロンプト開発(EDPD)フレームワーク 19/02/2026
- Anthropic解説: A Statistical Approach to Model Evaluations — LLM評価に統計的厳密性を導入する5つの提言 18/02/2026
- 論文解説: Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena 18/02/2026
- 論文解説: Progressive Rollout Strategies for LLM Updates — カナリア・ブルーグリーン・シャドウの段階的ロールアウト戦略 18/02/2026
- 論文解説: Lost in the Middle — LLMが長文コンテキストの中間を無視するU字型性能曲線の発見 18/02/2026
- Microsoft Research解説: LLMLinguaシリーズ — プロンプト圧縮技術の進化と20倍圧縮の実現 18/02/2026
- Microsoft Research解説: How to Evaluate LLMs — 本番LLM評価のための完全メトリクスフレームワーク 18/02/2026
- NVIDIA技術ブログ解説: Mastering LLM Techniques: LLMOps — 本番LLMパイプラインの設計パターン 18/02/2026
- 論文解説: MemGPT — OS仮想メモリをLLMに適用し無限コンテキストを実現するアーキテクチャ 18/02/2026
- 論文解説: PromptOps — プロダクション向けプロンプトバージョニングとライフサイクル管理 18/02/2026
- 論文解説: LLMLingua-2 — GPT-4蒸留によるタスク非依存プロンプト圧縮で3-6倍高速化 18/02/2026
- 論文解説: Quality Gates in LLM Development — 評価からデプロイまでの品質ゲート体系 18/02/2026
- 論文解説: NoLiMa — 非リテラルマッチングで暴くLLM長文理解の真の限界 18/02/2026
- 論文解説: State of What Art? — マルチプロンプトLLM評価の必要性 18/02/2026
- 論文解説: Chatbot Arena — 人間の選好投票によるLLM評価プラットフォーム 18/02/2026
- 論文解説: Sarathi — Chunked PrefillとDecode Piggybackingで推論レイテンシを最大74%削減 17/02/2026
- 論文解説: SGLang — RadixAttentionによるKVキャッシュ再利用で構造化LLMプログラムを最大5倍高速化 17/02/2026
- 論文解説: Prompt Cache — モジュラーKVキャッシュ再利用でLLM推論TTFTを3.5倍高速化 17/02/2026
- 論文解説: Orca — イテレーションレベルスケジューリングでLLM推論スループットを36.9倍に 17/02/2026
- 論文解説: PagedAttention — 仮想メモリ着想のKVキャッシュ管理でLLM推論スループットを最大4倍に 17/02/2026
- 論文解説: SWE-bench — 実世界GitHubイシューでLLMのソフトウェアエンジニアリング能力を測る 17/02/2026
- COLING 2025論文解説: Benchmark Self-Evolving — マルチエージェントによる動的LLM評価フレームワーク 17/02/2026
- Microsoft Research解説: LLM評価のための完全メトリクスフレームワーク — GPU利用率からユーザー満足度まで 17/02/2026
- NeurIPS 2024論文解説: LLM-Check — LLMのHallucination検出手法の体系的評価 17/02/2026
- Amazon Bedrock Automated Reasoningによる数学的LLM出力検証 17/02/2026
- NeurIPS 2025論文解説: Multi-Agent Collaboration via Evolving Orchestration — 強化学習で進化する操り人形師パラダイム 17/02/2026
- USENIX事例報告: CI/CDにLLM推論を組み込んだ際の信頼性問題と5つのガードレール設計 17/02/2026
- NVIDIA ToolOrchestra: 小型モデルで大型LLMを指揮する — Orchestrator-8Bの強化学習ベースオーケストレーション 17/02/2026
- NVIDIA NeMo Guardrailsのストリーミング検証アーキテクチャ解説 17/02/2026
- 論文解説: PromptBench — LLM評価を統一するベンチマークライブラリの設計と実装 17/02/2026
- 論文解説: Llama Guard — LLMベースの入出力セーフガードモデル 17/02/2026
- 論文解説: NeMo Guardrails - プログラマブルなLLM安全性制御フレームワーク 17/02/2026
- 論文解説: Mixture-of-Agents — 複数LLMの階層的協調で単体GPT-4oを超える 17/02/2026
- 論文解説: HaloScope — ラベルなしLLM生成文からのHallucination検出 17/02/2026
- 論文解説: ReAct - Synergizing Reasoning and Acting in Language Models 16/02/2026
- Anthropic Agent Skills解説:プロダクション環境でのLLMエージェント拡張戦略 15/02/2026
- 論文解説: プロンプト圧縮でトークン数40-60%削減: 文レベル符号化による高速LLM推論 15/02/2026
- 論文解説: LLMサービング性能ベンチマーク: レイテンシ・スループット・コスト最適化の徹底比較 15/02/2026
- 論文解説: LLM生成パラメータのコスト最適化: ベイズ最適化で20-40%削減 15/02/2026
- 論文解説: Beyond ChatGPT: 50社以上の本番LLMデプロイ実態調査とコスト構造分析 15/02/2026
- 論文解説: Infinite-LLM: 分散KVキャッシュで100万トークンのコンテキストを低コストで処理 15/02/2026
- Meta Code Llama解説: オープンソースで実現する最先端コード生成 15/02/2026
- 論文解説: LLMベースのコード生成エージェント完全サーベイ 15/02/2026
- カンファレンス論文解説: AvaTaR - LLMエージェントのツール使用最適化 15/02/2026
- Speculative RAG: Draftingで推論を高速化する最新手法 15/02/2026
- 論文解説: SE 3.0 - AI-Nativeソフトウェア工学の新パラダイム 15/02/2026
- RAGアーキテクチャと堅牢性: 設計空間の全体像 15/02/2026
- RAG完全サーベイ: 基礎から最先端まで進化の全体像 15/02/2026
- 論文解説: AgentBench - LLMエージェント評価の決定版ベンチマーク 15/02/2026