本記事は Anthropic: Donating the Model Context Protocol and establishing the Agentic AI Foundation の解説記事です。 ブログ概要(Summary) 2025年12月、AnthropicはModel Context Protocol(MCP)をLinux Foundation傘下の新組織「Agenti...
08/03/2026 blog tech_blog
MCP Anthropic Linux Foundation +7
論文概要 ToolSandboxは、Apple Researchが提案した大規模言語モデル(LLM)のツール利用能力を評価するための、ステートフル・対話型ベンチマークである。既存のベンチマークが単発のFunction Calling評価に留まるのに対し、ToolSandboxは状態を持つツール実行環境と対話型ユーザシミュレータを組み合わせ、マルチターンかつ状態依存のタスクに対するLLMの能...
08/03/2026 blog paper
LLM tool use function calling +5
本記事は Google Developers Blog: Announcing the Agent2Agent Protocol の解説記事です。 ブログ概要(Summary) 2025年4月、GoogleはAIエージェント間の相互運用性を実現するオープンプロトコル「Agent2Agent(A2A)」を発表した。50社以上のテクノロジーパートナー(Atlassian、Salesforce...
08/03/2026 blog tech_blog
A2A Google multi-agent +7
本記事は https://arxiv.org/abs/2312.05516 の解説記事です。本記事の著者自身が実験を行ったものではなく、論文の内容を解説・引用したものです。 論文概要(Abstract) Pensieveは、マルチターン会話におけるLLMサービングの効率を大幅に改善するシステムである。従来のステートレスなLLMサービングでは、会話のターンごとに過去の会話履歴を繰り返し再処...
08/03/2026 blog paper
LLM serving KV cache multi-turn conversation +4
本記事は LLM-Inference-Bench: Inference Benchmarking of Large Language Models on AI Accelerators(arXiv:2411.00136、2024年10月31日投稿)の解説記事です。 論文概要(Abstract) Chitty-Venkata et al.は、LLM推論の計算効率性を評価するための包括的なベ...
08/03/2026 blog paper
LLM inference benchmark +5
本記事は The Great Migration: Why Every AI Platform is Converging on Kubernetes(CNCF公式ブログ、2026年3月5日公開)の解説記事です。 ブログ概要(Summary) AmazonのSabari Sawant氏がCNCF公式ブログに寄稿したこの記事は、Kubernetesが単なるマイクロサービスオーケストレーター...
08/03/2026 blog tech_blog
CNCF Kubernetes LLM +7
本記事は Smart Multi-Node Scheduling for Fast and Efficient LLM Inference with NVIDIA Run:ai and NVIDIA Dynamo(NVIDIA Developer Blog、2025年9月29日公開)の解説記事です。 ブログ概要(Summary) NVIDIAのEkin Karabulut氏らが公開したこ...
08/03/2026 blog tech_blog
NVIDIA Dynamo Run:ai +6
本記事は Scaling LLMs with NVIDIA Triton and NVIDIA TensorRT-LLM Using Kubernetes(NVIDIA Developer Blog、2024年10月22日公開、2025年3月18日最終更新)の解説記事です。 ブログ概要(Summary) NVIDIAのMaggie Zhang氏らが公開したこの技術ブログは、NVIDIA ...
08/03/2026 blog tech_blog
NVIDIA Triton TensorRT-LLM +6
本記事は How to deploy and benchmark vLLM with GuideLLM on Kubernetes(Red Hat Developer、2025年12月24日公開)の解説記事です。 ブログ概要(Summary) Red Hat DeveloperのHarshith Umesh氏が公開したこの技術ブログは、LLM推論エンジンvLLMをKubernetes(O...
08/03/2026 blog tech_blog
vLLM Kubernetes GPU +5
ブログ概要(Summary) OpenAIが公開したブログ記事「Why we built the Responses API」では、Chat Completions APIの設計上の制約を克服するためにResponses APIを構築した背景と技術的設計思想が述べられている。推論状態のターン間保持(Reasoning State Preservation)、多態的な出力アイテム(Polym...
08/03/2026 blog tech_blog
OpenAI Responses API API design +3