本記事は Hardware Acceleration of LLMs: A comprehensive survey and comparison の解説記事です。 論文概要(Abstract) 本サーベイは、LLM推論のハードウェア高速化に関する包括的な調査と比較を提供する。著者らはGPU、FPGA、ASIC、In-Memory Processing(PIM)の4つのハードウェアプラッ...
本記事は arXiv:2408.08435 “Automated Design of Agentic Systems”(Hu et al., 2024)の解説記事です。 論文概要(Abstract) Hu, Lu, Clune(University of British Columbia, 2024年8月)は、エージェントシステムの設計そのものを自動化する新しい研究問題「ADAS(Aut...
本記事は AWS and Cerebras Collaboration Aims to Set a New Standard for AI Inference Speed and Performance in the Cloud の解説記事です。 ブログ概要(Summary) 2026年3月13日、AWSとCerebrasは、クラウドにおけるAI推論の速度とパフォーマンスの新たな標準を目...
本記事は AIDE: Machine Learning Engineer Agent (Weco AI, 2025)の解説記事です。 論文概要(Abstract) Weco AIのAIDE(AI Development Environment)は、MLエンジニアリングタスクをコード空間におけるツリー探索問題としてフレーミングし、LLMエージェントが反復的にソリューションコードを生成・改善...
本記事は Inside NVIDIA Groq 3 LPX: The Low-Latency Inference Accelerator for the NVIDIA Vera Rubin Platform の解説記事です。 ブログ概要(Summary) NVIDIA Groq 3 LPUは、NVIDIAが2025年12月にGroq社の推論技術IPを$20Bで取得して開発した、SRAM中...
本記事は arXiv:2501.04306 “Agent Laboratory: Using LLM Agents as Research Assistants” の解説記事です。 論文概要(Abstract) Schmidgall et al.(2025年1月)は、科学研究の全サイクル — 文献調査、実験設計・実装・実行、論文執筆 — をLLMエージェントのチームで自動化するフレームワ...
本記事は SkyPilot公式ブログ “Scaling Karpathy’s Autoresearch: What Happens When the Agent Gets a GPU Cluster” の解説記事です。 ブログ概要(Summary) SkyPilotチーム(2026年3月公開)は、Andrej KarpathyのAutoResearchを単一GPUからKubernetes...
本記事は LUT-LLM: Efficient Large Language Model Inference with Memory-based Computations on FPGAs の解説記事です。 論文概要(Abstract) LUT-LLMは、FPGAの豊富なオンチップメモリリソースを活用し、LLM推論における演算をルックアップテーブル(LUT)参照に変換する手法を提案した研...
本記事は arXiv:2408.06292 “The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery” の解説記事です。 論文概要(Abstract) Lu, Lu, Lange, Foerster, Clune, Ha(Sakana AI / University of Oxford / Uni...
本記事は FlightLLM: Efficient Large Language Model Inference with a Complete Mapping Flow on FPGAs の解説記事です。 論文概要(Abstract) FlightLLMは、FPGAの固有リソース(DSP48、異種メモリ階層)を最大限に活用し、LLM推論をFPGA上で効率的に実行するための完全なマッピン...