Home
0h-n0 TechBLog
キャンセル

📄 論文解説: Hardware Acceleration of LLMs — GPU・FPGA・ASIC・PIM横断サーベイ

本記事は Hardware Acceleration of LLMs: A comprehensive survey and comparison の解説記事です。 論文概要(Abstract) 本サーベイは、LLM推論のハードウェア高速化に関する包括的な調査と比較を提供する。著者らはGPU、FPGA、ASIC、In-Memory Processing(PIM)の4つのハードウェアプラッ...

📄 論文解説: AIDE — ツリー探索によるML実験自動化エージェント

本記事は AIDE: Machine Learning Engineer Agent (Weco AI, 2025)の解説記事です。 論文概要(Abstract) Weco AIのAIDE(AI Development Environment)は、MLエンジニアリングタスクをコード空間におけるツリー探索問題としてフレーミングし、LLMエージェントが反復的にソリューションコードを生成・改善...

📄 論文解説: Agent Laboratory — LLMエージェントを研究アシスタントとして活用する

本記事は arXiv:2501.04306 “Agent Laboratory: Using LLM Agents as Research Assistants” の解説記事です。 論文概要(Abstract) Schmidgall et al.(2025年1月)は、科学研究の全サイクル — 文献調査、実験設計・実装・実行、論文執筆 — をLLMエージェントのチームで自動化するフレームワ...

📄 論文解説: LUT-LLM — ルックアップテーブルによるFPGA上のLLM推論高速化

本記事は LUT-LLM: Efficient Large Language Model Inference with Memory-based Computations on FPGAs の解説記事です。 論文概要(Abstract) LUT-LLMは、FPGAの豊富なオンチップメモリリソースを活用し、LLM推論における演算をルックアップテーブル(LUT)参照に変換する手法を提案した研...

📄 論文解説: FlightLLM — FPGAによるLLM推論の完全マッピングフロー

本記事は FlightLLM: Efficient Large Language Model Inference with a Complete Mapping Flow on FPGAs の解説記事です。 論文概要(Abstract) FlightLLMは、FPGAの固有リソース(DSP48、異種メモリ階層)を最大限に活用し、LLM推論をFPGA上で効率的に実行するための完全なマッピン...