Home
0h-n0 TechBLog
キャンセル

📄 論文解説: Agent Laboratory — LLMエージェントを研究アシスタントとして活用する

本記事は arXiv:2501.04306 “Agent Laboratory: Using LLM Agents as Research Assistants” の解説記事です。 論文概要(Abstract) Schmidgall et al.(2025年1月)は、科学研究の全サイクル — 文献調査、実験設計・実装・実行、論文執筆 — をLLMエージェントのチームで自動化するフレームワ...

📄 論文解説: LUT-LLM — ルックアップテーブルによるFPGA上のLLM推論高速化

本記事は LUT-LLM: Efficient Large Language Model Inference with Memory-based Computations on FPGAs の解説記事です。 論文概要(Abstract) LUT-LLMは、FPGAの豊富なオンチップメモリリソースを活用し、LLM推論における演算をルックアップテーブル(LUT)参照に変換する手法を提案した研...

📄 論文解説: FlightLLM — FPGAによるLLM推論の完全マッピングフロー

本記事は FlightLLM: Efficient Large Language Model Inference with a Complete Mapping Flow on FPGAs の解説記事です。 論文概要(Abstract) FlightLLMは、FPGAの固有リソース(DSP48、異種メモリ階層)を最大限に活用し、LLM推論をFPGA上で効率的に実行するための完全なマッピン...

✍️ Google Research解説: Titans + MIRAS — AIに長期記憶を与える統一フレームワーク

本記事は Titans + MIRAS: Helping AI have long-term memory - Google Research Blog の解説記事です。 ブログ概要(Summary) Google Researchは、大規模言語モデル(LLM)に長期記憶を持たせるための新しいアーキテクチャ「Titans」と、それを一般化した統一フレームワーク「MIRAS」を公式ブログで...

📄 論文解説: vLLM-MLX — Apple Silicon統合メモリを活かしたLLM推論の高速化

本記事は Native LLM and MLLM Inference at Scale on Apple Silicon (arXiv:2601.19139) の解説記事です。 論文概要(Abstract) vLLM-MLXは、Apple SiliconのMLXフレームワークをネイティブバックエンドとしたLLM/MLLM推論フレームワークである。テキストモデルでllama.cpp比21〜...

📄 論文解説: Mini-Omni — ストリーミング音声出力を実現する並列デコーディングLLM

本記事は Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming (arXiv:2407.06225) の解説記事です。 論文概要(Abstract) Mini-Omniは、音声入力から音声出力をテキスト中間変換なしにストリーミング生成する「any-to-any」LLMである。著者らは、テキストトークンと...