論文概要(Abstract) Llama Guardは、Meta AIが開発したLLMベースの入出力セーフガードモデルである。人間とAIの会話におけるプロンプト(入力)とレスポンス(出力)の安全性を、独自の安全性リスク分類タクソノミーに基づいて分類する。Llama 2-7Bをベースにファインチューニングし、OpenAI Moderations APIやPerspective APIを上回る...
論文概要(Abstract) 本論文は、既存の16-bit事前学習モデルからBitNet 1.58-bitモデルへ効率的に移行する2段階学習戦略「Continual Quantization-Aware Pre-training(CQAP)」を提案する。16-bit事前学習を一定トークン数まで実施した後、重みを1.58-bit(三値 ${-1, 0, +1}$)に量子化して学習を継続する手...
論文概要 NeMo Guardrails (NVIDIA, 2023年9月)は、LLMアプリケーションにプログラマブルなguardrailsを追加するオープンソースツールキットです。トピック精度95%、jailbreak検出98%、hallucination削減34%を達成し、Apache 2.0ライセンスで公開されています。 主要な貢献: Colangモデリング言語による対話フロ...
論文概要(Abstract) 「Mixture-of-Agents Enhances Large Language Model Capabilities」は、Together AIのJunlin Wang、Jue Wang、Ben Athiwaratkun、Ce Zhang、James Zouらが2024年6月に発表した論文である。複数のLLMを階層的に配置し、各層のモデルが前層の出力を参...
論文概要(Abstract) HaloScopeは、ラベルなしのLLM生成文を活用してHallucination(幻覚)を検出するフレームワークである。LLMの活性化空間においてHallucinationに関連する部分空間を特定し、その部分空間への射影強度で真偽を判定する。NeurIPS 2024でSpotlight論文として採択された。 この記事は Zenn記事: LLM出力検証フレー...
論文概要(Abstract) 本論文は、1.58-bit重み(三値 ${-1, 0, +1}$)で学習されたBitNet b1.58モデルをCPU上でロスレスかつ高速に推論するためのオープンソース基盤「1-bit AI Infra(bitnet.cpp)」を提案する。ARM NEON/I8MM命令とx86 AVX2/AVX-512/VNNI命令を活用したカスタムカーネルにより、FP16ベー...
論文概要(Abstract) BitNet b1.58は、全てのパラメータ(重み)を{-1, 0, +1}の三値に量子化したLLMバリアントです。同一モデルサイズ・同一学習トークン数でFP16 Transformerと同等のperplexity・下流タスク性能を達成しながら、レイテンシ・メモリ・スループット・エネルギー消費の全てで劇的な改善を実現しています。本論文は1.58-bit LLM...
ブログ概要(Summary) Google ResearchのYubin Kim氏とXin Liu氏による2026年1月28日発表の最新研究成果。180種類のエージェントアーキテクチャ(Single-agent、Independent、Centralized、Decentralized、Hybrid)を、GPT、Gemini、Claudeの3モデル×4ベンチマークで徹底評価しました。衝撃的...
論文概要(Abstract) MAGNNET(Multi-Agent Graph Neural Network-based Efficient Task Allocation)は、グラフニューラルネットワーク(GNN)とCentralized Training with Decentralized Execution(CTDE) パラダイムを融合し、UAV(無人航空機)とUGV(無人地上車...
ブログ概要(Summary) LangChain公式ブログによる2024年1月(2025年2月更新)のマルチエージェントワークフロー決定版ガイド。Collaboration、Supervisor、Hierarchical Teamsの3つの設計パターンを、グラフ理論(状態機械)の観点から解説します。各パターンの適用場面、トレードオフ、実装方法を、PythonおよびJavaScriptのコー...