最近の更新
BitNet 6
- 論文解説: LLMの完全バイナリ化に挑む — W(1+1)A(1×4)ポストトレーニング量子化の技術詳細 17/02/2026
- Microsoft Research解説: 低ビット量子化がエッジデバイスでのLLM展開を実現する — T-MAC・LUT Tensor Core・Ladderの技術全容 17/02/2026
- 論文解説: TENET — 三値LLM推論を21倍効率化するスパース対応LUTアーキテクチャ 17/02/2026
- 論文解説: Continual Quantization-Aware Pre-Training — 16-bitから1.58-bitへの最適移行戦略 17/02/2026
- 論文解説: 1-bit AI Infra — BitNet b1.58のCPU推論を最大6.17倍高速化するオープンソース基盤 17/02/2026
- 論文解説: The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits 17/02/2026