Home
0h-n0 TechBLog
キャンセル

📄 WACV 2023論文解説: SDSSL — 中間層自己蒸留によるSelf-Supervised Learningの表現品質向上

本記事は Self-Distilled Self-Supervised Representation Learning(Jang et al., WACV 2023)の解説記事です。 論文概要(Abstract) SDSSL(Self-Distilled Self-Supervised Learning)は、自己教師あり学習(SSL)の表現品質を隠れ層への自己蒸留により向上させる手法であ...

✍️ NVIDIA Tech Blog解説: CUDA Graphsによるllama.cpp推論最適化 — カーネルローンチオーバーヘッドの体系的削減

本記事は NVIDIA Developer Blog: “Optimizing llama.cpp AI Inference with CUDA Graphs” の解説記事です。 ブログ概要(Summary) NVIDIAは、llama.cppにCUDA Graphs最適化を実装することで、Llama 7BモデルのH100 GPU上でのデコード推論速度を最大1.2倍高速化したと報告してい...

📄 論文解説: DINOv3 — Gram Anchoringによる密な特徴量の安定化と7Bパラメータ自己蒸留

本記事は DINOv3(Siméoni et al., 2025)の解説記事です。 論文概要(Abstract) DINOv3は、Meta AIが2025年に発表したDINO系列の最新の自己教師あり学習フレームワークである。7Bパラメータの教師モデル(ViT-7B)を約17億枚の画像(LVD-1689M)で学習し、DINOv2で課題とされていた「大規模・長時間学習時の密な特徴量(パッチレ...

📄 論文解説: Gated Delta Networks — Delta Ruleとゲーティングで線形注意の連想記憶能力を改善する

本記事は Gated Delta Networks: Improving Mamba2 with Delta Rule (arXiv:2412.06464) の解説記事です。 論文概要(Abstract) Gated DeltaNetは、State Space Model(SSM)であるMamba2のゲーティング機構とDelta Rule(差分更新則)を組み合わせた線形注意アーキテクチャ...