- 📄 論文解説: Data-efficient LLM Fine-tuning for Code Generation
- 📄 論文解説: GASP — Guided Asymmetric Self-Play for Continued Improvement of LLMs
- 📄 論文解説: CoALA — 認知科学に基づくLLMエージェントのメモリアーキテクチャ分類体系
- 📄 論文解説: SPC — Evolving Self-Play Critic via Adversarial Games for LLM Reasoning
- 📄 論文解説: Generative Agents — 自然言語メモリストリームによる信頼性の高い自律エージェント
本記事は https://arxiv.org/abs/2504.12687 の解説記事です。 論文概要(Abstract) 大規模言語モデル(LLM)をコード生成タスクにファインチューニングするには、大量かつ高品質な学習データが必要となる。しかし、データの希少性や収集コストの高さが現実的な課題として存在する。本論文では、学習データ量を削減しつつモデル性能を維持・向上させるデータ効率的なフ...