AI前沿:数据多样性选择、扩散性和知识蒸馏

AI前沿:数据多样性选择、扩散性和知识蒸馏

13分钟 ·
播放数260
·
评论数2

本期播客精华汇总:

本期TAI快报,我们聚焦AI效率提升的最新研究进展,探讨了大型语言模型“瘦身大法”。

  1. [CL] Diversity-driven Data Selection for Language Model Tuning through Sparse Autoencoder:  通过稀疏自编码器 (SAE) 驱动的数据多样性选择,提升指令微调数据质量,实验证明SAE-GreedSelect和SAE-SimScale算法能有效提升模型性能。
  2. [CV] Improving the Diffusability of Autoencoders:  揭示自编码器“扩散性”对潜在扩散模型的重要性,提出尺度等变正则化方法,有效抑制潜在空间高频成分,显著提升图像和视频生成质量。
  3. [CV] Designing Parameter and Compute Efficient Diffusion Transformers using Distillation:  探索知识蒸馏技术在扩散Transformer模型压缩中的应用,系统研究模型设计空间,为设计参数/计算高效的扩散模型提供指导原则。
  4. [CL] LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention:  提出LServe系统,通过统一的块稀疏注意力机制,结合静态和动态稀疏性,加速长序列大型语言模型的预填充和解码过程,显著提升服务效率。
  5. [CL] RocketKV: Accelerating Long-Context LLM Inference via Two-Stage KV Cache Compression:  提出RocketKV两阶段KV缓存压缩方法,结合SnapKV++永久性淘汰和混合注意力动态选择,有效降低长上下文LLM推理的内存占用和延迟,实现端到端加速。

完整推介:mp.weixin.qq.com

展开Show Notes
护士衫下
护士衫下
2025.2.23
后面有三分多钟空白没减掉
fly51fly
:
好的,多谢提醒!