【AI】防止OOM的利器:Gradient checkpointing & Gradient Accumulation
防止OOM的利器:Gradient checkpointing
类别:训练
效果:Gradient checkpointing在能够容纳10x模型大小不OOM的情况下,只增加20%的训练时间。是一个tradeoff训练时间且比较高效的方法。
Existing Gap
大家训练的时候都遇到过OOM的问题,这里面有很大一部分原因是需要存储运算的中间结果Activations。在Mixed Precision Training里提到过,我们再以Adamw优化器为例,回顾下训练时候总的内存占用。
训练时内存保存的状态是,Activation,Gradients和Weights。我们假设训练的BatchSize是$B$,模型的大小是$N$,模型的层数是$L...
【AI】Flash Attention - 两倍速你的训练过程
Flash Attention - 两倍速你的训练过程
类别:训练
效果:训练时候的上下文长度越长,训练加速的效果越明显。15% end-to-end wall-clock speedup on BERT-large (seq. length 512) compared to the MLPerf 1.1 training speed record, 3× speedup on GPT-2 (seq. length 1K), and 2.4× speedup on long-range arena (seq. length 1K-4K).
核心假设
在Transformer训练的时候,没有根据Attention的计算规律考虑到SRAM(on-chi...
【AI】Pretrain的Scaling law是什么
Scaling Law研究,到底指的是什么?
可能很多研发在做模型的应用和与业务结合的部分,这部分内容往往涉及到模型在新业务场景的对齐调优(Alignment Tuning)。对齐调优一般有两类,一类是SFT,另一类的Preference对齐,可能使用DPO或者PPO。前者和预训练的区别不大,只是把数据改成了instruction+output的形式,后者需要构造pair-wise结果对比的数据。但这两者的共同特征是,都不需要较大规模的训练的数据,往往很少的数据就能在业务表现上提升一个层次。
Scaling law则更关注在预训练的过程中,应该如何平衡计算资源,数据量大小和模型大小之间的平衡,从而能在预训练之前就对成本和效果有预估,这样才有信心投入更多的训练资源,达到SOTA效果。...
【AI】RoPE - Roformer
RoPE - 扩展context长度的利器
标题:RoFormer: Enhanced Transformer with Rotary Position Embedding
时间:2021.4.20
作者团队:追一科技,现在已经快倒闭了,只做NLP的一家公司
作者:Jianlin Su, Yu Lu, Shengfeng Pan, Ahmed Murtadha, Bo Wen, Yunfeng Liu
有用指数:⭐️⭐️⭐️⭐️⭐️
贡献程度:⭐️⭐️⭐️⭐️⭐️
简单评价:用旋转矩阵做了相对位置编码,从而提升了模型的外推性。
知识前提
大模型的Transformer架构中,是通过Positional Emb...
【AI】Vision Transformer
ViT - 拼接图片
标题:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale(Vision Transformer)
时间:2020.10.22
作者团队:Google
作者:Alexey Dosovitskiy
有用指数:⭐️⭐️⭐️⭐️⭐️
贡献程度:⭐️⭐️⭐️⭐️⭐️
简单评价:Transformer在视觉领域的应用,把image patch拼接成Sequence,实现类似NLP中的Next token prediction的效果,也是目前很多多模态大模型的Vision Encoder。
出发点
Tra...
【AI】Why attention, why transformer
Why Attention, why Transformer
时间:2024.05.13
作者团队:MIT
作者:Minyoung Huh, Brian Cheung, TongzhouWang, Phillip Isola
有用指数:⭐️⭐️⭐️⭐️⭐️
贡献程度:⭐️⭐️⭐️⭐️⭐️
简单评价:用一个简洁的假设解释了很多问题,也预测了一些趋势,其中不乏较为详实的说明和严谨的推论。对于还在疑惑为什么大模型可以work的朋友,是一个很好的知识补充。
上一篇,The Platonic Hypothesis,主要讲了好的大模型表征都在收敛这个结论。虽然整体都很精彩,但整体上还是会提出几个疑问
收敛的原因是否也和...
【AI】The Platonic Representation Hypothesis
好的模型都是类似的,差的模型各有各的不幸
时间:2024.05.13
作者团队:MIT
作者:Minyoung Huh, Brian Cheung, TongzhouWang, Phillip Isola
有用指数:⭐️⭐️⭐️⭐️⭐️
贡献程度:⭐️⭐️⭐️⭐️⭐️
简单评价:用一个简洁的假设解释了很多问题,也预测了一些趋势,其中不乏较为详实的说明和严谨的推论。对于还在疑惑为什么大模型可以work的朋友,是一个很好的知识补充。
出发点
科学的发展总是基于一些可证伪的假设的证明或推翻,例如经典力学解释不了的现象,在微观粒度会有量子力学的理论进行支撑。某些看似不可能改变的理论,也仅在某些时空维度下是成立的。这篇文章...
【AI】Variational Auto Encoder
VAE - 图像生成的Transformer
时间:
作者团队:
作者:
有用指数:⭐️⭐️⭐️⭐️⭐️
贡献程度:⭐️⭐️⭐️⭐️⭐️
简单评价:开山鼻祖之作
共计 124 篇文章,16 页。