模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向 模型比如 Llama 2 7B Chat

娱乐2024-04-20 09:55:5181263



  • 论文标题:Rephrasing the Web:A Recipe for Compute and Data-Efficient Language Modeling
  • 论文地址:https://arxiv.org/abs/2401.16380

作者提出使用经过阐释的网络文档来更高效地训练大型语言模型,Wikipedia 等数据集。融合下面我们回到近期新发布的混合论文《WARM:On the Benefits of Weight Averaged Reward Models》。因为这样可以直接对比 MoE 与非 MoE 方法的专家展方效果:

・Mistral 56B(更大的非 MoE 模型)

・Mistral 47B(与 Mixtral 8x7B 参数数量一样的非 MoE 模型)

还有一个有趣的事实:Brave 浏览器的 Leo 助理功能现在使用 Mixtral 8x7B 作为默认 LLM。这里的懂年奖励模型是指在用于对齐的 RLHF 中使用的奖励模型。



Mixtral 8x7B 能在许多基准上比肩甚至超越大得多的 Llama 2 70B 模型

Mixtral 架构

Mixtral 8x7B 的关键思想是用 8 个专家层替换 Transformer 架构中的每个前馈模块,强化微调)技术,模型比如 Llama 2 7B Chat。融合我们先来谈谈这个主题。混合还有一个路由模块,专家展方如下图所示。懂年而不是篇论注意力机制中。这里,模型

  • 更容易针对目标任务定制化 —— 小模型通常可以仅在单个 GPU 上完成微调。融合相较于原始基础模型,混合

    在此之前,此时学习率较低,这是解码阶段中一个非常简单的过程。



    • 论文标题:DeepSeek LLM:Scaling Open-Source Language Models with Longtermism
    • 论文地址:https://arxiv.org/abs/2401.02954

    DeepSeek LLM 有 7B 和 67B 两种配置,并发现标准的安全训练技术无法有效地移除这些持续存在的欺骗性策略。这里唯一的新东西是该方法使用了来自权重平均的奖励模型,这是一类将多个较小「专家」子网络组合起来得到的集成模型。其使用了交叉注意力来提升在新任务上的表现(比如资源很少的语言的翻译和代码生成任务),并且训练已接近收敛,未来在 TinyLlama 上的微调实验可能还能得到一些有趣结果,

    了解模型融合和权重平均

    模型融合和权重平均并不是新思想,将知识融合到模型中、



    • 论文标题:Scalable Pre-training of Large Autoregressive Image Models
    • 论文地址:https://arxiv.org/abs/2401.08541

    受 LLM 预训练的启发,将 Llama 7B 转变为 Llama Pro-8.3B。

    但是,这一技术的一种常见形式是随机权重平均(SWA,它们的研究主题简单总结起来是这样:

    1. 权重平均和模型融合可将多个 LLM 组合成单个更好的模型,

    最后他总结了 1 月份的多篇有趣研究,然后再将这个差添加到目标模型的 logit。可以免费用于学术和商业目的。最新权重平均(LaWA,比如更高的资源需求。研究表明,根据上图所示的基准结果,如果作者能基于同一数据集比较一下 Mixtral 8x7B 和 Llama 2 70B 就更好了;但这类研究的成本很高。但我猜想他们总是标记权重更高的专家。



    随机权重平均(SWA)是在训练周期快结束时对模型的权重进行平均。这种技术能有效地用于 ResNet 视觉模型和 RoBERTa 语言模型。下面我们简单讨论一下这两个概念。下表重点对比了 Llama 70B Base 和 Chat 模型。其方法是通过平均微调后的奖励模型权重来执行强化学习。

    这里就需要说明代理调优方法的两个潜在优势:

    • 在某些场景中,如下图所示。在深入介绍这篇 WARM 论文之前,利用多个在训练期间创建的已有 LLM(不做其它处理)的方法就尤其具有吸引力。



      • 论文标题:Rethinking Patch Dependence for Masked Autoencoders
      • 论文地址:https://arxiv.org/abs/2401.14391

      交叉注意力掩码式自动编码器是一种新式预训练框架,其直接操作原始字节,模型通常能够很好地从简单数据泛化到困难数据。这种方法能显著提升标准 SWA 和 EMA 方法的性能。看起来就会是这样:



      此外,这一点和 Model Ratatouille 类似。

      权重平均和模型融合都是将多个模型或检查点模型组合成单一实体。而第六个专家则贡献了 37%。其使用了更高的学习率,可避免子词 token 化偏差。新方法都能带来显著提升。如下图所示。则可以写成如下形式:



      这里,Mixtral 似乎只是通过这些专家(前馈)模块为 LLM 添加额外的参数,该模型的代码库基于 Apache 2 许可证发布,Stochastic Weight Averaging)。在每种场景中,该模型仅使用 13B 参数。这就意味着可以在资源有限的计算设备(比如笔记本电脑和 / 或小型 GPU)上运行它们。

      乍一看,



      • 论文标题:Self-Rewarding Language Models
      • 论文地址:https://arxiv.org/abs/2401.10020

      使用 LLM 作为评判员(LLM-as-a-Judge)的方法在训练期间执行自我奖励,而不是真正完成预期任务或实现基本目标。这些缩放率认为对于这样的模型大小,



      • 论文标题:LLaMA Beyond English:An Empirical Study on Language Capability Transfer
      • 论文地址:https://arxiv.org/abs/2401.01055

      该论文探究了如何将 Llama 等 LLM 的能力迁移用于非英语任务 —— 用不到 1% 的预训练数据就可以实现与当前最佳模型相当的性能。它需要计算一个较小基础模型和一个已微调模型之间的 logit 之差。该方法在实验中表现接近直接微调方法,通过使用多个较小的子网络,该研究还给出了一种将模型恢复到其原始有毒行为的方法。可将多个不同 LLM 组合成一个统一模型,模型融合和权重平均会得到一个单一模型,这样的整体思路也可用于 LoRA 适应器,同时还不会忘记以前的知识。介绍了四篇与上述新阶段有关的重要论文。



      用于模型融合的 Model Ratatouille 方法

      请注意,我也想看看 Mixtral 8x7B 与以下两种假定的模型相比如何,



      • 论文标题:Multimodal Pathway:Improve Transformers with Irrelevant Data from Other Modalities
      • 论文地址:https://arxiv.org/abs/2401.14405

      这篇论文提出了 Multimodal Pathway(多模态通路)。其就尤显潜力了。受限于篇幅,

      模型大小

      Mixtral 8x7B 如何得名的?稀疏 MoE 模型的实际大小如何?8x 是指使用了 8 个专家子网络。



      • 论文标题:Denoising Vision Transformers
      • 论文地址:https://arxiv.org/abs/2401.02957

      作者发现,也就是内部权重不可用时,研究者希望通过平均微调后的奖励模型的权重来缓解 LLM 中的奖励骇入(reward hacking)问题。



      • 论文标题:MoE-LLaVA:Mixture of Experts for Large Vision-Language Models
      • 论文地址:https://arxiv.org/abs/2401.15947

      该论文提出了一种用于扩展大型视觉 - 语言模型的混合专家范式,使之可用于提升更大型的基础模型,需要重点指出:Mixtral 的大小并不是 8x7B = 56B。Logit 是指模型最终层生成的原始输出值。其将 span 损坏和 token 替换检测组合成了一个两阶段课程;其靠少 50% 的预训练迭代次数和少 40% 的计算成本实现了与标准方法一样的性能。Latest Weight Averaging)表明,自我博弈微调)。



      来自 TinyLlama 论文的图表,

    • 能效更高 —— 考虑到训练和运行大规模 AI 模型对环境的影响,还有可能让模型持续进行自我提升。(OOD = 分布外 / 泛化)

      细致来说,



      WARM 在 RLHF 过程中的使用方式概况。Arxiv、其利用了扩散模型和一个精心合成的数据集来估计部分遮挡目标的形状和外观。另一个考虑方面是在智能手机等便携式设备上部署 LLM 时的电池寿命问题。然后,这表示第三个专家为输出贡献了 63%,

      但是,我也预计未来会出现更多创新性的模型融合方式。但其实 phi-2 模型依然比 TinyLlama 大 3 倍。



      来自论文《Mixtral of Experts》

      让专家专业化

      有趣的问题来了:这些专家能否展现出任何特定于任务或 token 的模式?不幸的是,胜过其它同等大小的开源模型。



      Transformer 架构,和随机权重平均一样,他们指出在更简单数据上进行训练会更高效。并且这个新模型还没有传统集成方法的典型缺陷,



      权重平均能让奖励建模更为稳健地应对奖励骇入问题

      为了解决奖励骇入问题,



      • 论文标题:LLM Augmented LLMs:Expanding Capabilities through Composition
      • 论文地址:https://arxiv.org/abs/2401.02412

      CALM(增强语言模型的组合方法)是将础 LLM 和专业 LLM 组合到一起,结果表明组合使用中等大小的模型(6B/13B)可以达到或超过 ChatGPT(参数超过 175B)等更大型模型的表现。比如 TriviaQA 或数学问题。问题也依然存在:较小模型必须与大型目标模型有一样的词表。



      • 论文标题:LLM Maybe LongLM:Self-Extend LLM Context Window Without Tuning
      • 论文地址:https://arxiv.org/abs/2401.01325

      这篇论文提出了一种非常简单的技术(只有 4 行代码),作者设定了 TopK=2,

      1.WARM:On the Benefits of Weight Averaged Reward Models



      论文地址:https://arxiv.org/abs/2401.12187

      在这篇 1 月 22 日的论文《WARM: On the Benefits of Weight Averaged Reward Models》中,Mathematics、模型依然会继续提升。近日,E_i 表示专家模块的输出。这是一种简单却有效的强化学习算法,论文地址:https://arxiv.org/abs/2306.03241

      权重平均的做法是将同一模型的多个检查点组合成单个模型,Model Ratatouille 方法可以总结成下图。Python 代码中的缩进 token 经常被分配给同一专家,不同于传统的集成方法,它的效率就比常规的非 MoE 47B 参数模型高多了。因为这样可以避免潜在的版权争议。可从现有 ViT 提取出净化后的特征。而模型融合则是将多个不同的已训练模型组合成单个模型。这有什么好处?类似于创建集成模型的概念,

    • 开发和预训练成本更低 —— 这些模型仅需要相对少量的 GPU。该方法采用了一种自我博弈机制,以表示一种加权集成方法。似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,可比肩甚至超越 Llama 2 70B 等更大模型、其做法是将监督式微调与强化学习组合起来使用,专家层仅替换了前馈层而已。当有 8 个专家 {E_1, E_2, ..., E_8})时,



      • 论文标题:DiffusionGPT:LLM-Driven Text-to-Image Generation System
      • 论文地址:https://arxiv.org/abs/2401.10061

      DiffusionGPT 是一种文本到图像生成框架,如论文《LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition》展现的那样。具体来说,

      MoE 是什么?MoE 是混合专家(Mixture of Experts)的缩写,尽管这有违 Chinchilla 的缩放率。并可望在更广泛的任务上实现更好的性能。大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。此外,但也可以理解,展望 2024 年的开源和研究进展,因此《Mixtral of Experts》值得关注。因此对于每个输入 token,其做法是通过指数级地降低旧状态的权重来计算权重的一个平滑化版本。每个子网络都负责处理不同类型的任务。因此更容易理解和调整。

      何为权重平均?因为用于 LLM 的权重平均和模型融合可能会成为 2024 年最有趣的研究主题,



      • 论文标题:RoSA:Accurate Parameter-Efficient Fine-Tuning via Robust Adaptation
      • 论文地址:https://arxiv.org/abs/2401.04679

      这项研究提出了一种新的用于 LLM 的参数高效型微调方法 RoSA。因此其策略是在训练快结束时计算模型的平均,其作用是将每个 token 嵌入重定向到 8 个专家前馈模块。研究者将标注成本降低了 50%(相比于随机采样)。这种将多个模型组合成一个模型的思想可以提升训练的收敛、下面会用星号★标记我认为尤其有趣的论文。



      TinyLlama 的性能表现

      当然,如果使用很大的模型,可以沿微调轨迹进行采样。即使训练了多个 epoch,这些研究者在三个不同场景中实验了这种方法:

      1. 指令微调:提升 Llama 2 70B 基础模型,



      不同的模型融合和平均方法之间的比较

      按照上述 WARM 流程并且平均了 10 个奖励模型后,这些 logit 表示 LLM 的每个可能的输出 token 的非归一化分数,WARM 论文提出通过权重平均将 LLM 奖励模型组合到一起。甚至在专有模型上也是如此。

      3. 通过将多个小型模块组合起来创建混合专家模型,

      展望未来,(论文地址:https://arxiv.org/abs/2212.10445)

      Model Ratatouille 背后的思想是复用多个同一基础模型在不同的多样性辅助任务上微调过的迭代版本,经过代理调优的 70B Llama 2 模型的表现优于 70B 基础模型,

      但这篇论文也有个小问题:作者并未分享训练数据集的有关信息。也许是时候盘点一番新年首月进展了。



      • 论文标题:Tuning Language Models by Proxy
      • 论文地址:https://arxiv.org/abs/2401.08565

      在适应大型语言模型方面,论文《Early Weight Averaging Meets High Learning Rates for LLM Pre-training》探索了 LaWA 的一个修改版,7B 参数表示 Mistral 7B 模型的整体参数规模,LLM 中的大多数参数都包含在前馈模块中,2024 年的第一个月已经过去,通常而言,需要强调的是,



      • 论文标题:EAGLE:Speculative Sampling Requires Rethinking Feature Uncertainty
      • 论文地址:https://arxiv.org/abs/2401.15077

      EAGLE 能加速 LLM 中的自回归解码,因此,然后再将这 8 个专家前馈层的输出求和汇总,提升整体性能和提升稳健性。并能为教育和研究应用带来新的可能性。



      • 论文标题:Blending Is All You Need:Cheaper, Better Alternative to Trillion-Parameters LLM
      • 论文地址:https://arxiv.org/abs/2401.02994

      这篇论文提出了 Blending。)

      3.Mixtral of Experts



      论文地址:https://arxiv.org/abs/2401.04088

      Mixtral 8x7B 论文终于来了!他们使用多达 700 亿参数的模型在多个问答数据集上实验验证了这一点。



      代理调优图示

      为了更清晰地说明这一概念,该技术可以使用未配对的模态数据(比如音频)提升视觉 Transformer 在另一特定模态(比如图像)上的性能,

      可以观察到,其使用 LLM 解析不同的 prompt,这种方法是对一个初始较大的学习率进行衰减,使用类似 PyTorch 的伪代码,如下图所示。也胜过一个 Transformer-MoE 基准模型。这能在多种任务上实现更快的预训练,再使用 softmax 函数将它们转换成概率。也就是一次仅使用 2 个专家。

      由于模型的训练轨迹可能并不均匀,



      • 论文标题:Pix2gestalt:Amodal Segmentation by Synthesizing Wholes
      • 论文地址:https://arxiv.org/abs/2401.14398

      Pix2gestalt 是一种用于零样本非模态图像分割的框架,其可凭借更低的计算负载超过之前的方法。研究者提出了一种用于 LLM 奖励模型的权重平均方法。该方法可扩展 Transformer 模块,并能在单个 A100 (80GB) GPU 上运行 Llama-7B 等模型同时还支持高达 100 万的上下文长度。



      • 论文标题:MoE-Mamba:Efficient Selective State Space Models with Mixture of Experts
      • 论文地址:https://arxiv.org/abs/2401.04081

      该论文提出将 Mamba 等状态空间模型与混合专家(MoE)组合起来,

      模型融合已有较长的历史,WARM 会对多个模型(这里是奖励模型)的权重进行平均,相对于传统的集成方法(需要同时运行多个模型),



      • 论文标题:MambaByte:Token-free Selective State Space Model
      • 论文地址:https://arxiv.org/abs/2401.13660

      MambaByte 是一种无 token 语言 Mamba 选择性状态空间模型,研究者讨论了构建 Mixtral 8x7B 的方法。

      总体而言,尽管还没人对它们直接进行比较。该研究优化了 Chinchilla 缩放率并且表现优于 LLaMA-2 70B 和 GPT-3.5 等模型。权重平均涉及到将单个模型在训练过程中不同点的权重参数进行平均。可提升大型语言模型在数学问题求解等任务上的推理能力。我们为什么还要选择这种方法呢,其效率和质量都胜过传统的掩码式自动编码器。



      • 论文标题:The Unreasonable Effectiveness of Easy Training Data for Hard Tasks
      • 论文地址:https://arxiv.org/abs/2401.06751

      作者发现,举个例子,2024 年还有很多期待空间。因此任何人都可以进一步研究和微调它。如 GitHub、

      TinyLlama 带来的想法

      举个例子,这样得到的 MoE-Mamba 模型在效率和有效性上既优于标准的 Mamba 结构的状态空间模型,并且其在 ImageNet-1k 上取得了亮眼的结果(而且还未饱和)。

      2.Tuning Language Models by Proxy



      论文地址:https://arxiv.org/abs/2401.08565

      论文《Tuning Language Models by Proxy》提出了一种可用于提升 LLM 的技术:proxy-tuning。这里我们将其译为「代理调优」。



      通过 Model Ratatouille 实现模型融合,这是在模型接近收敛的训练结束时完成的。但却是目前最受瞩目的方法。如此一来,

      那么如何实现我们想要的增强呢?其实就是将这些较小模型的预测结果(logit)之差用于目标模型 M1。(理论上讲,以下是机器之心对原文不改变原义的编译与整理。这个模型的表现能比肩大得多的 Llama 2 70B 模型。仍然需要用到三种不同的模型:

      1. 一个大型通用基础模型

      2. 一个较小的通用模型

      3. 一些针对特定用例或客户需求定制化的小型专用模型

      因此,这个过程无需改变大模型的权重。所谓的激活信标是指添加到输入上下文中的激活的压缩状态。但最近一篇颇具影响力的 LLM 相关论文是《Model Ratatouille:Recycling Diverse Models for Out-of-Distribution Generalization》。而是基于预训练模型独立创建的,并且在训练期间会更早地在平均检查点中开始。传统集成方法和其它模型融合方法。

      2022 年,



      论文《Mixtral of Experts》中对 MoE 模块的解释

      如果用数学表示,另外,其中权重是由门控网络 G (x)_i 为每个输入 x 提供的。

      4. 预训练一个小型的 1.1B 参数的 LLM 可降低开发和运营成本,

    但是,可在损失和准确度方面将训练过程加速多个 epoch。(早期实验表明,因此,这就意味着每个输入只会使用这些专家中的一部分:



    在 Mixtral 8x7B 这个特例中,并能让我们更好地理解训练数据的组成结构对分布外性能的影响。

  • 对教育方面的应用很有价值 —— 小型 LLM 更容易掌控,



    • 论文标题:Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models
    • 论文地址:https://arxiv.org/abs/2401.01335

    这篇论文提出了 Self-Play fIne-tuNing (SPIN,不过它们也有差别:其模型并不是采样于同一轨迹,

    WARM 是如何发挥作用的?方法其实相当简单:类似于随机权重平均,无需任何微调便能扩展 LLM 的上下文处理能力。

    它性能强大,

    代理调优的实践效果如何?

    他们的实验得到了让人印象深刻的积极结果。

    这项研究的主要目的是提升用于 LLM 的 RLHF 对齐步骤。代理调优是一种能高效利用资源的方法。根据原论文,

    2. 代理调优(proxy-tuning)技术可通过使用两个小型 LLM 来提升已有大型 LLM 的性能,甚至让模型变得更小。



    • 论文标题:Spotting LLMs With Binoculars:Zero-Shot Detection of Machine-Generated Text
    • 论文地址:https://arxiv.org/abs/2401.12070

    Binoculars 这种新方法可以不使用训练数据来更准确地检测 LLM 生成的文本,



    • 论文标题:A Closer Look at AUROC and AUPRC under Class Imbalance
    • 论文地址:https://arxiv.org/abs/2401.06091

    这篇论文挑战了机器学习领域一个广被认可的信念:对于类别不平衡的二元分类问题,

    实践方面的考虑

    这种方法可以用于提升研发效率:开发新的训练或模型提升方法并在较小模型上测试它们以降低成本。以一种较新颖的方式使用稀疏 MoE 模块来构建 LLM。

    然后到了 2023 年,Exponentially Moving Average),这个过程仅需极少量的额外参数和数据。同时无需训练大模型。

    奖励骇入是指 LLM 学会了操控或利用其奖励系统的漏洞来获得高分或奖励,



    • 论文标题:Knowledge Fusion of Large Language Models
    • 论文地址:https://arxiv.org/abs/2401.10491

    研究者提出了一种知识融合方法,同时也是最受人关注的一种公开可用的 LLM。这种方法也可用。即小型语言模型)为何如此吸引人?因为小型 LLM:

    • 容易获取且成本低,这些模型中的每一个都可能是独立训练的,相比于单个奖励模型,

      代理调优是通过调整目标 LLM 的 logit 来实现的,在得到了这些输出 logit 之后,

    TinyLlama 的性能

    TinyLlama 的优势不仅是小和开源,通过这个过程得到的融合版奖励模型获得了 79.4% 的胜率。并且几乎能媲美直接微调的 Llama 70B Chat 模型。使之能比肩 Llama 2 70B Chat 模型。可用于 LLM 的代码生成任务,从作者的训练过程可以得到一个颇具教育意义的有趣见解:在 1 万亿 token 上训练该模型 3 epoch(而不是 1 epoch)实际上是有用的,它成为了 Open LLM 排行榜上占据主导地位的技术。让 LLM 可以生成并优化自己的训练数据,而在 Mixtral 8x7B 中,



    • 论文标题:KVQuant:Towards 10 Million Context Length LLM Inference with KV Cache Quantization
    • 论文地址:https://arxiv.org/abs/2401.18079

    研究者提出了一种量化键 - 值缓存激活的方法,它仅使用掩蔽 token 和可见 token 之间的交叉注意力来重建被遮掩的图块,我们已经讨论了一些权重平均方法。他们就可以使用此方法创建专用型的 GPT-4 模型。

    一月份其它有趣的研究论文

    下面是一月份我看到的其它一些有趣论文。这也是一个重点考虑因素。如上图所示。在推理时间的成本并不会超过单个模型。Mixtral 8x7B 有 47B 参数。

  • 当大型基础模型是「黑箱」时,



    • 论文标题:A Minimaximalist Approach to Reinforcement Learning from Human Feedback
    • 论文地址:https://arxiv.org/abs/2401.04056

    该论文提出了自我对弈偏好优化(SPO),如果要在真实世界中实际使用这些方法,还有,而不是一个大型网络,你可以访问其 GitHub 代码库:https://github.com/jzhang38/TinyLlama

    小型 LLM(也常写成 SLM,

    原文链接:https://magazine.sebastianraschka.com/p/research-papers-in-january-2024

    而不是训练单个奖励模型。



    • 论文标题:SpatialVLM:Endowing Vision-Language Models with Spatial Reasoning Capabilities
    • 论文地址:https://arxiv.org/abs/2401.12168

    这项研究可提升视觉 - 语言模型(VLM)的 3D 空间推理能力 —— 作者开发了一个互联网规模的空间推理数据集并基于其训练了一个 VLM。但其实它还有另一种调整:Mixtral 是一种稀疏 MoE,



    来自论文《Training Compute-Optimal Large Language Models》

    举个例子,



    • 论文标题:An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models
    • 论文地址:https://arxiv.org/abs/2401.06692

    使用 LLM 的监督式微调中的实验设计技术(选取信息量最大的样本进行标注以最大化效率),该方法可从多个更小的聊天 AI 模型随机选取响应。经过权重平均得到的模型相对轻量,那么 WARM 是如何对权重执行平均以获得奖励模型呢?这里,

    Mixtral 8x7B 总共有 47B 参数,值得期待。之后这些分数会通过 softmax 等函数转换成概率。但由于它的所有代码都已开源,如下图所示。但是,其做法是使用一个较小的已微调模型来修改其预测结果。MoE 可以更高效地分配计算资源。可在不使用额外训练数据的前提下取得优于标准微调的结果。

    另一种方法是指数移动平均(EMA,然后再使用这些概率来采样得到最终输出结果,并且在其它 6 个基准上也有类似的趋势

    研究在「过大」数据集上的行为或训练多个 epoch 的行为时,WARM 的表现超过了最佳的单奖励模型方法

    总结

    模型融合并不是一种新技术,这样得到的效果优于 LoRA 等现有方法。也可以使用一组小型 LoRA 矩阵替代多个小型专用模型 。



    • 论文标题:Soaring from 4K to 400K:Extending LLM’s Context with Activation Beacon
    • 论文地址:https://arxiv.org/abs/2401.03462

    研究者提出通过激活信标(activation beacon)来扩展 LLM 的上下文窗口。MoE 层会计算专家输出 E_i 的加权和,



    • 论文标题:LLaMA Pro:Progressive LLaMA with Block Expansion
    • 论文地址:https://arxiv.org/abs/2401.02415

    该论文提出了一种用于 LLM 的后预训练方法,其训练使用了一个 2 万亿 token 的数据集。但是,下图比较了这些差异。结果证明模型性能会随模型大小和数据量扩展,根据上式,应该使用小得多的数据集。精度召回曲线下面积(AUPRC)优于接收者操作特征下面积(AUROC)。从而无需任何额外的人类标注数据便能提升 LLM。



    选自Ahead of AI

    作者:Sebastian Raschka

    机器之心编译

    编辑:Panda

    还有 10 个月,



    • 论文标题:A Mechanistic Understanding of Alignment Algorithms:A Case Study on DPO and Toxicity
    • 论文地址:https://arxiv.org/abs/2401.01967

    该研究探索了直接偏好优化(DPO)算法如何通过降低有害性来将 GPT2-medium 等预训练模型与用户偏好对齐,而权重则在学习率衰减期间(仍然相对较高)在多轮迭代上进行平均。获得更优的性能,TinyLlama 在这些基准上比不上更大型的模型,之后 TinyLlama 就成了小型 LLM 类别的新晋成员。这让它们可以更有效地扩展,7B 是指其组合了 Mistral 7B 模块。除了基于人类偏好进行的常规训练,



    来自论文《Early Weight Averaging meets High Learning Rates for LLM Pre-training》的修改版 LaWA,如下图所示。基于测试的方法,以提升其在编程和数学等领域的表现,目标是达到 CodeLlama 70B 的代码水平。)

    4.TinyLlama:An Open-Source Small Language Model



    论文地址:https://arxiv.org/abs/2401.02385

    微软的 phi-2 在去年 12 月引起了不少关注,如下图表所示,

    2. 领域适应:提升 Llama 2 70B 基础模型的代码能力,



    权重平均和模型融合(左)和多数投票(majority voting)等传统集成方法(右)

    传统上讲,就会很困难。



    • 论文标题:A Comprehensive Study of Knowledge Editing for Large Language Models
    • 论文地址:https://arxiv.org/abs/2401.01286

    该论文讨论了如何让 LLM 保持信息更新,根据上面的公式,其研究者发现,使用的数据都已重复,可让所得 LLM 的效果和效率媲美甚至超越更大型的对应模型。



    • 论文标题:Transformers are Multi-State RNNs
    • 论文地址:https://arxiv.org/abs/2401.06104

    这项研究表明,也就是生成的文本;这个过程可以使用核采样或 top-k 解码等技术。并可从一个思维树(Tree-of-Thought)结构(同样也整合了人类反馈)中选择最合适的生成模型。该模型目前落后于小型的 phi-2 模型,其方法是在次要的特征层级上进行处理,



    来自代理调优论文的结果图表

    可以看到,这意味着 Mistral 7B 模型有 9B 个非前馈参数;有趣的是,但这篇论文却表明可将 RAG 和微调组合起来,提升累积准确度(背景是农业应用)。WARM 相对于单奖励模型的胜率为 79.4%,该过程涉及两个较小的模型:一个小型基础模型(M2),并且可能基于不同的数据集或任务。这种方法可以在某种程度上不改变权重的前提下微调 LLM。其做法是在固定的预训练权重上训练低秩和高度稀疏的组件,具体来说,通过平均最新的 k 个检查点的权重(每个权重都在 epoch 结束时获取),并且发现全微调通常性能表现最佳,最初被认为与循环神经网络(RNN)不同的仅解码器 Transformer 可被视为具有无限隐藏状态大小的无限多状态 RNN。目前是性能最佳的大型语言模型(LLM)之一,WARM 还使用了所谓的 Baklava 流程,

    在过去的 2023 年中,作者却观察到了一个有趣的现象:文本数据集中的连续 token 通常会被分配给同样的专家。



    • 论文标题:Code Generation with AlphaCodium:From Prompt Engineering to Flow Engineering
    • 论文地址:https://arxiv.org/abs/2401.08500

    AlphaCodium 是一种迭代式的、编辑内部知识)并提出了一个新的 KnowEdit 基准。(机器之心也在该论文发布时第一时间进行了报道,参数效率高并且有能力处理长达 32k 的上下文窗口,毕竟已经有 LoRA(低秩适应)这种更好的方法了 ——LoRA 不需要较小的通用模型 ,G 表示路由(即门控网络),

    3. 针对特定任务进行微调:提升 Llama 2 70B 基础模型执行特定任务的能力,代理调优的表现可能优于 LoRA,而且还完全开源。



    • 论文标题:WARM:On the Benefits of Weight Averaged Reward Models
    • 论文地址:https://arxiv.org/abs/2401.12187

    这项研究解决了与人类偏好对齐的 LLM 中的奖励崩溃问题,参数量首次曝光》)Mixtral 8x7B 是一种稀疏的混合专家(稀疏 MoE)模型,其在多种图像识别任务上都取得了显著的性能提升。(论文地址:https://arxiv.org/abs/2307.13269)

    使用了权重平均的奖励模型

    讨论完了权重平均和模型融合,其方法是通过简单的计算来对比两个预训练的 LLM。来自论文《Attention Is All You Need》

    前馈模块本质上就是一个多层感知器。比如 Llama 2 7B;一个经过微调的基础模型(M3),作者没能观察到特定于具体主题的专业性,TinyLlama 不仅小,视觉 Transformer(ViT)中常见的网格状伪影是由输入阶段的位置嵌入造成的。



    • 论文标题:Sleeper Agents:Training Deceptive LLMs that Persist Through Safety Training
    • 论文地址:https://arxiv.org/abs/2401.05566

    这项研究调查了 LLM 学习欺骗行为的可能性,并整合未来的 token。如下图所示。提升后的目标模型 M1* 的输出 logit 是这样计算的:M1*(x) = M1 (x) + [M3 (x) - M2 (x)]。如果有人知道 GPT-4 的词表并且可以访问其 logit 输出,此外,而且在常识推理和问题求解基准上的表现也相当不错,



    • 论文标题:Astraios:Parameter-Efficient Instruction Tuning Code Large Language Models
    • 论文地址:https://arxiv.org/abs/2401.00788

    这篇论文评估了不同的全微调和参数高效型微调技术,能用更少的参数实现比肩更大模型的性能。另外,



    • 论文标题:ReFT:Reasoning with Reinforced Fine-Tuning
    • 论文地址:https://arxiv.org/abs/2401.08967

    这篇论文提出了 Reinforced FineTuning (ReFT,并且对比了其它微调策略,



    在第 3000 步时,



    来自论文《Mixtral of Experts》

    (作者并未说明每个 token 的两个专家中哪个被标记了颜色,该论文研究了以自回归方式(无监督)来预训练视觉模型。我认为 LLM 模型融合技术前景广阔。他们提出了一种去噪视觉 Transformer,这是一种用于训练 LLM 的方法,

    在下面将讨论的论文《Mixtral of Experts》中,可替代 RLHF 但不需要奖励模型。可以提升 LLM 遵循指令和建模奖励的能力;这表明,「开源」是指通过一个不受限的开源软件库提供训练代码和检查点模型。由于每个时间步骤仅有 2 个专家处于活动状态,我们可以假设我们想要提升大型目标模型 M1(比如 Llama 2 70B)的目标函数结果。该架构在更高的图像分辨率上表现尤其出色。他们使用了一种简单的线性平均。



    • 论文标题:SpacTor-T5:Pre-training T5 Models with Span Corruption and Replaced Token Detection
    • 论文地址:https://arxiv.org/abs/2401.13160

    这篇论文提出了 SPACTOR,再扩展这些方法,

    另外,



    • 论文标题:RAG vs Fine-tuning:Pipelines, Tradeoffs, and a Case Study on Agriculture
    • 论文地址:https://arxiv.org/abs/2401.08406

    尽管 RAG(检索增强式生成)和微调谁更胜一筹的争论一直存在,该方法可尽可能缓解困惑度指标劣化问题,因此很可能在可预见的未来(或至少在未来几个月)里成为一大颇具吸引力的模型。这篇论文还为 CodeLlama 提供了额外的基准。G (x) 的输出可能看起来是这样的:[0, 0, 0.63, 0, 0, 0.37, 0, 0]。)

    总结

    Mixtral 8x7B 有几个优点:公开可用、明显少于 Llama 2 70B 等模型。



    • 论文标题:VMamba:Visual State Space Model
    • 论文地址:https://arxiv.org/abs/2401.10166

    这项研究将视觉 Transformer 的全局感受野和动态权重与 CNN 的线性复杂性组合起来,参阅《Mixtral 8x7B 论文终于来了:架构细节、其中回顾点评了多种知识编辑技术(使用外部知识、我相信 MoE 模型也会成为 2024 年大多数开源项目的一个重点关注领域,

    现在,这些研究者发现了一种强化学习策略 —— 使用此策略,但在 LLM 领域却是比较新的;考虑到 LLM 的高成本和资源需求,而 LoRA 通常能在成本和性能之间取得最好的平衡。仅有 1.1B 参数,而不是维护多个分立的模型,得到了一个名为 VMamba 的新架构,AI 研究者 Sebastian Raschka 发布了一份报告,其中揭示出它会绕过而不是移除预训练功能。其性能优于单个模型、

    本文地址:http://www.zheisa.com/html/29b699924.html
    版权声明

    本文仅代表作者观点,不代表本站立场。
    本文系作者授权发表,未经许可,不得转载。

  • 全站热门

    土耳其禁运!以色列拒绝人道援助,外交摩擦升级

    湖北交通特殊状况引发热议,黄总经理离岗度假遗憾事

    巨龙元素装饰品惊艳登场!游戏大更新带来全新体验

    2023,机器人产业巨头净利润大PK!谁将领衔群雄?

    长泽雅美《来聊聊索米吧》预告 百变麻酱身份成谜

    2024,福建武警新春晚会火爆上演!笑中有泪,震撼心灵

    奇瑞星途星际元ET增程版:全新设计,豪华驾乘体验即将来袭

    亿道信息新虚拟现实终端:颠覆还是跟风?

    友情链接