前面四篇文章中,我们探讨了SGD从有界域到无界域、从平均损失到终点损失的一系列收敛结论。或许有读者觉得,说来说去都还是SGD,这恐怕是“上古时代”的结果了吧?还真不是!像第四篇《让炼丹更科学一些...
本研究针对在大规模语言模型精调过程中出现的隐私挑战,分析了多种隐私攻击的脆弱性,包括成员推断、数据提取和后门攻击。文章还评估了差分隐私、联邦学习和知识遗忘等隐私保护机制的效果和局限性,并提出未来的研究方向,以推动隐私保护方法在大规模语言模型精调中的发展,促进其在多种应用中的负责任使用。
本研究提出了一种新方法,通过精调模型参数来增强对抗攻击的质量,并证明了在特定条件下优化模型参数的有效性。验证了P3A方法能够显著提高对抗攻击的表现。
实验研究发现,精调可以提升大型语言模型在领域特定语料上的表现,预训练的大型语言模型在本体学习方面具有潜在的应用价值。
通过对260个法律文本分类任务的研究,发现精调的Llama 3模型在几乎所有任务上都优于GPT-4模型,大模型对精调的响应比小模型好,只需要几十到几百个示例就能实现高准确性的分类。研究建议使用精调的开源模型而不是商用模型。
本文介绍了一种名为Flexible Vision Transformer (FiT)的变压器架构,用于生成具有无限制分辨率和宽高比的图像。FiT通过网络结构和外推技术的集成,在广泛分辨率范围内实现了灵活性和有效性。
本研究调查了人类干预对机器生成对话的影响,发现人类后编辑对话能提高感知质量并导致生成输出差异。数据质量对小模型影响大,对大模型影响小。这些发现有助于理解人类干预对语言模型训练数据的影响。
研究发现,对大型语言模型进行微调可能会危及其安全性,即使使用良性数据集进行微调也可能降低安全性。当前的安全基础设施无法解决这些风险,需要进一步研究以加强对齐的语言模型的安全协议。
本研究分析了不同QA数据集上的微调策略性能,发现传统的基于预训练语言模型和微调策略在低预算下次优。最佳策略是使用预训练语言模型与目标数据集和SQuAD数据集微调,性能优于标准策略2.28%至6.48%。对QA从业者在低预算下微调QA系统具有实用价值。
字节跳动安全研究团队与南京大学合作发布了一项研究论文,提出了一种基于分割学习的联邦精调框架,用于解决大语言模型精调服务中的模型和数据隐私问题。该框架能够在保护隐私的同时提升模型的可用性。
工业机器人编程通常需要专家,我们提出了一种基于自然语言的助手,用于高级工业机器人应用的编程。我们研究了在有限的数据和计算资源下领域特定微调基础模型的策略。
提出了一种新型参数高效调参方法(PEFT)框架,用于多模态、多任务迁移学习。通过LoRA、BitFit和IA3等技术,在几乎不需要可训练参数和GPU内存的情况下,展示了与预训练模型完全微调相当的性能。提出了Context-PEFT,根据令牌的领域学习不同的适配器参数组,实现类似LoRA的权重注入,无需额外的架构修改。在COCO字幕任务上评估,优于完全微调,并提供更高的参数效率和计算经济性的解决方案。
本文评估了大型语言模型(LLM)在生物医学任务中的性能,发现在具有较小训练集的生物医学数据集中,LLMs的效果超过了当前最先进的生物医学模型。然而,不同LLMs的性能可能因任务而异。尽管与精细调整的生物医学模型相比,LLMs的性能仍然较差,但它们在缺乏大规模注释数据的生物医学任务中具有潜在的价值。
该研究使用诱导句子扰动的检测方法,分析了四个多语言transformers的形态句法内容,并研究了精调POS标记对模型知识的影响。研究结果表明,精调可以改善和降低探测性能,并改变形态句法知识在模型中的分布。
完成下面两步后,将自动完成登录并继续当前操作。