本研究探讨了利用零样本学习和大型语言模型(如FLAN-T5和BERT)提升电子邮件垃圾邮件检测的有效性,克服了传统检测技术在动态垃圾邮件策略和数据稀缺方面的局限,展现出良好的可扩展性和高效性。
研究发现,大型语言模型(LLM)具备知识意识,能够评估自身对某一主题的掌握程度。模型规模越大,性能越好,但数据集过大可能导致性能下降。不同架构的模型表现差异明显,Flan-T5在简化设置下表现优异,但在标准设置中效果不佳。总体而言,LLM在足够规模下展现出知识意识。
本研究提出了一种基于Flan-T5的编码解码模型FlanEC,旨在改善自动语音识别中的语言和语法错误。通过扩展训练数据和多样化数据集,显著提升了错误修正效果。
研究利用大型语言模型从电子健康记录中提取社会健康决定因素(SDoH),并探讨合成临床文本的改进作用。微调的Flan-T5 XL和XXL模型表现最佳,优于ChatGPT系列,显示出较少的算法偏见。模型识别出93.8%存在不良SDoH的患者,而ICD-10代码仅覆盖2.0%。该方法有效提取SDoH信息,帮助识别需社会支持的患者。
研究提出了一种新方法,使语言模型在节点分类任务上达到与先进图神经网络相当的性能,无需改变架构。通过增强策略处理的Flan-T5模型超越了最先进的文本输出节点分类器,并与顶尖向量输出节点分类器表现相当。研究探索了大型语言模型在图学习中的潜力,提出了结合语言模型与图神经网络的方法,展示了其在无标签节点分类和图表示学习中的有效性。
我们研究了 LLM 基于零样本立场检测在推文上的表现,使用了 FlanT5-XXL 这一面向指令的开源 LLM,并使用了 SemEval 2016 任务 6A、6B 和 P-Stance...
通过RL的有针对性改写方法,使用FLAN T5作为生成器,通过近端策略梯度自动学习生成对抗性样本,改善模型性能。实验证明其在发现自然对抗性攻击和提高模型性能方面有效,优于强基准线,具有普适性。结合语言建模和强化学习的优势生成多样且有影响力的对抗性样本。
本文讨论了使用GPT-3和Flan-T5等大型语言模型进行关系提取的问题。通过线性化生成目标字符串的方法,进行了序列到序列的任务处理。通过人工评估,在不同程度的监督下评估了它们在标准关系提取任务中的表现。发现GPT-3进行的少量提示与现有完全监督模型相当,而使用Chain-of-Thought风格的解释进一步监督和微调后,该模型产生了最优结果。
完成下面两步后,将自动完成登录并继续当前操作。