大型语言模型的时间符号化知识获取
原文中文,约600字,阅读约需2分钟。发表于: 。这篇论文研究了将现有的大型语言模型的能力应用于以提示为驱动的知识捕捉,重点关注知识图谱,并探索了零样点提示、少样点提示和微调三种方法,并通过专用合成数据集评估了它们的性能。
本研究探讨了小语言模型与prompt-learning的结合在零样本和少样本场景下对零售业中客户-代理商互动的文本分类的潜力。结果显示,T5-base模型在少样本设置下的准确性约为75%。优化的提示可以显著提升模型准确性。研究强调了小语言模型进行prompt-learning的潜力,以及主动少样本抽样和集成策略的好处。