本研究提出了一种多模态方法,结合文本分类与语言特征分析,以提高文献可读性评估,F1得分达到0.996,推动数据驱动决策。
本研究提出了一种结合统计与语义特征的越南语可读性评估新方法,显著提升了分类准确性,为后续研究奠定基础。
本文评估了阿拉伯语的可读性,使用了基于规则和预训练模型的不同方法。实验结果显示,结合不同技术可以获得最佳结果,单词级别的宏F1分数为86.7,片段级别为87.9。提供了代码、数据和预训练模型。
对四种最先进的大型语言模型进行了可读性评估,发现它们在适应不同受众时存在差异。研究结果强调了在教育场景中增强大型语言模型的适应性的重要性。当前大型语言模型的可读性范围受限,限制了它们在教育用途上的潜力。
完成下面两步后,将自动完成登录并继续当前操作。