本文介绍了最新的希伯来语预训练BERT模型DictaBERT,其在基准测试中表现优于其他模型。作者还发布了两个用于希伯来文本分析的模型版本,包括前缀分词和形态标记。这些模型可以通过简单调用HuggingFace模型来使用,无需额外的库或代码。作者详细描述了训练细节和基准测试结果,并将模型和示例代码发布给社区,以促进希伯来语自然语言处理的研究和开发。
完成下面两步后,将自动完成登录并继续当前操作。