该论文使用预训练的多语言Transformer模型解决英语和波兰语文本下的产品匹配问题。mBERT和XLM-RoBERTa模型在英语测试中表现良好,优于最新解决方案。论文还制作了波兰语产品匹配任务的开放数据集,并展示了微调后的模型在该数据集上的基线结果。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: