为意大利语发布Google BERT的单一语言模型是否值得?

时间:2019-03-14 10:33:11

标签: deep-learning nlp transfer-learning

我目前正在研究我的论文,该论文与使用斯坦福大学SQUAD数据集的意大利语翻译进行的自动问答有关。我将使用Google的BERT https://github.com/google-research/bert,因为它目前在SQUAD挑战中提供了最佳结果。 Google为包括意大利语在内的多种语言提供了多语言的预训练模型。

仅用意大利语发布Google BERT的单一语言模型是否值得?我的假设是单一语言模型意味着较小的网络意味着较少的培训时间和较小的规模。

0 个答案:

没有答案