从 BERT 获得长答案

数据挖掘 nlp 伯特
2022-02-22 20:57:40

我们使用 Google BERT 进行问答。我们正在使用 vanialla bert-base-uncased 以及经过小队训练的检查站。

BERT 的答案非常简短明了。例如,如果我们要求描述一个聊天机器人,那么它会简单地返回,从用户那里获取输入并回复......虽然答案实际上是完整的段落。

  • 在长段落上训练 BERT 能解决这个问题吗?如果是的话,我们可以从哪里获得这样一个 QnA 数据集的任何想法,因为不可能手动创建一个巨大的 QnA 数据集。
  • 是否可以在某个 BERT 层进行任何其他调整,以便它开始理解一个长答案?
  • 或者是否有任何其他框架或系统已经解决了此类问题,可能通过与其他一些神经网络技术集成,或者通过使用多个组件的管道?
1个回答

您可以检查quora您的 QnA 数据集。

就长长的答案而言,它可能不是因为它BERTSQuAD大多数问题都有非常清晰和简短的答案。

BERT已经了解数据中的长期依赖关系(使用深度双向变压器的原因之一)。