我们使用 Google BERT 进行问答。我们正在使用 vanialla bert-base-uncased 以及经过小队训练的检查站。
BERT 的答案非常简短明了。例如,如果我们要求描述一个聊天机器人,那么它会简单地返回,从用户那里获取输入并回复......虽然答案实际上是完整的段落。
- 在长段落上训练 BERT 能解决这个问题吗?如果是的话,我们可以从哪里获得这样一个 QnA 数据集的任何想法,因为不可能手动创建一个巨大的 QnA 数据集。
- 是否可以在某个 BERT 层进行任何其他调整,以便它开始理解一个长答案?
- 或者是否有任何其他框架或系统已经解决了此类问题,可能通过与其他一些神经网络技术集成,或者通过使用多个组件的管道?