当假设和前提都涉及多个句子时,allennlp 文本蕴含模型是否有效?

Does allennlp textual entailment model work when hypothesis and premise both involve multiple sentences?

在allennlp textual entailment demo website上,例子中的假设和前提总是只有一个句子。当假设和前提都包含多个句子时,allennlp 文本蕴含模型是否有效?理论上实用吗?或者我可以在我自己标记的数据集上训练模型以使其适用于段落文本吗?

例如:

我读了论文decomposable attention model (Parikh et al, 2017)。本文不讨论这种情况。本文背后的想法是文本对齐。所以凭直觉,我认为在段落文本上工作也应该是合理的。但是我对此不是很有信心。

如果有人能提供帮助,我将不胜感激。

目前,文本蕴含数据集(例如 SNLI)包含单个句子作为前提和假设。但是,该模型对于段落文本应该仍然“有效”(只要文本在最大标记限制内)。

也就是说,在这些数据集上训练的模型(例如 AllenNLP 演示中的模型)在此类输入上的性能可能会有所下降,因为它们没有看到更长的示例。从理论上讲,您绝对应该能够 train/finetune 使用此类示例在您自己标记的数据集上建立模型。人们会期望新模型的性能对于更长的输入会有所改善。