自动摘要中基于图形的句子提取加权?
Graph based weighting for sentence extraction in automatic summarization?
我正在阅读一篇研究论文Automatic Text Document Summarization Based on
机器学习 和 Table 1 对应于基于图的加权,他们使用了称为聚合相似性的特征 F1。
我尝试在网上搜索,虽然我发现提到了 "Flexible aggregate similarity" 之类的东西,但我不确定它与自动摘要和权衡句子的任务有什么关系。
聚合相似度到底是什么意思,它是如何计算的?
聚合相似度是每个节点相似度的总和(聚合相似度)。这种相似度只是所考虑的 2 个节点(2 个句子)之间的词汇重叠除以 2 个句子的最长长度
tences(用于归一化)。
聚合相似度衡量句子的重要性。
聚合相似性不是计算连接一个节点(句子)到其他节点(Bushy 路径)的链接数,而是对链接上的权重(相似性)求和。
我正在阅读一篇研究论文Automatic Text Document Summarization Based on 机器学习 和 Table 1 对应于基于图的加权,他们使用了称为聚合相似性的特征 F1。
我尝试在网上搜索,虽然我发现提到了 "Flexible aggregate similarity" 之类的东西,但我不确定它与自动摘要和权衡句子的任务有什么关系。
聚合相似度到底是什么意思,它是如何计算的?
聚合相似度是每个节点相似度的总和(聚合相似度)。这种相似度只是所考虑的 2 个节点(2 个句子)之间的词汇重叠除以 2 个句子的最长长度 tences(用于归一化)。
聚合相似度衡量句子的重要性。
聚合相似性不是计算连接一个节点(句子)到其他节点(Bushy 路径)的链接数,而是对链接上的权重(相似性)求和。