BERT微调
BERT fine tuning
我正在尝试创建基于 BERT 的问答模型,但无法理解微调的含义。我理解对吗,它就像是针对特定领域的适应?如果我想将它与维基百科语料库一起使用,我只需要在我的网络中集成未更改的预训练模型?
微调是将预训练的 BERT 模型用于两件事:
- 域
- 任务(例如分类、实体提取等)。
您可以先按原样使用预训练模型,如果性能足够,可能不需要针对您的用例进行微调。
微调更像是对下游任务采用pre-trained模型。但是,最近 state-of-the-art proves that finetuning doesn't help much with QA tasks. See also the following post.
我正在尝试创建基于 BERT 的问答模型,但无法理解微调的含义。我理解对吗,它就像是针对特定领域的适应?如果我想将它与维基百科语料库一起使用,我只需要在我的网络中集成未更改的预训练模型?
微调是将预训练的 BERT 模型用于两件事:
- 域
- 任务(例如分类、实体提取等)。
您可以先按原样使用预训练模型,如果性能足够,可能不需要针对您的用例进行微调。
微调更像是对下游任务采用pre-trained模型。但是,最近 state-of-the-art proves that finetuning doesn't help much with QA tasks. See also the following post.