用于德国新闻分类的 HuggingFace Transformers 模型
HuggingFace Transformers model for German news classification
我一直在尝试为我的项目(多类德语文本分类)寻找合适的模型,但对所提供的模型感到有点困惑 here。有带有 text-classification
标签的模型,但它们用于二元分类。大多数其他模型用于 [MASK]
单词预测。我不确定,选择哪一个以及它是否可以与多个 类 一起使用
如有任何建议,我们将不胜感激!
当您的 类 完全不同时,您无需寻找特定的文本分类模型,因为大多数列出的模型都使用其中一个基础模型并微调基础层并为其训练输出层需要。在您的情况下,您将删除输出层,并且它们对基础层的微调不会对您有太大好处或伤害。有时他们扩展了可能对您的任务有益的词汇表,但您必须自己检查描述(通常是稀疏的 :() 和词汇表以获取有关相应模型的更多详细信息。
一般来说,我建议您立即使用其中一种基本模型,只有在结果不充分的情况下才寻找其他模型。
以下是bert with 6的例子类:
from transformers import BertForSequenceClassification, BertTokenizer
tokenizer = BertTokenizer.from_pretrained("bert-base-german-dbmdz-uncased")
model = BertForSequenceClassification.from_pretrained("bert-base-german-dbmdz-uncased", num_labels=6)
我一直在尝试为我的项目(多类德语文本分类)寻找合适的模型,但对所提供的模型感到有点困惑 here。有带有 text-classification
标签的模型,但它们用于二元分类。大多数其他模型用于 [MASK]
单词预测。我不确定,选择哪一个以及它是否可以与多个 类 一起使用
如有任何建议,我们将不胜感激!
当您的 类 完全不同时,您无需寻找特定的文本分类模型,因为大多数列出的模型都使用其中一个基础模型并微调基础层并为其训练输出层需要。在您的情况下,您将删除输出层,并且它们对基础层的微调不会对您有太大好处或伤害。有时他们扩展了可能对您的任务有益的词汇表,但您必须自己检查描述(通常是稀疏的 :() 和词汇表以获取有关相应模型的更多详细信息。
一般来说,我建议您立即使用其中一种基本模型,只有在结果不充分的情况下才寻找其他模型。
以下是bert with 6的例子类:
from transformers import BertForSequenceClassification, BertTokenizer
tokenizer = BertTokenizer.from_pretrained("bert-base-german-dbmdz-uncased")
model = BertForSequenceClassification.from_pretrained("bert-base-german-dbmdz-uncased", num_labels=6)