huggingface-transformers
-
无法为 huggingface 变形金刚库安装张量流
-
Jupyter 笔记本中的 ModuleNotFoundError huggingface 数据集
-
使用 huggingface transformer[marianmt] 翻译较大文本的奇怪结果
-
batch_encode_plus 分词器方法的问题
-
无法导入 HuggingFace SciBert AutoModelForMaskedLM
-
AttributeError: type object 'Wav2Vec2ForCTC' has no attribute 'from_pretrained'
-
我正在使用 bert 预训练模型进行问答。它返回正确的结果,但文本之间有很多空格
-
词汇大小必须准确计算 bert_config.json 中的 vocab_size 吗?
-
Hugging Face: NameError: name 'sentences' is not defined
-
如何检查 tokenizer/model 是否已保存
-
强制 BERT 转换器使用 CUDA
-
与原始 Transformer 模型相比,为什么 Torchscript 会追踪 return 不同的外观 encoded_inputs?
-
NERDA 模型导入的 ValueError
-
Huggingface SciBERT 预测屏蔽词不起作用
-
训练后如何测试掩码语言模型?
-
如何截断 Huggingface 管道中的输入?
-
AttributeError: 'NoneType' object has no attribute 'tokenize'
-
为什么 Transformer 的 BERT(用于序列分类)输出严重依赖于最大序列长度填充?
-
我们如何 can/should 在 HuggingFace 标记分类(实体识别)中加权 类?
-
如何应用来自 huggingface 的预训练变压器模型?