huggingface-transformers
-
字典和标点符号
-
抱脸 - GPT2 中未知令牌的高效令牌化
-
ValueError: Layer weight shape (30522, 768) not compatible with provided weight shape ()
-
ModuleNotFoundError: No module named 'nn_pruning.modules.quantization'
-
我可以制作一个基于 transformer 的聊天机器人,它在其他数据集上进行过预训练吗?
-
在 HuggingFace Transformers 模型上使用量化
-
HuggingFace - 'optimum' ModuleNotFoundError
-
微调 GPT-2 (HuggingFace) 时求解 "CUDA out of memory"
-
抱脸 | PipelineException:在输入中找不到 mask_token (<mask>)
-
InvalidConfigException:无法为名称 'HFTransformersNLP' 加载 class。在拉萨
-
"ValueError: You have to specify either input_ids or inputs_embeds" when training AutoModelWithLMHead Model (GPT-2)
-
ERROR WHEN IMPORTING PYTORCH(文件名或扩展名太长)
-
RuntimeError: The expanded size of the tensor (585) must match the existing size (514) at non-singleton dimension 1
-
ONNX runtime bert inference: RuntimeError: Input must be a list of dictionaries or a single numpy array for input 'attention_mask'
-
我们可以计算 Huggingface Bert 中的特征重要性吗?
-
如何使用 huggingface masked 语言模型计算句子的困惑度?
-
如何在 T5 training_step 中获取生成的令牌以使用用户定义的指标?
-
更改预训练拥抱面模型的最后一层
-
如何从 Hugging face 二元分类模型中解释 logit 分数并将其转换为概率排序
-
Machine Learning, Transformer, Multi-class class化,测试数据和训练数据classes个数不一致