huggingface-transformers
-
如何在 PyTorch 中找到负责文本分类模型标签结果的(最重要的)负责的 Words/Tokens/embeddings
-
torch.nn.CrossEntropyLoss().ignore_index 在导入转换器库时崩溃
-
XLNetTokenizer 需要 SentencePiece 库,但在您的环境中找不到
-
如何减少来自 transformer 的 Helsinki-NLP/opus-mt-es-en(翻译模型)的推理时间
-
Huggingface Transformer - GPT2 从保存的检查点恢复训练
-
使用与执行训练时相同的数据进行预测时会发生错误(预期 3 个输入,但它收到 75 个输入张量。)
-
将转换器模型应用于 pandas 列中的每一行
-
使用预训练的拥抱面变换器进行翻译不起作用
-
运行 在 GCP 上的 Ubuntu 16.04 实例上使用 tensorflow 的烧瓶应用程序,模型运行但预测与本地主机上的不同
-
无法找到我添加到 Huggingface Bert 分词器词汇表中的词
-
Transformers v4.x:将慢分词器转换为快速分词器
-
解析 Hugging Face Transformer 输出
-
Huggingface MarianMT 翻译器丢失内容,具体取决于模型
-
如何解释用于序列分类和张量流的 Huggingface Transformers 的 BERT 输出?
-
BERT DataLoader:shuffle=True 与 Sampler 之间的区别?
-
无法导入 Hugging Face 变形金刚
-
计算模型中的两个损失并反向传播两次
-
如何在词嵌入模型BERT上使用自己的语料库
-
如何在预训练的 BERT 模型之上添加多类多标签层?
-
如何将 'collate_fn' 与数据加载器一起使用?