huggingface-transformers
-
如何使用 HuggingFace Transformers GPT-2 的过去?
-
使用 Huggingface 转换器进行命名实体识别,映射回完整实体
-
设备类型 cuda 的预期对象错误,但在调用 _th_index_select 时获得参数 #1 'self' 的设备类型 cpu
-
向 Huggingface 变形金刚添加附加层
-
HuggingFace 变形金刚:BertTokenizer 改变角色
-
ImportError: cannot import name 'AutoModelWithLMHead' from 'transformers'
-
我在哪里可以获得 BERT 的预训练词嵌入?
-
如何规范化 BERT 分类器的输出
-
在 Huggingface Trainer class 中恢复训练时如何避免迭代 Dataloader?
-
如何使用 BertForMaskedLM 或 BertModel 来计算句子的困惑度?
-
无法从 'transformers'(未知位置)导入名称 'pipline'
-
在 BERT 中为长文本滑动 window 以进行问答
-
BertForSequenceClassification 如何对 CLS 向量进行分类?
-
如何使用 GPT2 模型获得立即下一个词的概率?
-
GPT-2 微调和 Hugging-face GitHub 中的推理缺少脚本?
-
使用 Hugging Face Transformers 库如何 POS_TAG 法语文本
-
ImportError: cannot import name 'hf_bucket_url' in HuggingFace Transformers
-
在给定一个句子的情况下估计令牌 probability/logits 而不计算整个句子
-
如何禁用 TOKENIZERS_PARALLELISM=(true | false) 警告?
-
如何冻结 TFBertForSequenceClassification 预训练模型?