Tensorflow 和 Bert 它们到底是什么,它们之间有什么区别?
Tensorflow and Bert What are they exactly and what's the difference between them?
我对 NLP 很感兴趣,我想到了 Tensorflow 和 Bert,它们似乎都来自 Google,而且它们似乎都是目前情感分析的最佳选择,但我不明白它们到底是什么,它们之间有什么区别...有人可以解释一下吗?
Bert and Tensorflow is not different thing , There are not only 2, but many implementations of BERT. Most are basically equivalent.
您提到的实现是:
Tensorflow 中 Google 的原始代码。 https://github.com/google-research/bert
由 Huggingface 在 Pytorch 和 Tensorflow 中实现,重现与原始实现相同的结果,并使用与原始 BERT 文章相同的检查点。 https://github.com/huggingface/transformers
这些是不同方面的差异:
就结果而言,使用一个或另一个没有区别,因为它们都使用相同的检查点(相同的权重)并且它们的结果已被检查为相等。
在可重用性方面,HuggingFace 库可能更可重用,因为它是专门为此设计的。此外,它还让您可以自由选择 TensorFlow 或 Pytorch 作为深度学习框架。
在性能方面,它们应该是相同的。
在社区支持方面(例如,在 github 或 Whosebug 中提出问题),HuggingFace 库更适合,因为有很多人在使用它。
除了 BERT,HuggingFace 的 transformers 库还实现了许多模型:OpenAI GPT-2、RoBERTa、ELECTRA,...
Tensorflow 是一个用于机器学习的开源库,可让您构建深度学习 model/architecture。但是 BERT is one of the architectures itself. You can build many models using TensorFlow including RNN, LSTM, and even the BERT. The transformers like the BERT are a good choice if you just want to deploy a model on your data and you don't care about the deep learning field itself. For this purpose, I recommended the HuggingFace library that provides a straightforward way to employ a transformer model in just a few lines of code. But if you want to take a deeper look at these models, I will suggest you to learns about the well-known deep learning architectures for text data like RNN, LSTM, CNN, etc., and try to implement them using an ML library like Tensorflow or PyTorch.
我对 NLP 很感兴趣,我想到了 Tensorflow 和 Bert,它们似乎都来自 Google,而且它们似乎都是目前情感分析的最佳选择,但我不明白它们到底是什么,它们之间有什么区别...有人可以解释一下吗?
Bert and Tensorflow is not different thing , There are not only 2, but many implementations of BERT. Most are basically equivalent.
您提到的实现是:
Tensorflow 中 Google 的原始代码。 https://github.com/google-research/bert 由 Huggingface 在 Pytorch 和 Tensorflow 中实现,重现与原始实现相同的结果,并使用与原始 BERT 文章相同的检查点。 https://github.com/huggingface/transformers 这些是不同方面的差异:
就结果而言,使用一个或另一个没有区别,因为它们都使用相同的检查点(相同的权重)并且它们的结果已被检查为相等。 在可重用性方面,HuggingFace 库可能更可重用,因为它是专门为此设计的。此外,它还让您可以自由选择 TensorFlow 或 Pytorch 作为深度学习框架。 在性能方面,它们应该是相同的。 在社区支持方面(例如,在 github 或 Whosebug 中提出问题),HuggingFace 库更适合,因为有很多人在使用它。 除了 BERT,HuggingFace 的 transformers 库还实现了许多模型:OpenAI GPT-2、RoBERTa、ELECTRA,...
Tensorflow 是一个用于机器学习的开源库,可让您构建深度学习 model/architecture。但是 BERT is one of the architectures itself. You can build many models using TensorFlow including RNN, LSTM, and even the BERT. The transformers like the BERT are a good choice if you just want to deploy a model on your data and you don't care about the deep learning field itself. For this purpose, I recommended the HuggingFace library that provides a straightforward way to employ a transformer model in just a few lines of code. But if you want to take a deeper look at these models, I will suggest you to learns about the well-known deep learning architectures for text data like RNN, LSTM, CNN, etc., and try to implement them using an ML library like Tensorflow or PyTorch.