如何从特定包安装/导入 Python 包?
How to install / import a Python package from a specific package?
我 运行 在 Google Colab 中输入代码并得到初始错误
/usr/local/lib/python3.7/dist-packages/utils_nlp/eval/rouge/rouge_ext.py in <module>()
23 import collections
24
---> 25 from indicnlp.tokenize import sentence_tokenize, indic_tokenize
26 from ...language_utils.hi.hindi_stemmer import hi_stem
27 from rouge import Rouge
ModuleNotFoundError: No module named 'indicnlp.tokenize'
如何安装(例如)来自 indicnlp
的 tokenize
软件包?
我试过了
!pip install indicnlp.tokenize
显然没有破解它。如何指定从哪个包进行 pip 安装?
我也试过了
!pip install indicnlp
from indicnlp import tokenize
这也不行。然后我得到错误
---> 30 from indicnlp import tokenize
31 from utils_nlp import eval
32 from utils_nlp.eval import rouge
ImportError: cannot import name 'tokenize' from 'indicnlp' (/usr/local/lib/python3.7/dist-packages/indicnlp/__init__.py)
当然如果我这样做
!pip install tokenize
它不知道要安装哪个标记化
看来你刚刚 pip 安装了错误的库。在 pypi 上,我发现了另一个名为 indic_nlp_library
(github repo) 的项目,它似乎有你要找的包。我可以得到
!pip install indic_nlp_library
from indicnlp.tokenize import sentence_tokenize, indic_tokenize
上班。
看起来 indicnlp
名称被另一个项目在 pip 上占用了。
我 运行 在 Google Colab 中输入代码并得到初始错误
/usr/local/lib/python3.7/dist-packages/utils_nlp/eval/rouge/rouge_ext.py in <module>()
23 import collections
24
---> 25 from indicnlp.tokenize import sentence_tokenize, indic_tokenize
26 from ...language_utils.hi.hindi_stemmer import hi_stem
27 from rouge import Rouge
ModuleNotFoundError: No module named 'indicnlp.tokenize'
如何安装(例如)来自 indicnlp
的 tokenize
软件包?
我试过了
!pip install indicnlp.tokenize
显然没有破解它。如何指定从哪个包进行 pip 安装?
我也试过了
!pip install indicnlp
from indicnlp import tokenize
这也不行。然后我得到错误
---> 30 from indicnlp import tokenize
31 from utils_nlp import eval
32 from utils_nlp.eval import rouge
ImportError: cannot import name 'tokenize' from 'indicnlp' (/usr/local/lib/python3.7/dist-packages/indicnlp/__init__.py)
当然如果我这样做
!pip install tokenize
它不知道要安装哪个标记化
看来你刚刚 pip 安装了错误的库。在 pypi 上,我发现了另一个名为 indic_nlp_library
(github repo) 的项目,它似乎有你要找的包。我可以得到
!pip install indic_nlp_library
from indicnlp.tokenize import sentence_tokenize, indic_tokenize
上班。
看起来 indicnlp
名称被另一个项目在 pip 上占用了。