使用 NGramTokenize 时出错(lapply 问题)
Error in using NGramTokenize (lapply issue)
我正在使用 rWeka 包中的 NGramTokenizer。我相信我已经正确安装了所有东西。我正在执行以下代码:
Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2))
tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_Tokenizer()))
我收到的错误是:
Error in lapply(x,f): argument "x" is missing with no default.
关于如何解决这个问题有什么想法吗?再次感谢。
最佳
维沙尔
您似乎在 TermDocumentMatrix 函数中执行 Bigram_Tokenizer() 而不是仅通过引用传递它。你只需要传递它而不执行:
Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2))
tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_Tokenizer))
我正在使用 rWeka 包中的 NGramTokenizer。我相信我已经正确安装了所有东西。我正在执行以下代码:
Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2))
tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_Tokenizer()))
我收到的错误是:
Error in lapply(x,f): argument "x" is missing with no default.
关于如何解决这个问题有什么想法吗?再次感谢。
最佳
维沙尔
您似乎在 TermDocumentMatrix 函数中执行 Bigram_Tokenizer() 而不是仅通过引用传递它。你只需要传递它而不执行:
Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2))
tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_Tokenizer))