未获得Bigram标记化

时间:2015-09-09 08:15:39

标签: r

我正在尝试在csv文件上进行Bigram Tokenization。但这需要花费很多时间。我用SO中的现有代码检查了我的代码。我无法发现任何错误。我的代码显示如下:

library(tm)
library(RWeka)
library(tmcn.word2vec)
library(openNLP)
library(NLP)

data <- read.csv("Train.csv", header=T)

corpus <- Corpus(VectorSource(data$EventDescription))
corpus <- tm_map(corpus,content_transformer(tolower))
corpus <- tm_map(corpus,removePunctuation)
corpus <- tm_map(corpus,PlainTextDocument)

BigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2))
dtm <- DocumentTermMatrix(corpus,control=list(tokenize=BigramTokenizer))

任何人都可以帮我解决这个问题吗?提前致谢

1 个答案:

答案 0 :(得分:0)