使用 R、RCurl 进行多网站 table 挖掘
Multiple web table mining with R, RCurl
首先,提前感谢您的任何回复。
我需要通过在各自的网页中加入一些较小的 table 来获得 table。迄今为止,我已经能够提取信息,但未能使用循环自动提取信息。
迄今为止,我的命令是:
library(RCurl)
library(XML)
# index <- toupper(letters)
# EDIT:
index <- LETTERS
index[1] <- "0-A"
url <- paste("www.citefactor.org/journal-impact-factor-list-2014_", index, ".html", sep="", collapse=";")
urls <- strsplit(url, ";") [[1]]
这是我的循环尝试:
read.html.tab <- function(url){
require(RCurl)
require(XML)
uri <- url
tabs <- NULL
for (i in uri){
tabs <- getURL(uri)
tabs <- readHTMLTable(tabs, stringsAsFactors = F)
tab1 <- as.data.frame(tabs)
}
tab1
}
如果我尝试使用 read.html.tab
函数:
tab0 <- read.html.tab(urls)
我收到以下错误:
Error in data.frame(`Search Journal Impact Factor List 2014` = list(`0-A` = "N", : arguments imply differing number of rows: 1, 1100, 447, 874, 169, 486, 201, 189, 172, 837....
但是,如果 urls
只有一个元素,函数有效:
tabA <- read.html.tab(urls[1])
tabB <- read.html.tab(urls[2])
tab.if <- rbind(tabA,tabB)
ifacs <- tab.if[,27:ncol(tab.if)]
View(ifacs)
看来我不明白循环是如何工作的...
您可以完全放弃 for
循环并使用如下内容:
Data <- lapply(urls, function(x){
readHTMLTable(
getURL(x),
stringsAsFactors=F)[[2]]
})
这将为您提供 data.frame
的列表 -
R> class(Data)
[1] "list"
R> length(Data)
[1] 26
R> head(Data[[1]])
INDEX JOURNAL ISSN 2013/2014 2012 2011 2010 2009 2008
1 1 4OR-A Quarterly Journal of Operations Research 1619-4500 0.918 0.73 0.323 0.69 0.75 -
2 2 Aaohn Journal 0891-0162 0.608 0.856 0.509 0.56 - -
3 3 Aapg Bulletin 0149-1423 1.832 1.768 1.831 1.964 1.448 1.364
4 4 AAPS Journal 1550-7416 3.905 4.386 5.086 3.942 3.54 -
5 5 Aaps Pharmscitech 1530-9932 1.776 1.584 1.432 1.211 1.19 1.445
6 6 Aatcc Review 1532-8813 0.254 0.354 0.139 0.315 0.293 0.352
我不确定你是否想将它们全部合并到一个对象中,但如果是这样,你可以使用 do.call(rbind,Data)
。另外,我认为这些 url 中的每一个都返回了两个表,第一个在页面顶部开始搜索目录,这就是我使用
的原因
readHTMLTable(
getURL(x),
stringsAsFactors=F)[[2]]
在 lapply
内,而不是
readHTMLTable(
getURL(x),
stringsAsFactors=F)
后者会为每个 url -
返回两个表的列表
R> head(url1[[1]])
0-A  | B  | C  | D  | E  | F  | G  | H  | I  | J  | K  | L  | M  |
1 N  | O  | P  | Q  | R  | S  | T  | U  | V  | W  | X  | Y  | Z  |
##
R> head(url1[[2]])
INDEX JOURNAL ISSN 2013/2014 2012 2011 2010 2009 2008
1 1 4OR-A Quarterly Journal of Operations Research 1619-4500 0.918 0.73 0.323 0.69 0.75 -
2 2 Aaohn Journal 0891-0162 0.608 0.856 0.509 0.56 - -
3 3 Aapg Bulletin 0149-1423 1.832 1.768 1.831 1.964 1.448 1.364
4 4 AAPS Journal 1550-7416 3.905 4.386 5.086 3.942 3.54 -
5 5 Aaps Pharmscitech 1530-9932 1.776 1.584 1.432 1.211 1.19 1.445
6 6 Aatcc Review 1532-8813 0.254 0.354 0.139 0.315 0.293 0.352
强制性 Hadleyverse 答案:
library(rvest)
library(dplyr)
library(magrittr)
library(pbapply)
urls <- sprintf("http://www.citefactor.org/journal-impact-factor-list-2014_%s.html",
c("0-A", LETTERS[-1]))
dat <- urls %>%
pblapply(function(url)
html(url) %>% html_table(header=TRUE) %>% extract2(2)) %>%
bind_rows()
glimpse(dat)
## Observations: 1547
## Variables:
## $ INDEX (int) 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14,...
## $ JOURNAL (chr) "4OR-A Quarterly Journal of Operations Researc...
## $ ISSN (chr) "1619-4500", "0891-0162", "0149-1423", "1550-7...
## $ 2013/2014 (chr) "0.918", "0.608", "1.832", "3.905", "1.776", "...
## $ 2012 (chr) "0.73", "0.856", "1.768", "4.386", "1.584", "0...
## $ 2011 (chr) "0.323", "0.509", "1.831", "5.086", "1.432", "...
## $ 2010 (chr) "0.69", "0.56", "1.964", "3.942", "1.211", "0....
## $ 2009 (chr) "0.75", "-", "1.448", "3.54", "1.19", "0.293",...
## $ 2008 (chr) "-", "-", "1.364", "-", "1.445", "0.352", "1.4...
rvest
给我们 html
和 html_table
我仅将 magrittr
用于 extract2
,它只是包装 [[
并且阅读起来更好(IMO)。
pbapply
包包装了 *apply
函数并为您提供免费的进度条。
注意:bind_rows
是最新的 dplyr
,所以在使用它之前抓住它。
首先,提前感谢您的任何回复。
我需要通过在各自的网页中加入一些较小的 table 来获得 table。迄今为止,我已经能够提取信息,但未能使用循环自动提取信息。 迄今为止,我的命令是:
library(RCurl)
library(XML)
# index <- toupper(letters)
# EDIT:
index <- LETTERS
index[1] <- "0-A"
url <- paste("www.citefactor.org/journal-impact-factor-list-2014_", index, ".html", sep="", collapse=";")
urls <- strsplit(url, ";") [[1]]
这是我的循环尝试:
read.html.tab <- function(url){
require(RCurl)
require(XML)
uri <- url
tabs <- NULL
for (i in uri){
tabs <- getURL(uri)
tabs <- readHTMLTable(tabs, stringsAsFactors = F)
tab1 <- as.data.frame(tabs)
}
tab1
}
如果我尝试使用 read.html.tab
函数:
tab0 <- read.html.tab(urls)
我收到以下错误:
Error in data.frame(`Search Journal Impact Factor List 2014` = list(`0-A` = "N", : arguments imply differing number of rows: 1, 1100, 447, 874, 169, 486, 201, 189, 172, 837....
但是,如果 urls
只有一个元素,函数有效:
tabA <- read.html.tab(urls[1])
tabB <- read.html.tab(urls[2])
tab.if <- rbind(tabA,tabB)
ifacs <- tab.if[,27:ncol(tab.if)]
View(ifacs)
看来我不明白循环是如何工作的...
您可以完全放弃 for
循环并使用如下内容:
Data <- lapply(urls, function(x){
readHTMLTable(
getURL(x),
stringsAsFactors=F)[[2]]
})
这将为您提供 data.frame
的列表 -
R> class(Data)
[1] "list"
R> length(Data)
[1] 26
R> head(Data[[1]])
INDEX JOURNAL ISSN 2013/2014 2012 2011 2010 2009 2008
1 1 4OR-A Quarterly Journal of Operations Research 1619-4500 0.918 0.73 0.323 0.69 0.75 -
2 2 Aaohn Journal 0891-0162 0.608 0.856 0.509 0.56 - -
3 3 Aapg Bulletin 0149-1423 1.832 1.768 1.831 1.964 1.448 1.364
4 4 AAPS Journal 1550-7416 3.905 4.386 5.086 3.942 3.54 -
5 5 Aaps Pharmscitech 1530-9932 1.776 1.584 1.432 1.211 1.19 1.445
6 6 Aatcc Review 1532-8813 0.254 0.354 0.139 0.315 0.293 0.352
我不确定你是否想将它们全部合并到一个对象中,但如果是这样,你可以使用 do.call(rbind,Data)
。另外,我认为这些 url 中的每一个都返回了两个表,第一个在页面顶部开始搜索目录,这就是我使用
readHTMLTable(
getURL(x),
stringsAsFactors=F)[[2]]
在 lapply
内,而不是
readHTMLTable(
getURL(x),
stringsAsFactors=F)
后者会为每个 url -
返回两个表的列表R> head(url1[[1]])
0-A  | B  | C  | D  | E  | F  | G  | H  | I  | J  | K  | L  | M  |
1 N  | O  | P  | Q  | R  | S  | T  | U  | V  | W  | X  | Y  | Z  |
##
R> head(url1[[2]])
INDEX JOURNAL ISSN 2013/2014 2012 2011 2010 2009 2008
1 1 4OR-A Quarterly Journal of Operations Research 1619-4500 0.918 0.73 0.323 0.69 0.75 -
2 2 Aaohn Journal 0891-0162 0.608 0.856 0.509 0.56 - -
3 3 Aapg Bulletin 0149-1423 1.832 1.768 1.831 1.964 1.448 1.364
4 4 AAPS Journal 1550-7416 3.905 4.386 5.086 3.942 3.54 -
5 5 Aaps Pharmscitech 1530-9932 1.776 1.584 1.432 1.211 1.19 1.445
6 6 Aatcc Review 1532-8813 0.254 0.354 0.139 0.315 0.293 0.352
强制性 Hadleyverse 答案:
library(rvest)
library(dplyr)
library(magrittr)
library(pbapply)
urls <- sprintf("http://www.citefactor.org/journal-impact-factor-list-2014_%s.html",
c("0-A", LETTERS[-1]))
dat <- urls %>%
pblapply(function(url)
html(url) %>% html_table(header=TRUE) %>% extract2(2)) %>%
bind_rows()
glimpse(dat)
## Observations: 1547
## Variables:
## $ INDEX (int) 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14,...
## $ JOURNAL (chr) "4OR-A Quarterly Journal of Operations Researc...
## $ ISSN (chr) "1619-4500", "0891-0162", "0149-1423", "1550-7...
## $ 2013/2014 (chr) "0.918", "0.608", "1.832", "3.905", "1.776", "...
## $ 2012 (chr) "0.73", "0.856", "1.768", "4.386", "1.584", "0...
## $ 2011 (chr) "0.323", "0.509", "1.831", "5.086", "1.432", "...
## $ 2010 (chr) "0.69", "0.56", "1.964", "3.942", "1.211", "0....
## $ 2009 (chr) "0.75", "-", "1.448", "3.54", "1.19", "0.293",...
## $ 2008 (chr) "-", "-", "1.364", "-", "1.445", "0.352", "1.4...
rvest
给我们 html
和 html_table
我仅将 magrittr
用于 extract2
,它只是包装 [[
并且阅读起来更好(IMO)。
pbapply
包包装了 *apply
函数并为您提供免费的进度条。
注意:bind_rows
是最新的 dplyr
,所以在使用它之前抓住它。