我想用R编程语言处理Apache Parquet文件(在我的例子中,在Spark中生成)。
是否有R阅读器?或者是在一个人上完成工作?
如果没有,那么到达那里最方便的方法是什么?注意:有Java和C ++绑定:https://github.com/apache/parquet-mr
答案 0 :(得分:26)
如果您正在使用Spark,那么随着Spark 1.4的发布,这现在相对简单,请参阅下面的示例代码,该代码使用现在属于Apache Spark核心框架的SparkR包。
# install the SparkR package
devtools::install_github('apache/spark', ref='master', subdir='R/pkg')
# load the SparkR package
library('SparkR')
# initialize sparkContext which starts a new Spark session
sc <- sparkR.init(master="local")
# initialize sqlContext
sq <- sparkRSQL.init(sc)
# load parquet file into a Spark data frame and coerce into R data frame
df <- collect(parquetFile(sq, "/path/to/filename"))
# terminate Spark session
sparkR.stop()
展示了一个扩展示例@ https://gist.github.com/andyjudson/6aeff07bbe7e65edc665
如果您没有使用Spark,我不知道您可以使用的任何其他软件包。
答案 1 :(得分:10)
除SparkR
之外,您现在可以使用sparklyr
:
# install.packages("sparklyr")
library(sparklyr)
sc <- spark_connect(master = "local")
spark_tbl_handle <- spark_read_parquet(sc, "tbl_name_in_spark", "/path/to/parquetdir")
regular_df <- collect(spark_tbl_handle)
spark_disconnect(sc)
答案 2 :(得分:5)
您可以简单地使用arrow package:
install.packages("arrow")
library(arrow)
read_parquet("myfile.parquet")
答案 3 :(得分:4)
Spark已更新,并且不推荐使用或重命名了许多新事物和功能。
安迪上面的答案适用于Spark v.1.4,但适用于Spark v.2.3,这是它对我有用的更新。
下载最新版本的Apache Spark https://spark.apache.org/downloads.html(链接中的第3点)
提取.tgz
文件。
在devtool
中安装rstudio
软件包
install.packages('devtools')
打开terminal
并按照以下步骤操作
# This is the folder of extracted spark `.tgz` of point 1 above
export SPARK_HOME=extracted-spark-folder-path
cd $SPARK_HOME/R/lib/SparkR/
R -e "devtools::install('.')"
返回到rstudio
# load the SparkR package
library(SparkR)
# initialize sparkSession which starts a new Spark session
sc <- sparkR.session(master="local")
# load parquet file into a Spark data frame and coerce into R data frame
df <- collect(read.parquet('.parquet-file-path'))
# terminate Spark session
sparkR.stop()
答案 4 :(得分:3)
要在Amazon S3存储桶中读取镶木地板文件,请尝试使用s3a而不是s3n。当使用EMR 1.4.0,RStudio和Spark 1.5.0读取镶木地板文件时,这对我有用。
答案 5 :(得分:2)
使用网状结构,您可以将python中的熊猫用于拼花文件。这样可以避免您运行Spark实例的麻烦。
library(reticulate)
library(dplyr)
pandas <- import("pandas")
read_parquet <- function(path, columns = NULL) {
path <- path.expand(path)
path <- normalizePath(path)
if (!is.null(columns)) columns = as.list(columns)
xdf <- pandas$read_parquet(path, columns = columns)
xdf <- as.data.frame(xdf, stringsAsFactors = FALSE)
dplyr::tbl_df(xdf)
}
read_parquet(PATH_TO_PARQUET_FILE)
答案 6 :(得分:2)
您可以使用arrow
软件包。这与Python pyarrow
中的情况相同,但如今,它也已打包为R而不需要Python。由于CRAN尚不可用,因此您必须先手动安装Arrow C ++:
git clone https://github.com/apache/arrow.git
cd arrow/cpp && mkdir release && cd release
# It is important to statically link to boost libraries
cmake .. -DARROW_PARQUET=ON -DCMAKE_BUILD_TYPE=Release -DARROW_BOOST_USE_SHARED:BOOL=Off
make install
然后,您可以安装R arrow
软件包:
devtools::install_github("apache/arrow/r")
并使用它来加载Parquet文件
library(arrow)
#>
#> Attaching package: 'arrow'
#> The following object is masked from 'package:utils':
#>
#> timestamp
#> The following objects are masked from 'package:base':
#>
#> array, table
read_parquet("somefile.parquet", as_tibble = TRUE)
#> # A tibble: 10 x 2
#> x y
#> <int> <dbl>
#> …
答案 7 :(得分:1)
miniparquet
是一个新的专用软件包。安装方式:
devtools::install_github("hannesmuehleisen/miniparquet")
示例摘自文档:
library(miniparquet)
f <- system.file("extdata/userdata1.parquet", package="miniparquet")
df <- parquet_read(f)
str(df)
# 'data.frame': 1000 obs. of 13 variables:
# $ registration_dttm: POSIXct, format: "2016-02-03 07:55:29" "2016-02-03 17:04:03" "2016-02-03 01:09:31" ...
# $ id : int 1 2 3 4 5 6 7 8 9 10 ...
# $ first_name : chr "Amanda" "Albert" "Evelyn" "Denise" ...
# $ last_name : chr "Jordan" "Freeman" "Morgan" "Riley" ...
# $ email : chr "ajordan0@com.com" "afreeman1@is.gd" "emorgan2@altervista.org" "driley3@gmpg.org" ...
# $ gender : chr "Female" "Male" "Female" "Female" ...
# $ ip_address : chr "1.197.201.2" "218.111.175.34" "7.161.136.94" "140.35.109.83" ...
# $ cc : chr "6759521864920116" "" "6767119071901597" "3576031598965625" ...
# $ country : chr "Indonesia" "Canada" "Russia" "China" ...
# $ birthdate : chr "3/8/1971" "1/16/1968" "2/1/1960" "4/8/1997" ...
# $ salary : num 49757 150280 144973 90263 NA ...
# $ title : chr "Internal Auditor" "Accountant IV" "Structural Engineer" "Senior Cost Accountant" ...
# $ comments : chr "1E+02" "" "" "" ...
答案 8 :(得分:0)
如果您有一个多文件拼花文件,则可能需要执行以下操作:
data.table::rbindlist(lapply(Sys.glob("path_to_parquet/part-*.parquet"), arrow::read_parquet))