根据相邻元素有效地更改数据中的元素

时间:2015-06-01 23:54:52

标签: r

让我深入研究。想象一下,你的数据看起来像这样:

 df <- data.frame(one = c(1, 1, NA, 13), 
                  two = c(2, NA,10, 14), 
                three = c(NA,NA,11, NA), 
                 four = c(4, 9, 12, NA))

这给了我们:

df
#   one two three four
# 1   1   2    NA    4
# 2   1  NA    NA    9
# 3  NA  10    11   12
# 4  13  14    NA   NA

每行分别是第1,2,3和4周的测量值。假设数字代表自上次测量发生以来的一些累积测量值。例如,在第1行中,&#34; 4&#34;在列#34;四&#34;表示第3周和第4周的累积值。

现在我想&#34;甚至&#34;如果在前几周没有进行测量,则通过将测量值均匀地分布到测量前的所有周,这些数字(在此可以自由地更正我的术语)。例如,第1行应为

 1 2 2 2 

因为原始数据中的4代表2周的累积值(周&#34; 3&#34;&#34; 4&#34;),4/2是2。

最终的最终结果应如下所示:

df
#  one two three four
# 1   1   2    2    2
# 2   1   3    3    3
# 3   5   5   11   12
# 4  13  14   NA   NA

我对如何最好地接近这一点感到困惑。一个候选解决方案是获取所有缺失值的索引,然后计算运行的长度(发生多次的NA),并使用它以某种方式填充值。但是,我的真实数据很大,我认为这样的策略可能很耗时。是否有更简单,更有效的方式?

4 个答案:

答案 0 :(得分:14)

基础R解决方案是首先确定需要替换的索引,然后确定这些索引的分组,最后使用ave函数分配分组值:

clean <- function(x) {
  to.rep <- which(is.na(x) | c(FALSE, head(is.na(x), -1)))
  groups <- cumsum(c(TRUE, head(!is.na(x[to.rep]), -1)))
  x[to.rep] <- ave(x[to.rep], groups, FUN=function(y) {
    rep(tail(y, 1) / length(y), length(y))
  })
  return(x)
}
t(apply(df, 1, clean))
#      one two three four
# [1,]   1   2     2    2
# [2,]   1   3     3    3
# [3,]   5   5    11   12
# [4,]  13  14    NA   NA

如果效率很重要(你的问题暗示它是),那么Rcpp解决方案可能是个不错的选择:

library(Rcpp)
cppFunction(
"NumericVector cleanRcpp(NumericVector x) {
  const int n = x.size();
  NumericVector y(x);
  int consecNA = 0;
  for (int i=0; i < n; ++i) {
    if (R_IsNA(x[i])) {
      ++consecNA;
    } else if (consecNA > 0) {
      const double replacement = x[i] / (consecNA + 1);
      for (int j=i-consecNA; j <= i; ++j) {
        y[j] = replacement;
      }
      consecNA = 0;
    } else {
      consecNA = 0;
    }
  }
  return y;
}")
t(apply(df, 1, cleanRcpp))
#      one two three four
# [1,]   1   2     2    2
# [2,]   1   3     3    3
# [3,]   5   5    11   12
# [4,]  13  14    NA   NA

我们可以比较更大的实例(10000 x 100矩阵)的性能:

set.seed(144)
mat <- matrix(sample(c(1:3, NA), 1000000, replace=TRUE), nrow=10000)
all.equal(apply(mat, 1, clean), apply(mat, 1, cleanRcpp))
# [1] TRUE
system.time(apply(mat, 1, clean))
#    user  system elapsed 
#   4.918   0.035   4.992 
system.time(apply(mat, 1, cleanRcpp))
#    user  system elapsed 
#   0.093   0.016   0.120 

在这种情况下,与基本R实现相比,Rcpp解决方案提供了大约40倍的加速。

答案 1 :(得分:11)

这是一个基本的R解决方案,其几乎与josilber的Rcpp功能一样快:

spread_left <- function(df) {
    nc <- ncol(df)
    x <- rev(as.vector(t(as.matrix(cbind(df, -Inf)))))
    ii <- cumsum(!is.na(x))
    f <- tabulate(ii)
    v <- x[!duplicated(ii)]
    xx <- v[ii]/f[ii]
    xx[xx == -Inf] <- NA
    m <- matrix(rev(xx), ncol=nc+1, byrow=TRUE)[,seq_len(nc)]
    as.data.frame(m)
}
spread_left(df)
#   one two three four
# 1   1   2     2    2
# 2   1   3     3    3
# 3   5   5    11   12
# 4  13  14    NA   NA

通过矢量化所有内容并完全避免对apply()进行耗时的调用,设法相对较快。 (缺点是它也相对混淆;要了解它是如何工作的,请执行debug(spread_left)然后将其应用于OP中的小data.frame df

以下是所有当前发布的解决方案的基准:

library(rbenchmark)
set.seed(144)
mat <- matrix(sample(c(1:3, NA), 1000000, replace=TRUE), nrow=10000)
df <- as.data.frame(mat)

## First confirm that it produces the same results
identical(spread_left(df), as.data.frame(t(apply(mat, 1, clean)))) 
# [1] TRUE

## Then compare its speed
benchmark(josilberR     = t(apply(mat, 1, clean)),
          josilberRcpp  = t(apply(mat, 1, cleanRcpp)),
          Josh          = spread_left(df),
          Henrik        = t(apply(df, 1, fn)),
          replications = 10)
#           test replications elapsed relative user.self sys.self
# 4       Henrik           10   38.81   25.201     38.74     0.08
# 3         Josh           10    2.07    1.344      1.67     0.41
# 1    josilberR           10   57.42   37.286     57.37     0.05
# 2 josilberRcpp           10    1.54    1.000      1.44     0.11

答案 2 :(得分:7)

另一种base可能性。我首先创建一个分组变量(grp),在其上传播&#39;然后使用ave进行制作。

fn <- function(x){
  grp <- rev(cumsum(!is.na(rev(x))))
  res <- ave(x, grp, FUN = function(y) sum(y, na.rm = TRUE) / length(y))
  res[grp == 0] <- NA
  res
}

t(apply(df, 1, fn))
#      one two three four
# [1,]   1   2     2    2
# [2,]   1   3     3    3
# [3,]   5   5    11   12
# [4,]  13  14    NA   NA

答案 3 :(得分:3)

我在想,如果NA相对较少,那么通过引用进行编辑可能会更好。 (我猜测这是Rcpp方法的工作原理。)以下是data.table中如何完成它,几乎逐字地借用@Henrik的函数并转换为长格式: / p>

require(data.table) # 1.9.5
fill_naseq <- function(df){

    # switch to long format
    DT  <- data.table(id=(1:nrow(df))*ncol(df),df)
    mDT <- setkey(melt(DT,id.vars="id"),id)
    mDT[,value := as.numeric(value)]

    mDT[,badv  := is.na(value)]     
    mDT[
      # subset to rows that need modification
      badv|shift(badv),
      # apply @Henrik's function, more or less
      value:={
        g = ave(!badv,id,FUN=function(x)rev(cumsum(rev(x))))+id
        ave(value,g,FUN=function(x){n = length(x); x[n]/n})
    }]

    # revert to wide format
    (setDF(dcast(mDT,id~variable)[,id:=NULL]))
}

identical(fill_naseq(df),spread_left(df)) # TRUE

为了展示这种方法的最佳情况,我进行了模拟,以便NA非常罕见:

nr = 1e4
nc = 100
nafreq = 1/1e4

mat <- matrix(sample(
  c(NA,1:3),
  nr*nc, 
  replace=TRUE,
  prob=c(nafreq,rep((1-nafreq)/3,3))
),nrow=nr)
df  <- as.data.frame(mat)

benchmark(F=fill_naseq(df),Josh=spread_left(df),replications=10)[1:5]
#   test replications elapsed relative user.self
# 1    F           10    3.82    1.394      3.72
# 2 Josh           10    2.74    1.000      2.70
# I don't have Rcpp installed and so left off josilber's even faster approach

所以,它仍然较慢。但是,如果数据保存为长格式,则无需重新整形:

DT  <- data.table(id=(1:nrow(df))*ncol(df),df)
mDT <- setkey(melt(DT,id.vars="id"),id)
mDT[,value := as.numeric(value)]

fill_naseq_long <- function(mDT){
    mDT[,badv := is.na(value)]
    mDT[badv|shift(badv),value:={
      g = ave(!badv,id,FUN=function(x)rev(cumsum(rev(x))))+id
      ave(value,g,FUN=function(x){n = length(x); x[n]/n})
    }]
    mDT
}

benchmark(
  F2=fill_naseq_long(mDT),F=fill_naseq(df),Josh=spread_left(df),replications=10)[1:5]
#   test replications elapsed relative user.self
# 2    F           10    3.98    8.468      3.81
# 1   F2           10    0.47    1.000      0.45
# 3 Josh           10    2.72    5.787      2.69

现在它快了一点。谁不想以长格式保存他们的数据?即使我们没有按照&#34; id&#34;进行相同数量的观察,这也具有工作的优势。