使用 R 提升您的数据处理能力
已发表: 2022-03-11R 语言通常被认为是统计学家和数据科学家的语言。 很久以前,这基本上是真的。 然而,多年来,R 通过包提供的灵活性使 R 成为一种更通用的语言。 R 于 1995 年开源,从那时起 R 包的存储库不断增长。 尽管如此,与 Python 等语言相比,R 还是基于数据的。
说到数据,表格数据值得特别关注,因为它是最常用的数据类型之一。 它是一种数据类型,对应于数据库中已知的表结构,其中每一列可以是不同的类型,并且该特定数据类型的处理性能是许多应用程序的关键因素。
在本文中,我们将介绍如何以有效的方式实现表格数据转换。 许多已经将 R 用于机器学习的人并不知道在 R 中可以更快地完成数据处理,并且他们不需要使用其他工具来实现它。
R 中的高性能解决方案
Base R 在 1997 年推出了基于 S-PLUS 的data.frame
类。 与常用的逐行存储数据的数据库不同,R data.frame
将数据作为面向列的结构存储在内存中,因此对于分析中常见的列操作而言,它的缓存效率更高。 此外,即使 R 是一种函数式编程语言,它也不会强制开发人员这样做。 data.table
R 包很好地解决了这两个机会,该包可在 CRAN 存储库中找到。 它在分组操作时执行得非常快,并且通过注意实现中间数据子集(例如仅实现特定任务所需的那些列)来特别节省内存。 在添加或更新列时,它还通过其引用语义避免了不必要的复制。 该软件包的第一个版本已于 2006 年 4 月发布,显着提高了当时的data.frame
性能。 最初的包描述是:
这个包做的很少。 它存在的唯一原因是白皮书指定 data.frame 必须有行名。 这个包定义了一个新的类data.table,它的操作就像一个data.frame,但使用的内存少了10倍,创建(和复制)的速度提高了10倍。 它还借此机会允许在 [] 中使用子集()和 with()之类的表达式。 大部分代码都是从基本函数中复制的,删除了操作 row.names 的代码。
从那时起, data.frame
和data.table
实现都得到了改进,但data.table
仍然比 base R 快得令人难以置信。事实上, data.table
不仅比 base R 快,而且似乎是其中之一最快的开源数据整理工具,与 Python Pandas 等工具、列式存储数据库或 Spark 等大数据应用程序竞争。 它在分布式共享基础设施上的性能尚未进行基准测试,但能够在单个实例上拥有多达 20 亿行的数据具有广阔的前景。 出色的性能与功能齐头并进。 此外,随着最近为提高性能而对耗时的部分进行并行化的努力,推动性能极限的一个方向似乎很明确。
数据转换示例
学习 R 变得容易一点,因为它是交互式工作的,所以我们可以一步一步地跟着例子,随时查看每一步的结果。 在开始之前,让我们从 CRAN 存储库安装data.table
包。
install.packages("data.table")
有用的提示:我们可以打开任何功能的手册,只需输入带有问号的名称,即?install.packages
。
将数据加载到 R
有大量用于从各种格式和数据库中提取数据的包,其中通常包括本机驱动程序。 我们将从CSV文件加载数据,这是原始表格数据最常见的格式。 可以在此处找到以下示例中使用的文件。 我们不必担心CSV
读取性能,因为fread
函数在此基础上进行了高度优化。
为了使用包中的任何函数,我们需要通过library
调用来加载它。
library(data.table) DT <- fread("flights14.csv") print(DT)
## year month day dep_delay arr_delay carrier origin dest air_time ## 1: 2014 1 1 14 13 AA JFK LAX 359 ## 2: 2014 1 1 -3 13 AA JFK LAX 363 ## 3: 2014 1 1 2 9 AA JFK LAX 351 ## 4: 2014 1 1 -8 -26 AA LGA PBI 157 ## 5: 2014 1 1 2 1 AA JFK LAX 350 ## --- ## 253312: 2014 10 31 1 -30 UA LGA IAH 201 ## 253313: 2014 10 31 -5 -14 UA EWR IAH 189 ## 253314: 2014 10 31 -8 16 MQ LGA RDU 83 ## 253315: 2014 10 31 -4 15 MQ LGA DTW 75 ## 253316: 2014 10 31 -5 1 MQ LGA SDF 110 ## distance hour ## 1: 2475 9 ## 2: 2475 11 ## 3: 2475 19 ## 4: 1035 7 ## 5: 2475 13 ## --- ## 253312: 1416 14 ## 253313: 1400 8 ## 253314: 431 11 ## 253315: 502 11 ## 253316: 659 8
如果我们的数据没有很好地建模以进行进一步处理,因为它们需要从 long-to-wide 或 wide-to-long(也称为pivot和unpivot )格式重塑,我们可以查看?dcast
和?melt
函数,从 reshape2 包中知道。 但是, data.table
为 data.table/data.frame 类实现了更快且内存效率更高的方法。
使用data.table
语法查询
如果您熟悉data.frame
查询data.table
与查询data.frame
非常相似。 在i
参数中进行过滤时,我们可以直接使用列名,而无需使用$
符号访问它们,例如df[df$col > 1, ]
。 当提供下一个参数j
时,我们提供了一个要在data.table
范围内评估的表达式。 要传递非表达式j
参数,请使用with=FALSE
。 第三个参数,不存在于data.frame
方法中,定义了组,使j
中的表达式由组评估。
# data.frame DF[DF$col1 > 1L, c("col2", "col3")] # data.table DT[col1 > 1L, .(col2, col3), ...] # by group using: `by = col4`
如果您熟悉数据库
查询data.table
在很多方面都对应着更多人可能熟悉的SQL查询。 下面的DT
代表data.table
对象,对应 SQL 的FROM
子句。
DT[ i = where, j = select | update, by = group by] [ having, ... ] [ order by, ... ] [ ... ] ... [ ... ]
排序行和重新排序列
数据排序是时间序列的关键转换,也是数据提取和呈现的导入。 排序可以通过向i
参数提供行顺序的整数向量来实现,方法与data.frame
相同。 查询order(carrier, -dep_delay)
中的第一个参数将在carrier
字段上按升序选择数据,在dep_delay
度量上按降序选择数据。 第二个参数j
,如上一节所述,定义要返回的列(或表达式)及其顺序。
ans <- DT[order(carrier, -dep_delay), .(carrier, origin, dest, dep_delay)] head(ans)
## carrier origin dest dep_delay ## 1: AA EWR DFW 1498 ## 2: AA JFK BOS 1241 ## 3: AA EWR DFW 1071 ## 4: AA EWR DFW 1056 ## 5: AA EWR DFW 1022 ## 6: AA EWR DFW 989
要通过引用重新排序数据,而不是按特定顺序查询数据,我们使用set*
函数。
setorder(DT, carrier, -dep_delay) leading.cols <- c("carrier","dep_delay") setcolorder(DT, c(leading.cols, setdiff(names(DT), leading.cols))) print(DT)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1241 2014 4 15 1223 JFK BOS 39 ## 3: AA 1071 2014 6 13 1064 EWR DFW 175 ## 4: AA 1056 2014 9 12 1115 EWR DFW 198 ## 5: AA 1022 2014 6 16 1073 EWR DFW 178 ## --- ## 253312: WN -12 2014 3 9 -21 LGA BNA 115 ## 253313: WN -13 2014 3 10 -18 EWR MDW 112 ## 253314: WN -13 2014 5 17 -30 LGA HOU 202 ## 253315: WN -13 2014 6 15 10 LGA MKE 101 ## 253316: WN -13 2014 8 19 -30 LGA CAK 63 ## distance hour ## 1: 1372 7 ## 2: 187 13 ## 3: 1372 10 ## 4: 1372 6 ## 5: 1372 7 ## --- ## 253312: 764 16 ## 253313: 711 20 ## 253314: 1428 17 ## 253315: 738 20 ## 253316: 397 16
大多数情况下,我们不需要原始数据集和有序/排序数据集。 默认情况下,与其他函数式编程语言类似,R 语言会将排序后的数据作为新对象返回,因此需要的内存是按引用排序的两倍。
子集查询
让我们为航班出发地“JFK”和从 6 到 9 的月份创建一个子集数据集。在第二个参数中,我们将结果子集到列出的列中,添加一个计算变量sum_delay
。
ans <- DT[origin == "JFK" & month %in% 6:9, .(origin, month, arr_delay, dep_delay, sum_delay = arr_delay + dep_delay)] head(ans)
## origin month arr_delay dep_delay sum_delay ## 1: JFK 7 925 926 1851 ## 2: JFK 8 727 772 1499 ## 3: JFK 6 466 451 917 ## 4: JFK 7 414 450 864 ## 5: JFK 6 411 442 853 ## 6: JFK 6 333 343 676
默认情况下,当在单列data.table
上设置数据集时,会自动为该列创建索引。 这会导致对该列的任何进一步过滤调用的实时答案。
更新数据集
通过引用添加新列是使用:=
运算符执行的,它将变量分配到数据集中。 这避免了数据集的内存副本,因此我们不需要将结果分配给每个新变量。
DT[, sum_delay := arr_delay + dep_delay] head(DT)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1241 2014 4 15 1223 JFK BOS 39 ## 3: AA 1071 2014 6 13 1064 EWR DFW 175 ## 4: AA 1056 2014 9 12 1115 EWR DFW 198 ## 5: AA 1022 2014 6 16 1073 EWR DFW 178 ## 6: AA 989 2014 6 11 991 EWR DFW 194 ## distance hour sum_delay ## 1: 1372 7 2992 ## 2: 187 13 2464 ## 3: 1372 10 2135 ## 4: 1372 6 2171 ## 5: 1372 7 2095 ## 6: 1372 11 1980
要一次添加更多变量,我们可以使用DT[,
:= (sum_delay = arr_delay + dep_delay)]
语法,类似于从数据集查询时的.(sum_delay = arr_delay + dep_delay)
。
可以通过引用进行子分配,仅通过与i
参数组合来更新特定的行。
DT[origin=="JFK", distance := NA] head(DT)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1241 2014 4 15 1223 JFK BOS 39 ## 3: AA 1071 2014 6 13 1064 EWR DFW 175 ## 4: AA 1056 2014 9 12 1115 EWR DFW 198 ## 5: AA 1022 2014 6 16 1073 EWR DFW 178 ## 6: AA 989 2014 6 11 991 EWR DFW 194 ## distance hour sum_delay ## 1: 1372 7 2992 ## 2: NA 13 2464 ## 3: 1372 10 2135 ## 4: 1372 6 2171 ## 5: 1372 7 2095 ## 6: 1372 11 1980
聚合数据
为了聚合数据,我们在方括号by
提供了第三个参数。 然后,在j
中我们需要提供聚合函数调用,这样才能真正聚合数据。 j
参数中使用的.N
符号对应于每组中所有观测值的数量。 如前所述,聚合可以与行和选择列上的子集组合。
ans <- DT[, .(m_arr_delay = mean(arr_delay), m_dep_delay = mean(dep_delay), count = .N), .(carrier, month)] head(ans)
## carrier month m_arr_delay m_dep_delay count ## 1: AA 10 5.541959 7.591497 2705 ## 2: AA 4 1.903324 3.987008 2617 ## 3: AA 6 8.690067 11.476475 2678 ## 4: AA 9 -1.235160 3.307078 2628 ## 5: AA 8 4.027474 8.914054 2839 ## 6: AA 7 9.159886 11.665953 2802
通常,我们可能需要将行的值与其在组中的聚合进行比较。 在 SQL 中,我们通过AVG(arr_delay) OVER (PARTITION BY carrier, month)
在分区上应用聚合。
ans <- DT[, .(arr_delay, carrierm_mean_arr = mean(arr_delay), dep_delay, carrierm_mean_dep = mean(dep_delay)), .(carrier, month)] head(ans)
## carrier month arr_delay carrierm_mean_arr dep_delay carrierm_mean_dep ## 1: AA 10 1494 5.541959 1498 7.591497 ## 2: AA 10 840 5.541959 848 7.591497 ## 3: AA 10 317 5.541959 338 7.591497 ## 4: AA 10 292 5.541959 331 7.591497 ## 5: AA 10 322 5.541959 304 7.591497 ## 6: AA 10 306 5.541959 299 7.591497
如果我们不想使用这些聚合查询数据,而只是通过引用将它们放入实际的表更新中,我们可以使用:=
运算符来完成。 这避免了数据集的内存副本,因此我们不需要将结果分配给新变量。
DT[, `:=`(carrierm_mean_arr = mean(arr_delay), carrierm_mean_dep = mean(dep_delay)), .(carrier, month)] head(DT)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1241 2014 4 15 1223 JFK BOS 39 ## 3: AA 1071 2014 6 13 1064 EWR DFW 175 ## 4: AA 1056 2014 9 12 1115 EWR DFW 198 ## 5: AA 1022 2014 6 16 1073 EWR DFW 178 ## 6: AA 989 2014 6 11 991 EWR DFW 194 ## distance hour sum_delay carrierm_mean_arr carrierm_mean_dep ## 1: 1372 7 2992 5.541959 7.591497 ## 2: NA 13 2464 1.903324 3.987008 ## 3: 1372 10 2135 8.690067 11.476475 ## 4: 1372 6 2171 -1.235160 3.307078 ## 5: 1372 7 2095 8.690067 11.476475 ## 6: 1372 11 1980 8.690067 11.476475
加入数据集
数据集的 Base R 连接和合并被认为是一种特殊类型的子集操作。 我们提供了一个数据集,我们希望在第一个方括号参数i
中加入该数据集。 对于提供给i
的数据集中的每一行,我们匹配使用[
的数据集中的行。 如果我们只想保留匹配的行(内部连接),那么我们传递一个额外的参数nomatch = 0L
。 我们使用on
参数来指定我们想要加入两个数据集的列。

# create reference subset carrierdest <- DT[, .(count=.N), .(carrier, dest) # count by carrier and dest ][1:10 # just 10 first groups ] # chaining `[...][...]` as subqueries print(carrierdest)
## carrier dest count ## 1: AA DFW 5877 ## 2: AA BOS 1173 ## 3: AA ORD 4798 ## 4: AA SEA 298 ## 5: AA EGE 85 ## 6: AA LAX 3449 ## 7: AA MIA 6058 ## 8: AA SFO 1312 ## 9: AA AUS 297 ## 10: AA DCA 172
# outer join ans <- carrierdest[DT, on = c("carrier","dest")] print(ans)
## carrier dest count dep_delay year month day arr_delay origin ## 1: AA DFW 5877 1498 2014 10 4 1494 EWR ## 2: AA BOS 1173 1241 2014 4 15 1223 JFK ## 3: AA DFW 5877 1071 2014 6 13 1064 EWR ## 4: AA DFW 5877 1056 2014 9 12 1115 EWR ## 5: AA DFW 5877 1022 2014 6 16 1073 EWR ## --- ## 253312: WN BNA NA -12 2014 3 9 -21 LGA ## 253313: WN MDW NA -13 2014 3 10 -18 EWR ## 253314: WN HOU NA -13 2014 5 17 -30 LGA ## 253315: WN MKE NA -13 2014 6 15 10 LGA ## 253316: WN CAK NA -13 2014 8 19 -30 LGA ## air_time distance hour sum_delay carrierm_mean_arr ## 1: 200 1372 7 2992 5.541959 ## 2: 39 NA 13 2464 1.903324 ## 3: 175 1372 10 2135 8.690067 ## 4: 198 1372 6 2171 -1.235160 ## 5: 178 1372 7 2095 8.690067 ## --- ## 253312: 115 764 16 -33 6.921642 ## 253313: 112 711 20 -31 6.921642 ## 253314: 202 1428 17 -43 22.875845 ## 253315: 101 738 20 -3 14.888889 ## 253316: 63 397 16 -43 7.219670 ## carrierm_mean_dep ## 1: 7.591497 ## 2: 3.987008 ## 3: 11.476475 ## 4: 3.307078 ## 5: 11.476475 ## --- ## 253312: 11.295709 ## 253313: 11.295709 ## 253314: 30.546453 ## 253315: 24.217560 ## 253316: 17.038047
# inner join ans <- DT[carrierdest, # for each row in carrierdest nomatch = 0L, # return only matching rows from both tables on = c("carrier","dest")] # joining on columns carrier and dest print(ans)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1071 2014 6 13 1064 EWR DFW 175 ## 3: AA 1056 2014 9 12 1115 EWR DFW 198 ## 4: AA 1022 2014 6 16 1073 EWR DFW 178 ## 5: AA 989 2014 6 11 991 EWR DFW 194 ## --- ## 23515: AA -8 2014 10 11 -13 JFK DCA 53 ## 23516: AA -9 2014 5 21 -12 JFK DCA 52 ## 23517: AA -9 2014 6 5 -6 JFK DCA 53 ## 23518: AA -9 2014 10 2 -21 JFK DCA 51 ## 23519: AA -11 2014 5 27 10 JFK DCA 55 ## distance hour sum_delay carrierm_mean_arr carrierm_mean_dep count ## 1: 1372 7 2992 5.541959 7.591497 5877 ## 2: 1372 10 2135 8.690067 11.476475 5877 ## 3: 1372 6 2171 -1.235160 3.307078 5877 ## 4: 1372 7 2095 8.690067 11.476475 5877 ## 5: 1372 11 1980 8.690067 11.476475 5877 ## --- ## 23515: NA 15 -21 5.541959 7.591497 172 ## 23516: NA 15 -21 4.150172 8.733665 172 ## 23517: NA 15 -15 8.690067 11.476475 172 ## 23518: NA 15 -30 5.541959 7.591497 172 ## 23519: NA 15 -1 4.150172 8.733665 172
请注意,由于基本 R 子集的一致性,外连接默认为RIGHT OUTER
。 如果我们正在寻找LEFT OUTER
,我们需要交换表,如上例所示。 使用与基本 R merge
data.frame
相同的 API,也可以在merge
data.table
方法中轻松控制确切的行为。
如果我们想简单地在数据集中查找列,我们可以在加入时使用j
参数中的:=
运算符有效地做到这一点。 与我们通过引用进行子分配相同的方式,如更新数据集部分中所述,我们现在只是通过引用从我们加入的数据集中添加一列。 这避免了数据在内存中的复制,因此我们不需要将结果分配给新变量。
DT[carrierdest, # data.table to join with lkp.count := count, # lookup `count` column from `carrierdest` on = c("carrier","dest")] # join by columns head(DT)
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: AA 1498 2014 10 4 1494 EWR DFW 200 ## 2: AA 1241 2014 4 15 1223 JFK BOS 39 ## 3: AA 1071 2014 6 13 1064 EWR DFW 175 ## 4: AA 1056 2014 9 12 1115 EWR DFW 198 ## 5: AA 1022 2014 6 16 1073 EWR DFW 178 ## 6: AA 989 2014 6 11 991 EWR DFW 194 ## distance hour sum_delay carrierm_mean_arr carrierm_mean_dep lkp.count ## 1: 1372 7 2992 5.541959 7.591497 5877 ## 2: NA 13 2464 1.903324 3.987008 1173 ## 3: 1372 10 2135 8.690067 11.476475 5877 ## 4: 1372 6 2171 -1.235160 3.307078 5877 ## 5: 1372 7 2095 8.690067 11.476475 5877 ## 6: 1372 11 1980 8.690067 11.476475 5877
对于聚合 while join ,使用by = .EACHI
。 它执行不会实现中间连接结果的连接,并将动态应用聚合,从而提高内存效率。
滚动连接是一种不常见的功能,专为处理有序数据而设计。 它非常适合处理时间数据和一般的时间序列。 它基本上将连接条件中的匹配滚动到下一个匹配值。 通过在加入时提供roll
参数来使用它。
快速重叠连接通过使用各种重叠运算符来连接基于周期及其重叠处理的数据集: any
、 within
、 start
、 end
。
目前正在开发使用非相等条件连接数据集的非等连接功能。
分析数据
在探索我们的数据集时,我们有时可能希望收集有关该主题的技术信息,以更好地了解数据的质量。
描述性统计
summary(DT)
## carrier dep_delay year month ## Length:253316 Min. :-112.00 Min. :2014 Min. : 1.000 ## Class :character 1st Qu.: -5.00 1st Qu.:2014 1st Qu.: 3.000 ## Mode :character Median : -1.00 Median :2014 Median : 6.000 ## Mean : 12.47 Mean :2014 Mean : 5.639 ## 3rd Qu.: 11.00 3rd Qu.:2014 3rd Qu.: 8.000 ## Max. :1498.00 Max. :2014 Max. :10.000 ## ## day arr_delay origin dest ## Min. : 1.00 Min. :-112.000 Length:253316 Length:253316 ## 1st Qu.: 8.00 1st Qu.: -15.000 Class :character Class :character ## Median :16.00 Median : -4.000 Mode :character Mode :character ## Mean :15.89 Mean : 8.147 ## 3rd Qu.:23.00 3rd Qu.: 15.000 ## Max. :31.00 Max. :1494.000 ## ## air_time distance hour sum_delay ## Min. : 20.0 Min. : 80.0 Min. : 0.00 Min. :-224.00 ## 1st Qu.: 86.0 1st Qu.: 529.0 1st Qu.: 9.00 1st Qu.: -19.00 ## Median :134.0 Median : 762.0 Median :13.00 Median : -5.00 ## Mean :156.7 Mean : 950.4 Mean :13.06 Mean : 20.61 ## 3rd Qu.:199.0 3rd Qu.:1096.0 3rd Qu.:17.00 3rd Qu.: 23.00 ## Max. :706.0 Max. :4963.0 Max. :24.00 Max. :2992.00 ## NA's :81483 ## carrierm_mean_arr carrierm_mean_dep lkp.count ## Min. :-22.403 Min. :-4.500 Min. : 85 ## 1st Qu.: 2.676 1st Qu.: 7.815 1st Qu.:3449 ## Median : 6.404 Median :11.354 Median :5877 ## Mean : 8.147 Mean :12.465 Mean :4654 ## 3rd Qu.: 11.554 3rd Qu.:17.564 3rd Qu.:6058 ## Max. : 86.182 Max. :52.864 Max. :6058 ## NA's :229797
基数
我们可以使用uniqueN
函数检查数据的唯一性,并将其应用于每一列。 下面查询中的对象.SD
对应于Data.table的S子集:
DT[, lapply(.SD, uniqueN)]
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: 14 570 1 10 31 616 3 109 509 ## distance hour sum_delay carrierm_mean_arr carrierm_mean_dep lkp.count ## 1: 152 25 1021 134 134 11
NA比率
为了计算每列的未知值(R 中的NA
和 SQL 中的NULL
)的比率,我们提供了应用于每一列的所需函数。
DT[, lapply(.SD, function(x) sum(is.na(x))/.N)]
## carrier dep_delay year month day arr_delay origin dest air_time ## 1: 0 0 0 0 0 0 0 0 0 ## distance hour sum_delay carrierm_mean_arr carrierm_mean_dep lkp.count ## 1: 0.3216654 0 0 0 0 0.9071555
导出数据
data.table
包还提供了将表格数据快速导出为CSV
格式的功能。
tmp.csv <- tempfile(fileext=".csv") fwrite(DT, tmp.csv) # preview exported data cat(system(paste("head -3",tmp.csv), intern=TRUE), sep="\n")
## carrier,dep_delay,year,month,day,arr_delay,origin,dest,air_time,distance,hour,sum_delay,carrierm_mean_arr,carrierm_mean_dep,lkp.count ## AA,1498,2014,10,4,1494,EWR,DFW,200,1372,7,2992,5.54195933456561,7.59149722735674,5877 ## AA,1241,2014,4,15,1223,JFK,BOS,39,,13,2464,1.90332441727168,3.98700802445548,1173
在撰写本文时, fwrite
函数尚未发布到 CRAN 存储库。 要使用它我们需要安装data.table
开发版本,否则我们可以使用base R write.csv
函数,但不要指望它很快。
资源
有很多可用的资源。 除了每个功能可用的手册外,还有包小插曲,它们是围绕特定主题的教程。 这些可以在入门页面上找到。 此外,演示文稿页面列出了来自全球data.table
演示文稿的 30 多种材料(幻灯片、视频等)。 此外,社区的支持多年来一直在增长,最近在 Stack Overflow data.table
标签上达到了第 4000 个问题,仍然有很高的比例(91.9%)的问题得到回答。 下图显示了 Stack Overflow 上data.table
标记问题的数量。
概括
本文提供了使用data.table
包在 R 中进行高效表格数据转换的选定示例。 可以通过寻找可重现的基准来检查有关性能的实际数据。 我发表了一篇关于 R 语言排名前 50 位的 StackOverflow 问题的data.table
解决方案的摘要博客文章,名为 Solve common R questions effective with data.table,您可以在其中找到大量数据和可重现的代码。 包data.table
对其分组操作使用快速基数排序的本机实现,并为快速子集/连接使用二进制搜索。 此基数排序已从版本 3.3.0 并入基础 R 中。 此外,该算法最近在 H2O 机器学习平台中实现并在 H2O 集群上并行化,从而在 10B x 10B 行上实现高效的大连接。