我正在尝试将一个大的JSONL(.gz)文件拆分成多个.csv文件。我已经能够使用下面的代码为前25.000个条目创建一个有效的.csv文件。我现在想要读取和解析25.001到50.000行,但一直无法这样做。我觉得这应该很容易做到,但我的搜索到目前为止还没有结果。
有没有办法操纵readLiness函数中的'n‘因子来选择特定范围的线?
(附注:我正在学习;))
setwd("filename")
a<-list.files(pattern="(.*?).0.jsonl.gz")
a[1]
raw.data<- readLines(gzfile(a[1]), warn = "T",n=25000)
rd <- fromJSON(paste("[",paste(raw.data,collapse=','),']'))
rd2<-do.call("cbind", rd)
file=paste0(a,".csv.gz")
write.csv.gz(rd2, file, na="", row.names=FALSE)发布于 2018-09-04 06:06:14
readr包中的read_lines()函数比base::readLines()更快,可用于指定读取的开始行和结束行。例如:
library(readr)
myFile <- "./data/veryLargeFile.txt"
first25K <- read_lines(myFile,skip=0,n_max = 25000)
second25K <- read_lines(myFile,skip=25000,n_max=25000) 这是一个使用NOAA StormData数据集的完整的工作示例。该文件描述了1950至2011年间美国超过90万起极端天气事件的位置、事件类型和损失信息。下载并解压缩文件后,我们将使用readr::read_lines()以25,000为一组读取前50,000行。
警告:压缩文件大小约为50Mb。
library(R.utils)
library(readr)
dlMethod <- "curl"
if(substr(Sys.getenv("OS"),1,7) == "Windows") dlMethod <- "wininet"
url <- "https://d396qusza40orc.cloudfront.net/repdata%2Fdata%2FStormData.csv.bz2"
download.file(url,destfile='StormData.csv.bz2',method=dlMethod,mode="wb")
bunzip2("StormData.csv.bz2","StormData.csv")
first25K <- read_lines("StormData.csv",skip=0,n_max = 25000)
second25K <- read_lines("StormData.csv",skip=25000,n_max=25000)...and在RStudio环境查看器中查看的对象:

以下是在采用Inteli7-6500U处理器的HP Spectre x-360笔记本电脑上比较base::readLines()和readr::read_lines()的性能时序。
> # check performance of readLines()
> system.time(first25K <- readLines("stormData.csv",n=25000))
user system elapsed
0.05 0.00 0.04
> # check performance of readr::read_lines()
> system.time(first25K <- read_lines("StormData.csv",skip=0,n_max = 25000))
user system elapsed
0.00 0.00 0.01 https://stackoverflow.com/questions/52150149
复制相似问题