帮我找出我做错了什么!
我有大约20个.csv文件(产品提要)在线。我以前都能把它们都取走。但现在,如果我得到不止一个或两个,它们就会崩溃。文件大小约为50K行/ 30列。
我想这是内存问题,但我在另一台电脑上试过,结果完全一样。会不会是文件中的一些格式使得R占用了太多内存?或者它能是什么?
如果我运行其中之一,一切都很好。有时两次。三次,它几乎肯定会崩溃
a <- read.csv("URL1")
b <- read.csv("URL2")
c <- read.csv("URL3")
我已经尝试过指定各种东西,例如:
d <- read.csv("URL4",skipNul=TRUE,sep=",",stringsAsFactors=FALSE,header=TRUE)
我一直收到这样的消息:
R会话中止。R遇到一个致命的错误。会议结束。
我们有一些商业软件,我可以在没有问题的情况下获取相同的文件,所以文件应该是好的。我的脚本连续几个月每天运行两次,没有问题
R版本3.6.1
平台: x86_64-apple-darwin15.6.0 (64位)
发布于 2020-12-06 05:24:05
我也遇到过这个问题,但是使用了read_csv()。我还没有弄清楚真正的原因是什么,但我最好的猜测是,试图同时读取一个文件并将该文件写入一个变量,这对内存或CPU来说太大了。
出于这种猜测,我尝试了这个方法,它对我来说非常有效:
library(dplyr)
a <- read.csv("URL1") %>% as_tibble()
# you can use other data types instead of tibble. that is just my example.整个想法是通过使用管道将阅读过程和写作过程分开。这确保了在下一个开始之前必须完成一个。
https://stackoverflow.com/questions/60874335
复制相似问题