首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >read.csv崩溃RStudio

read.csv崩溃RStudio
EN

Stack Overflow用户
提问于 2020-03-26 18:59:54
回答 1查看 1.3K关注 0票数 1

帮我找出我做错了什么!

我有大约20个.csv文件(产品提要)在线。我以前都能把它们都取走。但现在,如果我得到不止一个或两个,它们就会崩溃。文件大小约为50K行/ 30列。

我想这是内存问题,但我在另一台电脑上试过,结果完全一样。会不会是文件中的一些格式使得R占用了太多内存?或者它能是什么?

如果我运行其中之一,一切都很好。有时两次。三次,它几乎肯定会崩溃

a <- read.csv("URL1")

b <- read.csv("URL2")

c <- read.csv("URL3")

我已经尝试过指定各种东西,例如:

d <- read.csv("URL4",skipNul=TRUE,sep=",",stringsAsFactors=FALSE,header=TRUE)

我一直收到这样的消息:

R会话中止。R遇到一个致命的错误。会议结束。

我们有一些商业软件,我可以在没有问题的情况下获取相同的文件,所以文件应该是好的。我的脚本连续几个月每天运行两次,没有问题

R版本3.6.1

平台: x86_64-apple-darwin15.6.0 (64位)

EN

回答 1

Stack Overflow用户

发布于 2020-12-06 05:24:05

我也遇到过这个问题,但是使用了read_csv()。我还没有弄清楚真正的原因是什么,但我最好的猜测是,试图同时读取一个文件并将该文件写入一个变量,这对内存或CPU来说太大了。

出于这种猜测,我尝试了这个方法,它对我来说非常有效:

代码语言:javascript
复制
library(dplyr)

a <- read.csv("URL1") %>% as_tibble()

# you can use other data types instead of tibble. that is just my example.

整个想法是通过使用管道将阅读过程和写作过程分开。这确保了在下一个开始之前必须完成一个。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60874335

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档