腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
超大
文件
分发
我有一个大约在400MB之间的
文件
。我需要它在大约2500台计算机上可用。这些计算机将在8小时的过程中大致在同一天下载该
文件
。这意味着它们不会在同一秒内全部访问,而是在8小时内访问。如果不能,您建议使用什么配置来分发这些
文件
。谢谢!
浏览 2
提问于2011-02-17
得票数 1
1
回答
GitHub操作:签出操作下载“损坏/
超大
”
文件
对于这两个运行程序,运行checkout@v2操作会导致某些“大”下载
文件
变得过大。例如:使用该操作下载后,回购系统中的512 kb png图像变为514 kb,或1331 kb .exe
文件
变为1355 kb。\premake5.exe vs2019这种情况只发生在一些大型
文件
中。在操作运行器的克隆操作运行器中运行git status时,“损坏”
文件
被视为已修改
文件
。 自托管运行程序
浏览 2
修改于2020-09-08
得票数 0
回答已采纳
1
回答
MySql
超大
文件
导入
导入此
文件
的最佳(最快)方法是什么?innodb_log_file_size = 1Ginnodb_flush_log_at_trx_commit = 0 我使用MySql命令行客户端执行此
文件
浏览 2
修改于2017-08-26
得票数 1
1
回答
超大
型日志
文件
我现在的管理员文档(log.log)中有一个超过18 is的
文件
。我似乎无法删除该
文件
,因为它只是再次出现。任何帮助。 当我删除日志时,它说我没有管理员特权。(我知道)
浏览 0
提问于2012-04-25
得票数 3
1
回答
优化
超大
型
文件
上的mmap
我有一个很大的
文件
150 GB。我使用只读mmap,并对
文件
执行二进制搜索。这个优化值得去做吗? 还有如何估计磁盘块“结束”的位置。
浏览 4
修改于2016-07-20
得票数 4
回答已采纳
1
回答
如何在Linux上删除
超大
文件
我在Linux上有一个63 GB的
文件
需要删除。我的垃圾现在只有6 GB。我尝试将63 GB的
文件
拆分成63个1 GB的
文件
,并且成功了。但是,我拆分的
文件
仍然存在,所以我仍然无法删除它。我在互联网上搜索,发现解压这些海量
文件
的方法是首先将它们连接在一起,这就是63 GB的
文件
。一个我存储了多年照片和视频的网站正在关闭,他们给我发来了这个zip
文件
,这些
文件
必须连接在一起才能解压。然后我成功地解压了这些
文件
,没有问题,并从这个网站获得
浏览 7
提问于2014-07-05
得票数 2
1
回答
如何使用Dropzone组件拒绝
超大
文件
?
如果
文件
大小超过30 to (30000000字节),我想拒绝上传。此时,拒绝消息可以是任何内容。当前,当将一个大
文件
放到区域中时,会出现以下错误: 我看到在这个onDropRejected组件中有一个名为Dropzone的属性可以使用,但是我们如何才能使用这个属性而不是像上面那样运行错误呢
浏览 18
修改于2022-06-21
得票数 0
2
回答
使用多处理技术解析
超大
XML
文件
我有一个很大的XML
文件
,我有点不知道如何处理它。它有60 GB,我需要读一读。有谁有任何这样做的样本可以给我指给我看? 谢谢
浏览 1
提问于2014-01-27
得票数 7
1
回答
超大
型
文件
的stxxl排序(ubuntu)
我试图对一个包含大约10亿条记录的大型
文件
进行排序(每个记录包含四个整数)。
文件
的大小将超过50 up。1)为什么我的代码没有足够的磁盘空间来对6GB
文件
进行排序?请检查它(只附上几行重要的内容)。 2)我的个人电脑整理2亿条记录的合理时间是5分钟吗?
浏览 2
修改于2015-01-18
得票数 3
回答已采纳
1
回答
Python -过滤
超大
的XML
文件
我有一个未压缩的Wikipedia转储
文件
,大约75 GB (压缩后:大约16 GB)。我只想要它的一个非常小的子集,并想看看是否有一种方法可以在Jupyter中完成这种过滤,比如大型XML
文件
。
浏览 0
修改于2020-02-11
得票数 0
1
回答
超大
型XML
文件
生成
我需要生成一个XML
文件
。这在C#中是很简单的.问题(除了缓慢的数据库查询分离问题)是输出
文件
很容易达到2GB。最重要的是,输出XML并不是一种可以轻松地在SQL中完成的格式。每个父元素在其子元素中聚合元素,并维护跨
文件
的顺序唯一标识符。我将一个更高级别的元素(比如level2Element)和它的子元素写入输出
文件
。完成此级别的写作之后,我将移到父组,并使用聚合的数据及其标识符插入标头。有没有人想过如何更好地输出这么大的XML
文件
?
浏览 1
修改于2013-09-25
得票数 2
6
回答
对
超大
型
文件
的优化处理
我的任务相对简单:对于输入
文件
中的每一行,测试该行是否满足给定的一组条件,如果满足,则将该行的特定列写入一个新
文件
。1)我使用的
文件
包含天文图像的光度测量。每个
文件
大约有1e6行乘以150列的浮点数,大小通常超过1 1GB。我有一个旧的AWK脚本,可以在大约1分钟内处理这样的
文件
;我的python脚本需要5到7分钟。我经常需要调整过滤条件并重新运行几次,直到输出
文件
是我想要的,所以速度绝对是我想要的。当一个
文件
有不同的列时,我只需要指定一个新的字典。也许有更好的方法来做
浏览 0
提问于2011-02-26
得票数 5
2
回答
缓冲数字签名/验证
超大
型
文件
所以我想一片一片地验证一个
文件
,而不是把它全部装入内存中。我知道我可以使用缓冲器逐个更新签名,但这不是我想要的。我想缓冲部分数据,然后使用签名和证书来验证这部分数据,然后重复,直到整个
文件
被验证为止--我每次只将少量
文件
加载到内存中。如果我有一个1GB的
文件
,我无法有效地将它加载到内存中来签名/验证该
文件
。
浏览 5
修改于2015-06-18
得票数 0
回答已采纳
1
回答
Dask.dataframe.to_parquet制作
超大
型
文件
我正在转换10个大的固定宽度
文件
(平均19 10 )为一个地板。我是通过堆叠固定宽度的
文件
来做到这一点的。它已经运行了2天,已经产生了2200 151 MB的
文件
,总计340 MB,而且还在增长。有没有一种方法,我可以在不堆叠的情况下将
文件
读入dask数据帧,这样会更快吗?还有什么我可以更改以使输出
文件
更小吗?我的理解是parquets是压缩的,并且应该比.txt
文件
小。 编辑添加了代码来重现这个问题:这段代码在我的机器上运行了4分钟。它创建的
文件
“test.csv”为
浏览 1
修改于2019-04-24
得票数 1
回答已采纳
3
回答
解析python
超大
xml
文件
时遇到的问题
我有一个很大的xml
文件
(大约84MB),格式如下: <book>...</book> <book>...我尝试解析它(就像我对其他xml
文件
所做的那样),如下所示:parser我应该指出,该
文件
可能包含希腊语、西班牙语和阿拉伯语字符。
浏览 0
修改于2013-01-04
得票数 2
回答已采纳
1
回答
将
超大
型
文件
上载到Swift容器
upload all Parts, parts number=%s, part size=%s", strPartsCount, strPartSize)); 但是我有一个例子,我有一个非常大的
文件
浏览 0
提问于2018-03-26
得票数 0
回答已采纳
4
回答
读取和解析
超大
型
文件
的内容
我正在尝试解析一个以制表符分隔的
文件
,它的大小约为1 1GB。结果如下:有没有办法打开
文件
的一部分
浏览 0
提问于2013-02-13
得票数 8
回答已采纳
2
回答
用NSURLSessionDownloadTask计算
超大
型
文件
的NSURLSessionDownloadTask
但是,在下载完整个
文件
之后,我们如何在不重新读取整个
文件
的情况下检查md5呢?response, NSError *error) {}]; 这里的关键要求是内存占用少,
文件
必须完全下载
浏览 4
修改于2014-03-30
得票数 0
回答已采纳
3
回答
JAVA -解析巨大(
超大
) JSON
文件
的最佳方法
我试图使用JAVA中的gson库( )解析一些巨大的JSON
文件
(如)。 将该
文件
直接用作nonSql数据库,保存该
文件
并将其用作我的数据库。
浏览 2
提问于2012-02-22
得票数 61
回答已采纳
5
回答
在Debian Linux中快速创建
超大
文件
我目前正在做一个项目,涉及将一个非常大的
文件
(大约6 6GB)从一个Linux服务器传输到另一个服务器。服务器运行在Debian Squeeze上。为了实现我的主要目标,我首先将
文件
的名称和大小发送到目标机器,然后创建一个空
文件
来存储我逐渐从源机器接收到的数据块。我的问题是在我的服务器上创建一个6 6GB的
文件
需要花费太长的时间。为了清楚起见,我使用下面的C例程来创建新
文件
: char* bs,
浏览 1
提问于2013-05-27
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券