首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数据计算

    ORACLE N 是不是吹牛?

    还有些产品喜欢和老牌知名数据库对比,比如 Oracle,经常听到宣称 Oracle N 的,这是不是吹牛吗?毕竟 Oracle 是世界级标杆产品,哪能随随便便就被快了 N 。嗯,倒还真不是。 Oracle 采用行式存储时,基本上要把这 100 列都要读一遍,而采用列式存储的 AP 数据库,只要读 2 列就可以,这个读取量就会差了几十。 这时候,N 是很正常的,这也毫不稀奇,如果不能N 那才是问题。除了列存行存外,还可能发生的是集群单机,内存外存等,就是 Oracle 多用了数倍资源后跑出更快速度。 所以,所谓 Oracle N ,很可能是这个意思,这不是假的,但并不值得夸耀。 事实上,Oracle 的优化器很强,如果不占列存和资源的便宜,很多专业 AP 数据库还不见得能跑得过 Oracle,特别基于 Hadoop 的的技术。

    19101编辑于 2024-12-12
  • 来自专栏GiantPandaCV

    如何实现PyTorch6的PermuteTranspose算子?

    与PyTorch对比,在操作耗时上最少1.24,最快能达1.4。 这里Permute的带宽原生Copy还高一点,是因为Copy Kernel里没有做unroll指令间并行优化,而Permute Kernel内部做了相关优化,这里仅做参考。 使用上面的两个优化技巧,OneFlow就能轻易做到PyTorch的实现要快了。常规的Permute适用情况比较广泛,也因此可能存在访存不合并的情况。 Shared Memory相比Global Memory有15更高的带宽,20-40更低的延迟,因此额外引入的读写开销可以忽略不计。 在操作耗时上与PyTorch对比,fp32数据类型情况下最少3,最快能达3.2。而half数据类型情况下OneFlow优势更为明显,最快能达6.3

    1.6K10发布于 2021-11-12
  • MyBatis 效率 100 ...

    1 开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能!

    63010编辑于 2024-03-27
  • 来自专栏终码一生

    MyBatis 效率 100 ...

    1、开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能! DbMapping 来实现自定义注解,或让 Bean Searcher 识别其它 ORM 的注解 自定义 ParamResolver 来支持其它形式的检索参数 自定义 Dialect 来支持更多的数据库 等等.. 6

    69510编辑于 2023-12-28
  • 来自专栏AI研习社

    TinyBERT 搜索:BERT10,小20

    虽然没有 BERT-Base 对重新评分有效,但我们的实验表明,它保留了 BERT-Base 的 MRR 评分的 90%,同时使模型快了约 10 ,小了约 20 。 via:https://towardsdatascience.com/tinybert-for-search-10x-faster-and-20x-smaller-than-bert-74cd1b6b5aec

    68321发布于 2020-02-21
  • 来自专栏sunsky

    一个ack速度n的代码搜索工具: ag

    一个ack速度n的代码搜索工具: ag 银搜索者(The Silver Searcher) 一个类似于代码搜索工具ack,着重于速度。 它比一个数量级ack。 它忽略了你.gitignore和你的文件模式.hgignore。 如果您的源代码中有文件您不想搜索,只需将其模式添加到.ignore文件中即可。 total ag test_blah ~/code/ 4.67s user 4.58s system 286% cpu 3.227 total Ack和Ag发现了相同的结果,但是Ag的速度是34( 怎么这么? Ag使用Pthreads并行利用多个CPU内核和搜索文件。 文件被mmap()编辑而不是读入缓冲区。 文字字符串搜索使用Boyer-Moore strstr。

    1.2K30发布于 2020-08-20
  • 来自专栏Linyb极客之路

    SpringBoot10的Bootique框架

    .app(args) .autoLoadModules() .exec() .exit(); }} 特点: 1、SpringBoot 10 Bootique的启动时间/内存使用率非常低。

    1.2K30发布于 2019-09-26
  • 来自专栏大数据应用技术

    Spark 为什么 MapReduce 100

    通常我们认为 Spark 引擎是基于内存进行计算,无论如何,速度都是 MapReduce ,因为 MapReduce 需要频繁 Shuffle 。 在 Spark 的官网早期介绍中,也有过一张 Spark Hadoop 计算速度100的宣传,虽然它似乎违反了我们的广告法。 本文不讨论技术源码,从内存计算、数据共享、任务调度优化多种角度,总结 Spark 的真因。 1. 1.2 Spark 计算走 IO 少 Spark 计算 MapReduce 的根本原因在于 DAG(有向无环图) 计算模型。 最后,Spark 一定 MapReduce 100吗?

    1K10编辑于 2024-07-25
  • 来自专栏新智元

    谷歌出品EfficientNet:现有卷积网络小84GPipe6.1

    代码已开源,论文刚刚上线arXiv,并将在6月11日,作为poster亮相ICML 2019。 现有卷积网络小84GPipe6.1 为了理解扩展网络的效果,谷歌的科学家系统地研究了缩放模型不同维度的影响。 据悉,EfficientNet-B7在ImageNet上实现了最先进精度的84.4% Top 1/97.1% Top 5,同时最好的现有ConvNet小84,推理速度6.1;在CIFAR-100 参数减少一个数量级,效率却提高了10(更小,更快)。 ? 与流行的ResNet-50相,另一款EfficientNet-B4使用了类似的FLOPS,同时将ResNet-50的最高精度从76.3%提高到82.6%。

    1.4K30发布于 2019-06-05
  • 来自专栏集智书童

    MobileSAM来啦 | SAM小60FastSAM4,速度和效果双赢

    凭借卓越的性能和更高的通用性,作者的MobileSAM比并发的FastSAM小74,更适合移动端应用程序。 值得强调的是,作者的MobileSAM同期的FastSAM赵等人小74,同时实现了卓越的性能。 就推理速度而言,在单个GPU上,处理图像需要40ms,而MobileSAM的仅需要10ms,这FastSAM4。 表6中的结果显示,FastSAM的mIoUMobileSAM的mIoU小得多,这表明FastSAM的Mask预测与原始SAM的Mask不同。 作者的MobileSAM也比并发的FastSAM4,小7,使其更适合移动端应用程序。

    2.4K30编辑于 2023-09-04
  • 来自专栏程序员的成长之路

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从redis fork出来的分支。众所周知redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容redis API的情况下将redis改造成多线程。

    53130发布于 2019-11-24
  • 来自专栏小强的进阶之路

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从redis fork出来的分支。众所周知redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容redis API的情况下将redis改造成多线程。

    51620发布于 2019-10-30
  • 来自专栏数据和云

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从Redis fork出来的分支。众所周知Redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容Redis API的情况下将Redis改造成多线程。

    68230发布于 2019-12-17
  • 来自专栏搜云库技术团队

    Redis5的中间件,为啥这么

    主线程的主要工作在实现serverCron,包括: 1、处理统计 2、客户端链接管理 3、db数据的resize和reshard 4、处理aof 5、replication主备同步 6、cluster

    56210发布于 2019-10-30
  • 来自专栏前端实验室

    一个Webpack700 Vite 还快 10 打包工具

    作为一名前端切图崽,相信大家都对打包工具不陌生,大众熟识的Webpack,Gulp,Rollup,Vite,还有这几天闹得沸沸扬扬的 Turbopack 今天大师兄就带大家认识认识这个宣称Webpack 还要快700的Turbopack Turbopack翻译过来就是涡轮增压 Turbopack Turbopack被称为Webpack 的继任者。 它的创建者也是我们熟知的 Webpack的创建者 速度 Turbopack宣称要比Webpack700多倍,在更大的应用上,通常会比 Vite 10 。 个模块的应用上,Turbopack 需要 1.8 秒即可启动,而 Vite 则需要 11.4 秒: 服务启动时间 代码更新更新时间在 1000 个模块的应用中,Turbopack 对文件更改的速度 Vite 5.8

    1.2K30编辑于 2022-12-02
  • 来自专栏猿天地

    MyBatis100,天生支持联表!

    点击上方蓝色字体,选择“设为星标” 回复”学习资料“获取学习宝典 文章来源:https://c1n.cn/my8R6 目录 简介 开源协议 界面展示 功能概述 技术选型 源码地址 简介 对于 Java MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能,绝无夸张之语! 开源协议 使用 Apache-2.0 开源协议。

    1.4K20编辑于 2022-05-27
  • 来自专栏Java那些事

    MyBatis 100 ,天生支持联表!

    1 开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能! 来实现自定义注解,或让 Bean Searcher 识别其它 ORM 的注解 自定义 ParamResolver 来支持其它形式的检索参数 自定义 Dialect 来支持更多的数据库 等等.. 6

    1.3K40编辑于 2022-05-21
  • 来自专栏新智元

    MIT最新算法,双向传播BP25

    据我们所知,这是表明自适应非对称反馈信道 DNN 中的随机和固定反馈信道更有效的首次研究尝试。 ? 虽然带有随机和固定反馈权重的 FA 和 DFA 在生物学上 BP 更合理,大脑中的反馈权重也很易变。此前已经有研究显示,FA 中使用的前向权重 ? 会学习模仿反馈随机权重 ? 的伪逆。 接下来,研究者又分析了为什么应用于双向训练模型中的自适应反馈权重总体上说固定反馈权重表现更好,并证明了如果反馈权重可以更好地学习描写输入特征和输出特征,训练的整体表现就会得到提升。 在论文的最后,研究者指出该研究是据他们所知的第一次研究尝试,来论证在DNN 中,自适应非对称反馈信道随机固定信道要更有效。

    2K60发布于 2018-03-27
  • 来自专栏沉浸式趣谈

    速度 ImageMagick 6 ,还是开源的

    快了 6 不止。 更夸张的是 8K 大图对比: 别的工具要 9-10 秒,Odiff 只要 2 秒。 技术方面 Odiff 最早用 OCaml 写的,现在用 Zig 重写了。 难怪能这么。 功能很全 ,功能没缩水。 跨格式对比随便玩,jpg 和 png 直接,不用转格式。 支持的格式也多:png、jpg、jpeg、webp、tiff 全都行。 输出结果很详细,差异像素数量、百分、对比图都给你生成好。 还有差异像素数量和差异百分。 还有个服务器模式 对比大量图片的话,推荐用服务器模式。 Odiff 提供了服务器模式。 它会启动一个常驻进程,多次对比都用同一个进程,省去了启动开销。 Argos CI 之前发推说,换到 Odiff 之后速度提升了 8 。 完全开源免费 Odiff 是 MIT 协议的开源项目。 代码全在 GitHub 上,维护也很活跃。

    40710编辑于 2025-12-31
  • 来自专栏devops_k8s

    Go Protobuf(xml小3-10, 20-100)

    Protobuf跟存储格式,语言, 平台无关; 5 . protobuf可扩展可序列化; 6 . protobuf以二进制方式存储, 占用内存空间小; protobuf广泛地应用于远程过程调用(PRC 对于序列化结构数据, protocol buffers XML更具优势, Protocol buffers: 1 . 更简单 2 . 小3 - 10 3 . 20 - 100 4 . 更加清晰明确 5 . 编码时int64高效。 fixed32 uint32 固长编码,4个字节,若数值大于2^28则uint32高效。 string name = 2; string icon = 3; int32 point = 4; int32 seat = 5; int32 identity = 6;

    2.4K50发布于 2021-04-13
领券