首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数据计算

    ORACLE N 是不是吹牛?

    还有些产品喜欢和老牌知名数据库对比,比如 Oracle,经常听到宣称 Oracle N 的,这是不是吹牛吗?毕竟 Oracle 是世界级标杆产品,哪能随随便便就被快了 N 。嗯,倒还真不是。 Oracle 采用行式存储时,基本上要把这 100 列都要读一遍,而采用列式存储的 AP 数据库,只要读 2 列就可以,这个读取量就会差了几十。 这时候,N 是很正常的,这也毫不稀奇,如果不能N 那才是问题。除了列存行存外,还可能发生的是集群单机,内存外存等,就是 Oracle 多用了数倍资源后跑出更快速度。 所以,所谓 Oracle N ,很可能是这个意思,这不是假的,但并不值得夸耀。 事实上,Oracle 的优化器很强,如果不占列存和资源的便宜,很多专业 AP 数据库还不见得能跑得过 Oracle,特别基于 Hadoop 的的技术。

    18701编辑于 2024-12-12
  • MyBatis 效率 100 ...

    1 开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能!

    61010编辑于 2024-03-27
  • 来自专栏终码一生

    MyBatis 效率 100 ...

    1、开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能!

    65310编辑于 2023-12-28
  • 来自专栏AI研习社

    TinyBERT 搜索:BERT10,小20

    虽然没有 BERT-Base 对重新评分有效,但我们的实验表明,它保留了 BERT-Base 的 MRR 评分的 90%,同时使模型快了约 10 ,小了约 20

    68221发布于 2020-02-21
  • 来自专栏sunsky

    一个ack速度n的代码搜索工具: ag

    一个ack速度n的代码搜索工具: ag 银搜索者(The Silver Searcher) 一个类似于代码搜索工具ack,着重于速度。 它比一个数量级ack。 它忽略了你.gitignore和你的文件模式.hgignore。 如果您的源代码中有文件您不想搜索,只需将其模式添加到.ignore文件中即可。 total ag test_blah ~/code/ 4.67s user 4.58s system 286% cpu 3.227 total Ack和Ag发现了相同的结果,但是Ag的速度是34( 怎么这么? Ag使用Pthreads并行利用多个CPU内核和搜索文件。 文件被mmap()编辑而不是读入缓冲区。 文字字符串搜索使用Boyer-Moore strstr。

    1.2K30发布于 2020-08-20
  • 来自专栏Linyb极客之路

    SpringBoot10的Bootique框架

    .app(args) .autoLoadModules() .exec() .exit(); }} 特点: 1、SpringBoot 10 Bootique的启动时间/内存使用率非常低。

    1.2K30发布于 2019-09-26
  • 来自专栏大数据应用技术

    Spark 为什么 MapReduce 100

    通常我们认为 Spark 引擎是基于内存进行计算,无论如何,速度都是 MapReduce ,因为 MapReduce 需要频繁 Shuffle 。 在 Spark 的官网早期介绍中,也有过一张 Spark Hadoop 计算速度100的宣传,虽然它似乎违反了我们的广告法。 本文不讨论技术源码,从内存计算、数据共享、任务调度优化多种角度,总结 Spark 的真因。 1. 1.2 Spark 计算走 IO 少 Spark 计算 MapReduce 的根本原因在于 DAG(有向无环图) 计算模型。 最后,Spark 一定 MapReduce 100吗?

    98110编辑于 2024-07-25
  • 来自专栏新智元

    谷歌出品EfficientNet:现有卷积网络小84GPipe6.1

    现有卷积网络小84GPipe6.1 为了理解扩展网络的效果,谷歌的科学家系统地研究了缩放模型不同维度的影响。 据悉,EfficientNet-B7在ImageNet上实现了最先进精度的84.4% Top 1/97.1% Top 5,同时最好的现有ConvNet小84,推理速度6.1;在CIFAR-100 参数减少一个数量级,效率却提高了10(更小,更快)。 ? 与流行的ResNet-50相,另一款EfficientNet-B4使用了类似的FLOPS,同时将ResNet-50的最高精度从76.3%提高到82.6%。 例如,在参数减少21的情况下,实现了CIFAR-100(91.7%)和Flowers(98.8%)。

    1.4K30发布于 2019-06-05
  • 来自专栏集智书童

    MobileSAM来啦 | SAM小60FastSAM4,速度和效果双赢

    凭借卓越的性能和更高的通用性,作者的MobileSAM比并发的FastSAM小74,更适合移动端应用程序。 由此产生的MobileSAM将编码器参数减少了100,将总参数减少了60。 值得强调的是,作者的MobileSAM同期的FastSAM赵等人小74,同时实现了卓越的性能。 就推理速度而言,在单个GPU上,处理图像需要40ms,而MobileSAM的仅需要10ms,这FastSAM4。 作者的MobileSAM也比并发的FastSAM4,小7,使其更适合移动端应用程序。

    2.4K30编辑于 2023-09-04
  • 来自专栏程序员的成长之路

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从redis fork出来的分支。众所周知redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容redis API的情况下将redis改造成多线程。

    53130发布于 2019-11-24
  • 来自专栏小强的进阶之路

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从redis fork出来的分支。众所周知redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容redis API的情况下将redis改造成多线程。

    51220发布于 2019-10-30
  • 来自专栏搜云库技术团队

    Redis5的中间件,为啥这么

    KeyDB项目是从Redis fork出来的分支。众所周知Redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容Redis API的情况下将Redis改造成多线程。

    55710发布于 2019-10-30
  • 来自专栏数据和云

    Redis5的中间件,为啥这么

    今天给大家介绍的是KeyDB,KeyDB项目是从Redis fork出来的分支。众所周知Redis是一个单线程的kv内存存储系统,而KeyDB在100%兼容Redis API的情况下将Redis改造成多线程。

    67930发布于 2019-12-17
  • 来自专栏前端实验室

    一个Webpack700 Vite 还快 10 打包工具

    作为一名前端切图崽,相信大家都对打包工具不陌生,大众熟识的Webpack,Gulp,Rollup,Vite,还有这几天闹得沸沸扬扬的 Turbopack 今天大师兄就带大家认识认识这个宣称Webpack 还要快700的Turbopack Turbopack翻译过来就是涡轮增压 Turbopack Turbopack被称为Webpack 的继任者。 它的创建者也是我们熟知的 Webpack的创建者 速度 Turbopack宣称要比Webpack700多倍,在更大的应用上,通常会比 Vite 10 。 个模块的应用上,Turbopack 需要 1.8 秒即可启动,而 Vite 则需要 11.4 秒: 服务启动时间 代码更新更新时间在 1000 个模块的应用中,Turbopack 对文件更改的速度 Vite 5.8

    1.2K30编辑于 2022-12-02
  • 来自专栏Java那些事

    MyBatis 100 ,天生支持联表!

    1 开源项目简介 MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能!

    1.3K40编辑于 2022-05-21
  • 来自专栏猿天地

    MyBatis100,天生支持联表!

    点击上方蓝色字体,选择“设为星标” 回复”学习资料“获取学习宝典 文章来源:https://c1n.cn/my8R6 目录 简介 开源协议 界面展示 功能概述 技术选型 源码地址 简介 对于 Java MyBatis 效率 100 的条件检索引擎,天生支持联表,使一行代码实现复杂列表检索成为可能,绝无夸张之语! 开源协议 使用 Apache-2.0 开源协议。

    1.4K20编辑于 2022-05-27
  • 来自专栏新智元

    MIT最新算法,双向传播BP25

    据我们所知,这是表明自适应非对称反馈信道 DNN 中的随机和固定反馈信道更有效的首次研究尝试。 ? 虽然带有随机和固定反馈权重的 FA 和 DFA 在生物学上 BP 更合理,大脑中的反馈权重也很易变。此前已经有研究显示,FA 中使用的前向权重 ? 会学习模仿反馈随机权重 ? 的伪逆。 接下来,研究者又分析了为什么应用于双向训练模型中的自适应反馈权重总体上说固定反馈权重表现更好,并证明了如果反馈权重可以更好地学习描写输入特征和输出特征,训练的整体表现就会得到提升。 在论文的最后,研究者指出该研究是据他们所知的第一次研究尝试,来论证在DNN 中,自适应非对称反馈信道随机固定信道要更有效。

    2K60发布于 2018-03-27
  • 来自专栏GiantPandaCV

    如何实现PyTorch6的PermuteTranspose算子?

    与PyTorch对比,在操作耗时上最少1.24,最快能达1.4。 这里Permute的带宽原生Copy还高一点,是因为Copy Kernel里没有做unroll指令间并行优化,而Permute Kernel内部做了相关优化,这里仅做参考。 使用上面的两个优化技巧,OneFlow就能轻易做到PyTorch的实现要快了。常规的Permute适用情况比较广泛,也因此可能存在访存不合并的情况。 Shared Memory相比Global Memory有15更高的带宽,20-40更低的延迟,因此额外引入的读写开销可以忽略不计。 在操作耗时上与PyTorch对比,fp32数据类型情况下最少3,最快能达3.2。而half数据类型情况下OneFlow优势更为明显,最快能达6.3

    1.6K10发布于 2021-11-12
  • 来自专栏devops_k8s

    Go Protobuf(xml小3-10, 20-100)

    对于序列化结构数据, protocol buffers XML更具优势, Protocol buffers: 1 . 更简单 2 . 小3 - 10 3 . 20 - 100 4 . 更加清晰明确 5 . Protoc-gen-gogo gogoprotobuf有两个插件可用分别是protoc-gen-gogo和protoc-gen-gofast,protoc-gen-gogo生成的文件和protoc-gen-go一样性能略, protoc-gen-gofast生成的Golang文件更为复杂,但性能却高出5~7; 安装 go get github.com/gogo/protobuf/protoc-gen-gogo protoc 编码时int64高效。 fixed32 uint32 固长编码,4个字节,若数值大于2^28则uint32高效。

    2.4K50发布于 2021-04-13
  • 来自专栏前端从进阶到入院

    如何实现 setTimeout 80 的定时器?

    起因 很多人都知道,setTimeout 是有最小延迟时间的,根据 MDN 文档 setTimeout:实际延时设定值更久的原因:最小延迟时间 中所说: 在浏览器中,setTimeout()/setInterval 测试 从理论上来说,由于 postMessage 的实现没有被浏览器引擎限制速度,一定是 setTimeout 要快的。但空口无凭,咱们用数据说话。 ); output.appendChild(outputText); function printOutput(line) { outputText.data += line + '\n' 直接放结论,这个差距不固定,在我的 mac 上用无痕模式排除插件等因素的干扰后,以计数到 100 为例,大概有 80 ~ 100 的时间差距。在我硬件更好的台式机上,甚至能到 200 以上。

    50040编辑于 2023-10-14
领券