首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏图形视觉

    分网格建模

    另外,细分网格表示的数据量非常小,很适合于网络传输。 ---- 细分网格建模 三维公园提供了在线的三维建模工具,用户可以直接在浏览器中进行三维设计。

    1.2K11发布于 2019-10-27
  • 来自专栏frytea

    dnsmasq 多网卡分网段配置

    在 dnsmasq 的配置文件 /etc/dnsmasq.conf 中使用类似下面的配置:

    1.4K20编辑于 2023-10-21
  • 来自专栏Linyb极客之路

    SpringBoot快10倍的Bootique框架

    .app(args) .autoLoadModules() .exec() .exit(); }} 特点: 1、SpringBoot 快10倍 Bootique的启动时间/内存使用率非常低。

    1.2K30发布于 2019-09-26
  • 来自专栏JNing的专栏

    【pytorch】固定(freeze)住部分网

    因为:即使对bn设置了 requires_grad = False ,一旦 model.train() ,bn还是会偷偷开启update( model.eval()模式下就又停止update )。(详见【pytorch】bn) 所以:train每个epoch之前都要统一重新定义一下这块,否则容易出问题。

    2.6K10编辑于 2021-12-06
  • 来自专栏用户9757876的专栏

    没有可网管交换机,怎么分网段?

    调试计划:只有一台办公用的交换机是可网管的二层交换机,其他都是非网管交换机,所以放弃用交换机VLAN划分,而是用路由器端口来划分网段,以便接入不同的网络交换机; 调试过程:1、路由器修改为复杂密码; 2、路由器LAN0口定义为管理口,默认IP:192.168.110.1,不作修改; 3、LAN1口定义为办公网络接入口,创建VLAN10,配置IP为:192.168.10.1/24; 4、创建VLAN20

    1.5K10编辑于 2022-12-08
  • 来自专栏芋道源码1024

    Postman 好用 10 倍的国产 API 工具

    大家好,想必我们都注意到了,最近国产API效率工具火了起来,越来越好用了。 不少小伙伴也都告别了传统的API软件,开始选择这些效率工具。 不同软件特点不同,今天给大家推荐一款低调但实力强大的API管理

    1.1K30编辑于 2022-05-05
  • 来自专栏kali blog

    Ping强10倍 Tcping入坑指南

    TCPing 是一款基于 TCP 协议的网络检测工具,其功能定位与传统 ICMP ping 相似,但采用不同的技术实现路径。在防火墙禁用 ICMP 时可以使用其来进行通信测试,或确认某一TCP端口是否打开。

    1.1K10编辑于 2025-07-28
  • 来自专栏我爱计算机视觉

    ELAN:将超分网络SwinIR高效化,最快可达4.5倍

    技术之美 本篇分享论文『Efficient Long-Range Attention Network for Image Super-resolution』,由香港理工大学、OPPO 提出ELAN:将超分网络 通过将两个shift卷积与GMSA模块级联,构建高效的远程注意块(ELAB),并通过共享注意机制进一步加速该模块的运行,极限情况下能SwinIR快四倍! 这表明GMSASwinIR小窗口下的SA更有效。共享注意机制,可以在性能下降很小的情况下,进一步加快光的推断时间。 但是因为在SwinIR中SA是一个沉重的计算负担,SwinIR-light的延迟CNN的方法要慢×10以上。 得益于高效的远程注意力设计,ELAN-light模型不仅在所有五个数据集上获得了较好的指标,而且SwinIR-light快了×4.5。同时参数和计算复杂度也SwinIR-light要小。

    1.7K20编辑于 2022-09-01
  • 来自专栏前端实验室

    一个Webpack快700倍 Vite 还快 10 倍打包工具

    作为一名前端切图崽,相信大家都对打包工具不陌生,大众熟识的Webpack,Gulp,Rollup,Vite,还有这几天闹得沸沸扬扬的 Turbopack 今天大师兄就带大家认识认识这个宣称Webpack 它的创建者也是我们熟知的 Webpack的创建者 速度 Turbopack宣称要比Webpack快700多倍,在更大的应用上,通常会比 Vite 快 10 倍。 个模块的应用上,Turbopack 需要 1.8 秒即可启动,而 Vite 则需要 11.4 秒: 服务启动时间 代码更新更新时间在 1000 个模块的应用中,Turbopack 对文件更改的速度

    1.2K30编辑于 2022-12-02
  • 来自专栏企鹅号快讯

    前端插件以及部分细分网址梳理

    图来源网络 前端插件以及部分细分网址梳理 插件 parallel.js: 前后端通用的一个并行库 zepto: 用于现代浏览器的兼容 jQuery 的库 totoro: 稳定的跨浏览器测试工具 TheaterJS

    6.8K90发布于 2018-02-05
  • 来自专栏比原链

    剥开原看代码10原是如何通过create-key接口创建密钥的

    作者:freewind 原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https://gitee.com/BytomBlockchain 在这一篇,我们就要看一下,当原后台收到了创建密钥的请求之后,将会如何创建。 由于本文的问题比较具体,所以就不需要再细分,我们直接从代码开始。 其中chainkd对应的是原代码库中的另一个包"crypto/ed25519/chainkd",从名称上来看,使用的是ed25519算法。 如果对前面文章“如何连上一个原节点”还有印象的话,会记得原在有新节点连上的时候,就会使用该算法生成一对密钥,用于当次连接进行加密通信。 在这次的问题中,我们主要研究的是原在通过web api接口/create-key接收到请求后,在内部做了哪些事,以及把密钥文件放在了哪里。

    82720发布于 2018-09-19
  • 来自专栏编程我也会

    原来机械硬盘内存慢10万倍

    L1高速缓存 32K 1ns 3秒 L2高速缓存 256k 4ns 12秒 L3高速缓存 8M 40ns 2分钟 内存 16G 100ns 5分钟 固态硬盘 1T 100μs 3.5天 机械硬盘 1T 10ms

    59730编辑于 2023-11-20
  • 来自专栏AI研习社

    TinyBERT 搜索:BERT快10倍,小20倍

    虽然没有 BERT-Base 对重新评分有效,但我们的实验表明,它保留了 BERT-Base 的 MRR 评分的 90%,同时使模型快了约 10 倍,小了约 20 倍。 via:https://towardsdatascience.com/tinybert-for-search-10x-faster-and-20x-smaller-than-bert-74cd1b6b5aec

    68321发布于 2020-02-21
  • 来自专栏IT派

    Vue 超越 React 破 10 万星,球赛精彩

    昨天 19 时 9 分前后,Vue 与 React 两个著名现代前端框架双双突破 10 万 GitHub Stars。 并且在同日,晚于 React 诞生的 Vue 首次在 GitHub Star 数量上超越 React,最终率先达到 10 万。 ? Hubble 取名自哈勃空间望远镜,寓意观测星星的历史。 我注意到很长时间以来,Vue 的增长速度 React 要快很多,并且最近差距已经缩小到 1000 多。 我就突发奇想,想要做一个实况,亲眼见证 Vue 赶超 React 的时刻。 最终的结果也是十分戏剧性,两个仓库在同一分钟双双达到 10 万 star,皆大欢喜。一些粉丝在Hubble全程关注了这一精彩的实况,其中包括 Vue 核心团队成员(也是上图的提供者)。

    49820发布于 2018-08-10
  • 来自专栏全栈程序员必看

    教你识別和区分网络及使用者

    对组织来说。适当的识别和分类正常流量和用户,可以更easy保护组织的关键数据。眼下。移动设备和BYOD政策趋势。加之企业网络内数据流动的规模大大添加,说明想要进行“正确”的网络区隔变得困难得多。

    44730编辑于 2022-07-10
  • 来自专栏码客

    解决部分网站因DNS无法访问的问题

    最近发现Github上的图片都无法加载 域名raw.githubusercontent.com

    3K20发布于 2020-05-19
  • 来自专栏code秘密花园

    尤雨溪回应:Vite 真的 Turbopack 慢 10 倍?

    在公告中,Turbopack 宣称“ Vite 快 10 倍”。Vercel 的各种营销材料都重复宣扬这句话,包括推文,博客文章和发送给 Vercel 用户的营销电子邮件。 也有用于冷启动性能的 benchmarks,但是由于没有发现冷启动速度是 Vite 10 倍的比较,因此我们只能假设“10 倍快”是基于 HMR 的性能。 该帖子包括一张图表,显示当模块总数超过 30k 时,Turbopack 可以 Vite 快 10 倍。 总结下来,“ Vite 快 10 倍”必须在以下条件下才成立: Vite 未使用相同的 SWC 转换。 当看到“更新速度快 10 倍”时,一般用户会考虑前者而不是后者。Vercel 在其营销中图方便省略了这一警告。实际上,Next 中服务器组件的端到端 HMR(默认值) Vite 中的慢。

    1.6K10编辑于 2023-01-09
  • 来自专栏CU技术社区

    体验Mac和Windows 10更优雅的Linux桌面

    去年Windows 10的各种更新让我不再犹豫走向了linux,而macOS我偶尔还是会用它在一些音乐制作任务上,并且它比Microsoft的台式机操作系统更好地尊重了我的隐私,但是它的发展给我的体验不是特别多

    3.6K20发布于 2019-12-09
  • 来自专栏DeepHub IMBA

    VeRA: 性能相当,但参数却LoRA少10

    例如,对于Llama 27b, LoRA通常训练400万到5000万个参数,这标准微调则训练70亿个参数药效的多。 还可以使用LoRA来微调量化模型,例如,使用QLoRA: 虽然LoRA可训练参数的数量可能模型参数小的多。但它随着张量(在LoRA中通常表示为r)的秩和目标模块的数量而增加。 论文中显示的大多数实验中,VeRA训练的参数原始LoRA少10倍。 但是原始的低秩张量(上图右侧中的A和B)呢?他们是如何训练或初始化的? A和B随机初始化,然后冻结。 与LoRA相比参数减少了10倍在GLUE基准测试中,robertta large的性能相同,但在GPT-2 medium的E2E基准测试中,性能降低了30%,说明这种方法特别适合于需要频繁交换大量微调模型的场景

    40730编辑于 2023-10-25
  • 来自专栏信数据得永生

    【论文笔记】BINE:二分网络嵌入

    4.1 建模显式关系 在二分网络中,边存在于两种不同类型的顶点之间,在构建二分网络时提供显式信号。 然而,直接在二分网络上执行随机游走可能会失败,因为由于周期性问题,二分网络上没有随机游走的固定分布 [34]。 具体来说,第 1-2 行初始化所有嵌入向量和上下文向量;第 3-4 行产生顶点序列的语料库;第8和第12行进行负采样; 第 9-10 行和第 13-14 行使用 SGA 来学习嵌入。 (W,V,maxT,minT,p); 5 foreach edge (u[i], v[j]) ∈ E do 6 Update u[i] and v[j] using Equations (10 Negative sampling to generate N^{ns}[S](u[i]); 9 Update u[i] using Equation (12); 10

    66420编辑于 2022-05-07
领券