首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏bisal的个人杂货铺

    Cloud Compute

           最近,Cloud Compute,也就是“云计算”备受关注,或者说是因为一些大厂商铺天盖地的宣传才导致自web2.0以来又一个互联网应用的new wave。。。        之前说了,各大厂商对于云计算的重视才将这个名词拖到互联网的最前端,例如Amazon的EC2,Google的GAE,IBM的blue cloud,Yahoo!

    78320发布于 2019-01-29
  • 来自专栏快乐阿超

    compute

    ——比尔·盖茨 今天在Map中看到了这样一个函数:compute 于是做了点测验 Map<String, String> map = MapUtil.newHashMap(); map.put(" 存在,后方函数返回值为null,不会更改map System.out.println(map); System.out.println("执行后方逻辑,并将结果作为value放入map"); map.compute v + "5 "); // {123=1234 5 , 789=123} 说明如果key存在,执行后方逻辑返回值作为value,放入map System.out.println(map); map.compute -> null); // {1234=null6 , 789=123} 说明如果key存在,后方函数返回值为null,则会移除对应的key System.out.println(map); map.compute 、computeIfPresent、computeIfAbsent的使用了: 以下方法放入map时的key均为方法第一个参数 compute: 返回值状态 未找到指定的key时 找到指定的key时

    54110编辑于 2022-08-17
  • 来自专栏GiantPandaCV

    TVM源语-Compute

    TVM的设计思想是将“compute”和“schedule”进行decouple,那么这一片文章就将所有compute有关的primitives进行总结,下一篇将对schedule有关的primitives 关于te.compute其实就是你的输出结果,第一个参数A.shape表示输出矩阵的shape,lambda i:则可以理解为 for i: 0->n-1,最后通过create_schedule将生成C 的过程构建出来,这个构建过程其实就是te.compute做的事情。 ,其实不难理解(A[i][j] -> A'[i * width + j]),第二个te.compute生成的就是对矩阵中每个对应位置的元素的相加。 其实reduce还是有很多操作需要学习的,这里在介绍一下te.compute同时接受多个输入。 来看下面的例子,比如我有两个数组 ,那么 , ,A数组具有相同的维度,长度都为n。

    2.7K20发布于 2021-09-14
  • 来自专栏计算机视觉理论及其实现

    nvidia Compute Capability(GPU)

    GPUCompute CapabilityNVIDIA TITAN X6.1GeForce GTX 10806.1GeForce GTX 10706.1GeForce GTX 10606.1Tegra X15.3Tesla M405.2Quadro M6000 24GB5.2Quadro M60005.2Quadro M50005.2Quadro M40005.2Quadro M20005.2GeForce GTX TITAN X5.2GeForce GTX 980 Ti5.2GeForce GTX 980

    1.5K50编辑于 2022-09-02
  • 来自专栏后端云

    compute node ha 主流开源实现

    日本电信NTT的开源项目masakari已经成为了Openstack的一个独立项目,该项目就是是专门做compute node ha的。 masakari的日文是まさかり,斧头的意思。准确说是板斧。 compute node ha 其他用到的技术 consul raft gossip compute node ha其他的相关开源项目 Openstack Congress (策略即服务) pacemaker-remote 不仅适用于compute node HA,还可以负载优化均衡 尝试设计迁移路径算法以优化vm所在节点的性能以实现硬件投资回报最大化。

    1.4K30发布于 2018-10-24
  • 来自专栏GPUS开发者

    DAY79:阅读 Compute Capabilities

    Compute Capabilities The general specifications and features of a compute device depend on its compute capability (see Compute Capability). Table 13 gives the features and technical specifications associated to each compute capability. Sections Compute Capability 3.x, Compute Capability 5.x, Compute Capability 6.x, and Compute Capability For compute devices, the behavior is to clamp to the end of the supported range.

    1.1K20发布于 2018-10-23
  • 来自专栏VoiceVista语音智能

    ETA Compute - AI for Edge Landscape

    ETA Compute,2015年由资深创业家(expereinced start-up entrepreneur) Gopal Raghavan创立。 ETA Compute获得了包括Venture Capatalist和Cadence CEO Lip-Bu Tan在内的一种投资家的投资。 ETA Compute刚刚宣布其面向Edge AI的SoC。 过去十年来,各个公司一直在通过IOT将设备连接至互联网。但仅仅连接到互联网上是远远不够的,我们需要设备是智能的。 其中比较成功的创业公司也包括ETA Compute,其刚刚在TinyML上发布新品。 ETA Compute的ECM3532使低功耗的边缘人工智能应用成为可能。此外,其价格相当的具有优势,可以满足产品预算需求。

    91210发布于 2020-02-21
  • 来自专栏纸上得来终觉浅

    libuv源码阅读(8)--idle-compute

    uv_fs_t stdin_watcher; uv_idle_t idler; char buffer[1024]; void crunch_away(uv_idle_t* handle) { // Compute void crunch_away(uv_idle_t* handle) { // Compute extra-terrestrial life // fold proteins

    1.1K10发布于 2021-03-12
  • 来自专栏网络虚拟化

    CXL技术:Compute Express Link技术整理

    通过CXL池化,能真正实现各种存储设备通过CXL协议相互连接,组织成一个非常大的存储池。

    1.6K20编辑于 2023-09-06
  • 来自专栏GPUS开发者

    DAY82:阅读Compute Capability 6.x

    Configuration Options DAY76:阅读标准数学函数 DAY77:阅读Intrinsic Functions DAY78:阅读Texture Fetching DAY79:阅读 Compute Capabilities DAY80:阅读Compute Capability 3.x DAY81:阅读Compute Capability 5.x H.5. Compute Capability 6.x H.5.1. Architecture A multiprocessor consists of: 64 (compute capablity 6.0) or 128 (6.1 and 6.2) CUDA cores 只要是一些低端),这也是为了昨天我们看到手册的章节几乎没有提到2代Maxwell的原因,也是为何今天的关于Pascal的章节,很多地方直接描述成:Same as Compute Capablity 5.

    91030发布于 2018-10-23
  • 来自专栏Spark学习技巧

    textFile构建RDD的分区及compute计算策略

    minSize, Math.min(maxSize, blockSize)); 不支持切分的话就直接返回一个文件一个分片 最终,用InputSplit构建HadoopPartition C),接着进入compute classLoader == null) { classLoader = Configuration.class.getClassLoader(); } } 而此,configuration对象是在compute

    1.3K70发布于 2018-01-31
  • 来自专栏乐沙弥的世界

    SQL*Plus break与compute的简单用法

       在SQL*Plus提示符下输出求和报表,我们可以借助break与compute两个命令来实现。这个两个命令简单易用,可满足日常需求,其实质也相当于在编写SQL语句时使用分组及聚合函数。 的用法 a、获取帮助信息 goex_admin@SYBO2SZ> help compute COMPUTE ------- In combination with the BREAK command Also lists all COMPUTE definitions. COMP[UTE] [function [LAB[EL] text] ... b、命令特性描述 compute用于分组值计算指定的列上的数值,实际上等同于对分组列执行group by,然后调用聚合函数。 compute通常结合break来用,否则相当于没有分组,聚合也就没有任何意义。

    62760发布于 2018-08-14
  • Democratizing AI Compute, Part 1: DeepSeek’s Impact on AI

    Modular创始人,LLVM/Clang/Swift/MLIR之父 DeepSeek’s recent breakthrough has upended assumptions about AI’s compute This is Part 1 of Modular’s “Democratizing AI Compute” series. My passion for compute + developer efficiency I've spent the past 25 years working to unlock computing Over the next two and a half years, through intense team effort, we launched TPUs in Google Cloud, scaled How do GPUs and next-generation compute move forward?

    10210编辑于 2026-03-18
  • 来自专栏云深之无迹

    NVIDIA Nsight-Compute性能勘测器

    费米的构架就更不要想了 https://docs.nvidia.com/nsight-compute/2020.3/ReleaseNotes/index.html ? 也有详细的文档 https://docs.nvidia.com/nsight-compute/2020.3/ProfilingGuide/index.html ?

    1.6K10发布于 2021-03-12
  • Democratizing AI Compute, Part 2: What exactly is “CUDA”?

    This is Part 2 of Modular’s “Democratizing AI Compute” series. The Road to CUDA: From Graphics to General-Purpose Compute Before GPUs became the powerhouses of AI and Brook introduced a programming model that let CPUs offload compute tasks to the GPU—a key idea that set CUDA 并行编程模型 2006 年,NVIDIA 正式发布 CUDA(Compute Unified Device Architecture)——首个面向 GPU 的通用编程平台。 随着时间推移,CUDA 平台已发展成涵盖更广的生态系统,其原始缩写的字面含义(Compute Unified Device Architecture)早已无法完整描述当下的 CUDA 全貌。

    8710编辑于 2026-03-18
  • 来自专栏sofu456

    boost.compute使用gpu计算(c++)

    boost.compute https://github.com/boostorg/compute 编译错误 cl.h找不到 下载opencl的头文件,icd(源码)和demo https://gitee.com > 头文件放在最上面,避免boost内部其他模块导致函数找不到 demo compute::device gpu = compute::system::default_device(); // create a compute context and command queue compute::context ctx(gpu); compute::command_queue queue(ctx, gpu ::vector<float> device_vector(1000000, ctx); // copy data to the device compute::copy(host_vector.begin (), host_vector.begin(), queue); boost.compute自定义函数 //方法1 boost::compute::function<int (int)> add_four

    1.6K10编辑于 2022-05-06
  • 来自专栏软件研发

    讲解Unsupported gpu architecture compute_*2017解决方法

    GPU Architecture 'compute_*'"的错误。 *"表示一个或多个数字,例如'compute_20'或'compute_35'。 ']}") # 检查计算能力是否受支持(示例为'compute_20') if int(gpu_properties['compute_capability'].split( compute_20 是 Nvidia GPU 架构中的一个标识符,也被称为计算能力(compute capability)2.0。 如果我们尝试使用不支持 compute_20 架构的 CUDA 版本,可能会遇到"Unsupported GPU Architecture 'compute_20'"的错误。

    1.3K20编辑于 2023-12-15
  • 来自专栏卓越笔记

    Compute Engine Static Ip Charge 谷歌云被扣费

    被扣费项目: 2020年3月1日至31日  Compute Engine Static Ip Charge: 17.341 小时  US$0.16(信用卡待入账) 2020年2月1日至29日  Compute Engine Static Ip Charge: 696 小时  US$6.95(信用卡未查到入账记录) 2020年1月1日至31日  Compute Engine Static Ip Charge:

    71820编辑于 2023-02-18
  • 来自专栏GPUS开发者

    DAY81:阅读Compute Capability 5.x

    Compute Capability 5.x H.4.1. capability 5.0 or 96 KB of shared memory for devices of compute capability 5.2. For devices of compute capability 5.2, it is, by default, not cached in the unified L1/texture cache, Examples for devices of compute capability 3.x (in 32-bit mode) or compute capability 5.x and 6.x ? Examples for devices of compute capability 3.x, 5.x, or 6.x. ?

    84930发布于 2018-10-23
  • Democratizing AI Compute, Part 3: How did CUDA succeed?

    Then suddenly, in late 2022, ChatGPT exploded onto the scene, and with it, GenAI and GPU compute went Capitalizing on the Generative AI Surge Almost overnight, demand for AI compute skyrocketed—it became As demand for AI compute surged, companies faced a stark reality: training and deploying GenAI models Generative AI has become a runaway force, driving an insatiable demand for compute, and NVIDIA holds The future seems inevitable: a world where CUDA’s grip on AI compute only tightens.

    10510编辑于 2026-03-18
领券