首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏腾讯云智能·AI公有云

    腾讯云AI牵头制定2计算机视觉标准

    计算机视觉作为人工智能的关键技术之一,是目前人工智能应用于产业经济的重要驱动力。 然而,业界缺乏对计算机视觉系统在可靠性、安全性、规范性等的系统性测评方法和标准建立,一定程度上影响着计算机视觉系统的广泛应用和技术发展。 在腾讯优图实验室、腾讯标准团队支持下,腾讯云AI牵头了本次《人工智能 深度合成图像系统技术规范》、《人工智能 智能字符识别技术规范》2项标准的制定工作。 |《失控玩家》:AI自我觉醒与程序员的浪漫情书 | 黑产肆虐的背后,人工智能如何剥开“面具”伪装?| 加速普惠AI,腾讯云AI在下一盘什么大棋?| 谁,复制了另一个我? | 全球 Top2

    3.3K10编辑于 2022-08-26
  • 来自专栏开发经验

    计算未来展望:边缘计算、量子计算AI

    文章目录 边缘计算:数据处理的新时代 应用领域 挑战与机遇 量子计算:超越传统计算的新范式 量子比特 应用前景 挑战与机遇 人工智能:云计算的动力 云中的AI 应用领域 挑战与机遇 结语 欢迎来到云计算技术应用专栏 ~云计算未来展望:边缘计算、量子计算AI ☆* o(≧▽≦)o *☆嗨~我是IT·陈寒 ✨博客主页:IT·陈寒的博客 该系列文章专栏:云计算技术应用 其他专栏:Java学习路线 Java面试技巧 人工智能:云计算的动力 人工智能(AI)一直是云计算的重要驱动力,它将继续引领云计算的未来。AI技术已经在图像识别、自然语言处理、语音识别和推荐系统等领域取得了巨大成功。 云中的AI计算提供了强大的计算能力和大规模数据存储,这对于训练和部署AI模型至关重要。云提供商如亚马逊、微软和谷歌都提供了AI服务,开发者可以轻松地在云上构建和部署AI应用程序。 此外,AI模型的训练和部署也需要大量的计算资源,这为云提供商提供了商机。 云计算将继续推动AI的发展,而AI也将进一步推动云计算的创新。这两者之间的相互作用将塑造未来技术的面貌。

    1.9K10编辑于 2023-12-13
  • 来自专栏快乐学AI系列

    快乐学AI系列——计算机视觉(2)特征提取和描述

    图片本系列是由“MATRIX.矩阵之芯”精炼的AI快速入门系列,特色是内容简洁,学习快速。 相关要求:学员需要掌握Python编程基础,另外还需要有一定的线性代数、概率论基础。 具体来说,Sobel算法可以通过以下步骤来实现:1、将图像转化为灰度图像;2、使用Sobel卷积核计算图像的梯度值;3、对梯度值进行阈值处理,以检测图像中的边缘。 来个例子:import cv2import numpy as np# 读取图像 原图+黑白图img = cv2.imread('image.jpg')cv2.imshow("Image", img)img Canny算法包括以下几个步骤:1、高斯滤波:对图像进行高斯滤波,以平滑图像,减少噪声干扰;2、梯度计算:使用Sobel算子计算图像中每个像素点的梯度值和方向;3、梯度幅值和非极大值抑制:对梯度幅值进行非极大值抑制 2计算图像的梯度:使用Sobel、Laplacian等算子计算图像在x、y方向的梯度。

    1.3K30编辑于 2023-03-29
  • 来自专栏xingoo, 一个梦想做发明家的程序员

    计算学习2

    4 网络加密 V** virtual private network 虚拟个人网络:长连接和加密 L2TP(layer 2 tunneling protocol) 二层隧道协议 VPLS( 缺点 1 管理成本高昂 2 安全隐患 3 网络复杂性 SSL secure socket layer加密套接字协议。 优点: 1 简介的部署模式,浏览器大多自带ssl功能 2 精细的访问控制,只有授权的用户才能访问特定的内部网络资源 3 防火墙穿越,由于工作在传输层之上,因此能够遍历所有防火墙和NAT设备 定义了传输数据的方式 SSL V**类型 1 零客户端模式 2 瘦客户端模式 3 隧道模式 5 可靠地网络通道 标准的QOS流程:流量识别、流量标记、流量处理 流量识别 4 完成链路终结动作 FCOE设备 1 ENode 终结流量的设备 2 FCF 转发流量的设备 FCOE的演化 1 纯以太网模式 2 FIP snooping模式:监听

    1.3K80发布于 2018-01-17
  • 来自专栏机器学习、深度学习

    CNN光流计算2

    Optical Flow Estimation with Deep Networks CVPR2017 Code: https://github.com/lmb-freiburg/flownet2 改进主要有三点: 1) 在训练层面,数据库的训练的顺序很重要 the schedule of presenting data during training is very important 2

    1.4K30发布于 2019-05-26
  • 来自专栏AI系统

    AI系统】微分计算模式

    上一篇文章简单了解计算机中常用几种微分方式。本文将深入介绍 AI 框架离不开的核心功能:自动微分。 前向梯度累积会指定从内到外的链式法则遍历路径,即先计算 dw_1/dx ,再计算 dw_2/dw_1 ,最后计算 dy/dw_2 。即,前向模式是在计算图前向传播的同时计算微分。 节点,v_1=lnv_{−1}=lnx_1=ln2计算 v_2  节点,节点 v_2 依赖于 v_{-1}  和 v_0 ,v_2=10 ; 计算 v_3 节点,v 反向模式的缺点: 需要额外的数据结构记录正向过程的计算操作,用于反向使用; 带来了大量内存占用,为了减少内存操作,需要 AI 框架进行各种优化,也带来了额外限制和副作用。 因此,目前大部分 AI 框架都会优先采用反向模式,但是也有例如 MindSpore 等 AI 框架同事支持正反向的实现模式。

    40210编辑于 2024-12-13
  • 来自专栏AI系统

    AI系统】计算图原理

    在前面的文章曾经提到过,目前主流的 AI 框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把 AI 系统化的问题形象地表示出来。 最后简单地学习 PyTorch 如何表达计算图。AI 系统化问题遇到的挑战在真正的 AI 工程化过程中,我们会遇到诸多问题。 因此派生出了目前主流的 AI 框架都选择使用计算图来抽象神经网络计算计算图的定义我们会经常遇到有些 AI 框架把统一的图描述称为数据流图,有些称为计算图,这里可以统称为计算图。 在 AI 框架中会稍微有点不同,其计算图的基本组成有两个主要的元素:1)基本数据结构张量和 2)基本计算单元算子。节点代表 Operator 具体的计算操作(即算子),边代表 Tensor 张量。 在这里的计算图其实忽略了 2 个细节,特殊的操作:如:程序代码中的 For/While 等构建控制流;和特殊的边:如:控制边表示节点间依赖。

    67010编辑于 2024-12-06
  • 来自专栏AI系统

    AI系统】计算与调度

    他观察到,如果将这些数字按照顺序两两配对,比如 1 和 100、2 和 99、3 和 98,以此类推,每对数字的和都是 101。 于 AI 框架而言,所开发的算子是网络模型中涉及到的计算函数。 AI 编译器优化的目的在于通过对算子进行最佳调度,使得算子在特定硬件上的运行时间达到最优水平。这种优化涉及到对算子调度空间的全面搜索和分析,以确定最适合当前硬件架构的最佳调度方案。 Reorder(交换)、Split(拆分)、Fuse(融合)、Tile(平铺)、Vector(向量化)、展开(Unrolling)、并行(Parallelizing)等,以 Halide 思想为指导的 AI 在这一步首先对 x 轴和 y 轴进行循环分块,分块因子为 4,然后将外侧的 y 和外侧的 x 轴循环进行融合(2+2=4),再将这个融合后的操作进行并行操作。

    59710编辑于 2024-11-29
  • 来自专栏AI系统

    AI系统】CPU 计算本质

    CPU 算力 算力(Computational Power),即计算能力,是计算机系统或设备执行数值计算和处理任务的核心能力。 操作与数据加载的平衡点 为了平衡计算和数据加载,每从内存中加载一个数据,需要执行 80 次计算操作。这种平衡点确保了计算单元和内存带宽都能得到充分利用,避免了计算资源的浪费或内存带宽的瓶颈。 这一概念在计算机科学中至关重要,尤其在高性能计算领域。操作强度衡量的是计算与内存访问之间的关系。操作强度越高,意味着处理器在处理数据时进行更多计算操作,而不是频繁访问内存。 图片 训练 AI 大模型的变化趋势 这张图展示了训练 AI 大模型所需时间随模型参数数量的变化趋势,纵轴表示训练时间,单位从“天”(Days)到“周”(Weeks)再到“月”(Months);横轴表示模型参数的数量 ,范围从 2 亿到 1008 亿。

    87110编辑于 2024-12-04
  • 来自专栏周景超的专栏

    腾讯 AI Lab 计算机视觉中心人脸 & OCR 团队近期成果介绍 ( 2 )

    腾讯AI Lab计算机视觉中心人脸&OCR团队是2016年11月底开始组建和开展工作,我们以研发业界领先的算法为目标驱动,逐步克服人手不足、训练数据不足等困难,不断夯实基础,做既有原创性又能落地应用的国际前沿研究 在上一期(腾讯AI Lab 计算机视觉中心人脸&OCR团队近期成果介绍(1))中已经介绍了我们团队的一些研究成果,近期,我们团队有一些新的成果再和大家进一步分享。 1. Megaface Challenge 2的常规识别测试集的识别准确率结果对比 表2. Megaface Challenge 2的常规识别测试集的验证准确率结果对比 表3. 2. 项目合作 人脸与OCR是计算机视觉领域应用非常广泛,受到工业界和学术界高度关注的一个研究领域和方向,不仅难度很大而且竞争非常激烈。

    3.2K30发布于 2017-09-25
  • 来自专栏TEG云端专业号的专栏

    腾讯AI Lab计算机视觉中心人脸&OCR团队近期成果介绍(2

    腾讯AI Lab计算机视觉中心人脸&OCR团队是2016年11月底开始组建和开展工作,我们以研发业界领先的算法为目标驱动,逐步克服人手不足、训练数据不足等困难,不断夯实基础,做既有原创性又能落地应用的国际前沿研究 在上一期(腾讯AI Lab 计算机视觉中心人脸&OCR团队近期成果介绍(1))中已经介绍了我们团队的一些研究成果,近期,我们团队有一些新的成果再和大家进一步分享。 Megaface Challenge 2的常规识别测试集的识别准确率结果对比 表2. Megaface Challenge 2的常规识别测试集的验证准确率结果对比 表3. 图2. ch=1&com=evaluation&task=3) 3 项目合作 人脸与OCR是计算机视觉领域应用非常广泛,受到工业界和学术界高度关注的一个研究领域和方向,不仅难度很大而且竞争非常激烈。

    65220编辑于 2023-03-30
  • 来自专栏python3

    php 循环 计算1+1+2+1+2

    $sum; } add(100,0); 方法二:回调函数 function getSum($n) {     if ($n > 1) {  $tempSum = $n * (1 + $n) / 2;

    1.2K10发布于 2020-01-07
  • 来自专栏育种数据分析之放飞自我

    GWAS计算BLUE值2--LMM计算BLUE值

    GWAS计算BLUE值2--LMM计算BLUE值 #2021.12.12 本节,介绍如何使用R语言的lme4包拟合混合线性模型,计算最佳线性无偏估计(blue) 1. 2. 使用asreml包进行blue值计算 library(asreml) m2 = asreml(height ~ RIL, random = ~ location + location:RIL + location :rep,data=dat) summary(m2)$varcomp re2 = predict(m2,classify = "RIL")$pval %>% as.data.frame() head(re2 95%的同学,在计算GWAS分析表型值计算时,都是用上面的模型计算出blue值,然后直接进行计算,其实还有更好的模型。

    1.8K30编辑于 2021-12-20
  • 来自专栏云深之无迹

    为什么计算等效噪声带宽计算时有π2

    不知道有没有人发现,一开始的文章里面我计算带宽的时候是有带宽要乘 π/2”,其实是“等效噪声带宽 (Noise BandWidth, NBW)” 的核心概念。 在文档里,增益级写的 NBW = 4 MHz × π/2 ≈ 6.3 MHz,就是这个公式来的;同理,buffer 带宽 70 MHz → NBW = 70 × π/2 ≈ 110 MHz;ADC 内部的数字滤波 黄色矩形 理想低通,截止在 ,积分面积 = 1.0(归一化计算)。 绿色面积 一阶 RC 的积分面积 ≈ 1.375(数值计算结果)。 理论值 解析解 = ,比理想低通大 **57%**。 NBW 都写成“带宽 × π/2”。 H_RC = 1 / (1 + f**2) # 积分计算面积 df = f[1] - f[0] area_ideal = np.sum(H_ideal) * df area_RC = np.sum(H_RC

    19410编辑于 2026-01-07
  • 来自专栏技术杂记

    QT(二).计算器(2

    QWidget *parent = 0); //构造函数 ~Calc(); //析构函数 signals: public slots: void append1(); void append2( ::AlignRight); //将le的显示设定为右对齐 connect(pb1,SIGNAL(clicked()),this,SLOT(append1())); connect(pb2, *b; else if ('/' == c) r=a/b; else if ('%' == c) r=(int)a % (int)b; else r=b; //根据操作符的类别进行相应计算 ) //输入2 { res.append("2"); le->setText(res); } void Calc::append3() //输入3 { res.append("3"); [emacs@h102 calc]$ make /usr/local/Trolltech/Qt-4.8.6/bin/uic calc.ui -o ui_calc.h g++ -c -pipe -O2

    1.2K20发布于 2021-09-14
  • 来自专栏数据结构与算法

    12:计算2的N次方

    12:计算2的N次方 查看 提交 统计 提问 总时间限制: 1000ms 内存限制: 65536kB描述 任意给定一个正整数N(N<=100),计算2的n次方的值。 输入输入一个正整数N。 输出输出2的N次方的值。 样例输入 5 样例输出 32 提示高精度计算 1 #include<iostream> 2 #include<cmath> 3 #include<cstdio> 4 #include <cstring> 5 using namespace std; 6 int n; 7 int ans[100001]={0,2}; 8 int lans=1; 9 int main( 15 cout<<"1"; 16 return 0; 17 } 18 else if(n==1) 19 { 20 cout<<"2"

    2.4K60发布于 2018-04-11
  • 来自专栏算法工程师的学习日志

    MATLAB-矩阵相关计算2

    详细例子 在MATLAB中建立一个脚本文件,代码如下: a = [ 1 2 3; 2 3 4; 1 2 5] b = [ 2 1 3 ; 5 0 -2; 2 3 -1] prod = a * b 运行该文件 ,显示以下结果: a = 1 2 3 2 3 4 1 2 5 b = 2 1 3 5 0 - 要计算对应矩阵行列式的值的指令为:d=det(A),该指令返回矩阵 A 的行列式,并把所得值赋给 d。 MATLAB中,逆矩阵的计算使用 inv 函数:逆矩阵A是inv(A). 详细例子 在MATLAB中建立一个脚本文件,并输入下面的代码: a = [ 1 2 3; 2 3 4; 1 2 5] inv(a) 运行该文件,显示以下结果: a = 1 2

    94230编辑于 2022-07-27
  • 来自专栏SIGAI学习与实践平台

    理解计算:从√2到AlphaGo——第2季 神经计算的历史背景

    有意思的是,在20世纪后半,神经科学和计算科学相结合诞生的神经计算(Neural Computing),显微镜终于和集成电路联系在一起。 卡哈尔确定了若干个重要的规律,并且在研究中始终贯彻:1神经系统由神经元这样的基本单位构成,但在研究功能时,需要整体考虑各个结构之间的相互作用;2神经信号的传导大多是单向的;3神经元之间是生理结构上不连续的 因此,在计算机科学领域则更多的是借鉴一种思想,可以认为计算科学交叉使用了网状理论和神经元理论。 那么神经元到底是个什么东西? 推荐文章 往期文章汇总 [1] 机器学习-波澜壮阔40年 SIGAI 2018.4.13. [2] 学好机器学习需要哪些数学知识? :从√2到AlphaGo ——第1季 从√2谈起 SIGAI 2018.6.20 [27] 场景文本检测——CTPN算法介绍 SIGAI 2018.6.22 [28] 卷积神经网络的压缩和加速 SIGAI

    57050发布于 2018-07-02
  • 来自专栏鲜枣课堂

    AI计算,为什么要用GPU?

    CPU vs GPU █ GPU与AI计算 大家都知道,现在的AI计算,都在抢购GPU。英伟达也因此赚得盆满钵满。为什么会这样呢? 原因很简单,因为AI计算和图形计算一样,也包含了大量的高强度并行计算任务。 深度学习是目前最主流的人工智能算法。从过程来看,包括训练(training)和推理(inference)两个环节。 GPU凭借自身强悍的并行计算能力以及内存带宽,可以很好地应对训练和推理任务,已经成为业界在深度学习领域的首选解决方案。 目前,大部分企业的AI训练,采用的是英伟达的GPU集群。 目前,他们市值高达1.22万亿美元(英特尔的近6倍),是名副其实的“AI无冕之王”。 那么,AI时代的计算,是不是GPU一家通吃呢?我们经常听说的FPGA和ASIC,好像也是不错的计算芯片。 敬请期待下集:《到底什么是ASIC和FPGA》 参考文献: 1、《一文搞懂GPU的概念、工作原理》,开源LINUX; 2、《AI芯片架构体系综述》,知乎,Garvin Li; 3、《GPU、FPGA、ASIC

    3.3K11编辑于 2024-01-03
  • 来自专栏云社区活动

    量子计算 + AI:科幻照进现实?

    今天,我就来带大家初探量子计算如何加速AI算法,不仅讲理论,还动手写点代码,让大家感受一下量子的魅力!为什么AI需要更快的计算能力?在AI领域,尤其是深度学习模型,训练时间是一个大问题。 经典计算(CPU/GPU)我们传统的计算方式是二进制的,即 0 和 1 组成的比特(bit)。一台计算机的处理能力,依赖于它能同时处理多少个比特。2. 量子计算利用量子纠缠和叠加,可以在一次计算中同时处理多个状态的数据。这就意味着,量子计算可能在某些AI任务上实现指数级加速!量子计算如何加速AI?1. 优化 AI 训练量子计算的一个核心优势在于求解最优化问题,比如:训练神经网络时,我们需要最小化损失函数(如交叉熵、均方误差)。量子计算可以更快地找到全局最优解,而不是陷入局部最优点。2. 实战演示:用量子计算优化AI训练我们来用量子计算模拟一个简单的AI优化任务,看看它能否比传统方法更快收敛。

    73510编辑于 2025-03-22
领券