首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习与统计学

    TensorFlow2.0(5):张量限幅

    TensorFlow2.0(1):基本数据结构——张量 TensorFlow2.0(2):数学运算 TensorFlow2.0(3):张量排序、最大最小值 1 maxmium()与minmium() , numpy= array([[8, 4, 4, 4], [9, 5, 4, 7], [6, 5, 8, 6]], dtype=int32)> minium()方法与maximum dtype=int32, numpy= array([[6, 4, 4, 4], [6, 5, 4, 6], [6, 5, 6, 6]], dtype=int32)> 3 relu() relu()方法将tensor最小值限制为0,相当于tf.maxmium(a,0),注意,relu()方法在tf.nn模块中: a = tf.range(-5,5,1) a <tf.Tensor ([[0, 0, 0, 7], [0, 0, 2, 0], [5, 6, 2, 5]], dtype=int32)> 4 cli_by_norm() cli_by_norm

    1.3K30发布于 2019-12-23
  • 来自专栏前端小叙

    es 5 数组reduce方法记忆

    return a + b; }); console.log(total); // total == 6 例子: 数组扁平化 var flattened = [[0, 1], [2, 3], [4, 5] function(a, b) { return a.concat(b); }); console.log(flattened); // flattened is [0, 1, 2, 3, 4, 5]

    1.6K60发布于 2018-04-12
  • 来自专栏悟道

    5-3记忆型递归

    18 12:06 下午 * @Version 1.0 */ public class Main { static int n; static int m; //记忆化递归 +1][m+1]; rec = new int[n + 1][m + 1]; System.out.println(dp(1,1));; } //记忆化递归一定要有返回值

    28610发布于 2021-04-19
  • 来自专栏王的机器

    张量 101

    # 0维张量 X0 = torch.tensor(3) # 1维张量 X1 = torch.tensor([9, -9]) # 2维张量 X2 = torch.rand(5, 5) # 3维张量 torch.tensor 直接设定张量里的元素来定义张量 X2 用 torch.rand 和张量的形状 (5, 5) 来定义一个随机张量 X4 用 new_ones 和张量的形状 (60000, 28 天的历史收盘价,记为 X1,它是一个 5×1 的向量,压缩之后的形状是 (5,),是一个 1 维张量。 天的历史收盘价,记为 X2,它是一个 5×2 的张量。 X2 压缩之后的形状还是 (5, 2),是一个 2 维张量。 ?

    3.5K20发布于 2019-07-05
  • 来自专栏DeepHub IMBA

    5 个PyTorch 中的处理张量的基本函数

    每个深度学习初学者都应该知道这5个Pytorch 的基本函数。 能够以准确有效的方式构建神经网络是招聘人员在深度学习工程师中最受追捧的技能之一。 x = torch.Tensor([[1, 2, 3],[4, 5, 6]]) describe(x) 使用 NumPy 数组创建张量 我们也可以从NumPy 数组中创建PyTorch 张量。 torch.tensor([[1, 2], [3, 4, 5]]) ----------------------------------------------------------------- RuntimeError Traceback (most recent call last) <ipython-input-37-c97227f5da5c 总结 我们对 5 个基本 PyTorch 函数的研究到此结束。

    2.6K10编辑于 2022-01-21
  • 来自专栏毛利学Python

    tensor张量

    张量 在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比如,下面的张量(使用Python 中list定义的)就是2阶. t=[[1,2,3],[4,5,6],[7,8,9]] ? ], tf.float32)first_primes = tf.Variable([2, 3, 5, 7, 11], tf.int32)its_very_complicated = tf.Variable ,) dtype=float32, numpy=array([3.14159, 2.71828], dtype=float32)>, <tf.Variable 'Variable:0' shape=(5, ) dtype=int32, numpy=array([ 2, 3, 5, 7, 11], dtype=int32)>, <tf.Variable 'Variable:0' shape=(2,)

    1.1K20发布于 2019-11-04
  • 来自专栏产品经理的人工智能学习库

    张量 – Tensor

    文章目录 小白版本 张量是属于线性代数里的知识点,线性代数是用虚拟数字世界表示真实物理世界的工具。 百度百科版本 张量(tensor)理论是数学的一个分支学科,在力学中有重要应用。张量这一术语起源于力学,它最初是用来表示弹性介质中各点应力状态的,后来张量理论发展成为力学和物理学的一个有力的数学工具。 张量之所以重要,在于它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,矢量是一阶张量张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。 查看详情 维基百科版本 在数学中,张量是一种几何对象,它以多线性方式将几何向量,标量和其他张量映射到结果张量。因此,通常在基础物理和工程应用中已经使用的矢量和标量本身被认为是最简单的张量。 另外,来自提供几何矢量的矢量空间的双空间的矢量也被包括作为张量。在这种情况下,几何学主要是为了强调任何坐标系选择的独立性。 查看详情

    1.5K20发布于 2019-12-18
  • 来自专栏xiaosen

    PyTorch张量

    print(linear_tensor) import torch start = 0 end = 1 steps = 5 linear_tensor = torch.linspace(start np import torch def test(): data1 = torch.tensor([[1, 2], [3, 4]]) data2 = torch.tensor([[5, data2 print(data) print('-' * 50) if __name__ == '__main__': test() 程序输出结果 tensor([[ 5, 12], [21, 32]]) tensor([[ 5, 12], [21, 32]]) 张量数值计算 PyTorch 计算的数据都是以张量形式存在, 我们需要掌握张量各种运算。 以下是使用 PyTorch 进行张量基本运算的代码案例: import torch # 创建张量 x = torch.tensor([1, 2, 3]) y = torch.tensor([4, 5

    65510编辑于 2024-03-24
  • 来自专栏xiaosen

    Tensors张量操作

    (即形状为(1,)或者空的张量)中提取出Python的原生数值(例如整数、浮点数)时,可以使用.item()方法。 这个方法会返回张量中的数据,将其转换为Python的基本数据类型。 tensor([[1,2,3,4], [5,6,7,8]]) tensor([[1,2,3,4,5, 6,7,8]]) 数据的转换 Numpy转Tensor import torch import numpy as np n=np.ones ( 5) t = torch.from_numpy(n) # [1. 1.1.1. 1.] tensor([1., 1., 1., 1., 1.] ,dtype=torch.float64) Tensor转Numpy t = torch. ones ( 5) n= t.numpy () 图片转Tensor from PIL import Image

    65610编辑于 2024-05-28
  • 来自专栏程序员互动联盟

    记忆卡片】linux常用的5个命令

    -size +12k # 查找当前目录中大于12KB的文件,注意c表示byte 5、cp命令 该命令用于复制文件,copy之意,它还可以把多个文件一次性地复制到一个目录下,它的常用参数如下: -a :将文件的特性一起复制

    1.1K80发布于 2018-03-16
  • 来自专栏相约机器人

    Pytorch 中的 5 个非常有用的张量操作

    5个操作是: expand() permute() tolist() narrow() where() 1. expand() 将现有张量沿着值为1的维度扩展到新的维度。 ]) a.expand(2,2,3) >>tensor([[[1, 2, 3], [4, 5, 6]], [[1, 2, 3], [4, 5, 6 # Example 1 - working a=torch.tensor([[1,2,3],[4,5,6]]) a.tolist() >> [[1, 2, 3], [4, 5, 6]] 在这个例子中, 例如,在一个2D张量中,使用[:,0:5]选择列0到5中的所有行。同样的,可以使用torch.narrow(1,0,5)。然而,在高维张量中,对于每个维度都使用range操作是很麻烦的。 5. where() 这个函数返回一个新的张量,其值在每个索引处都根据给定条件改变。这个函数的参数有:条件,第一个张量和第二个张量

    2.8K41发布于 2020-09-28
  • 来自专栏python深度学习

    张量张量网络背景和意义-基础知识

    让我们用几个常用的图来看看张量网络大概长什么样子(下图转载自参考链接1): 上面这个图从左到右分别表示:一阶张量、二阶张量以及三阶张量,我们可以看出,一个张量的阶数在图像化的表示中被抽象称为了张量的腿的数量 而二阶张量所表示的含义是一个二维的矩阵,如我们常见的python多维数组: 1 2 M = [[1, -1], [-1, 1]] N = [[1, 3], [2, 4], [5, 6]] 这里定义的M, 我们先以两种形式的python矩阵运算来说明张量计算的表示方法: 1 2 3 4 5 6 7 import numpy as np M = np.random.rand(2, 2) v = np.random.rand ,一个高阶的张量与另外一个高阶的张量进行运算: 1 2 3 4 5 6 7 import numpy as np A = np.random.rand(1, 2, 2, 2) B = np.random.rand numpy.dot来处理,因此我们还是适用了专业的张量计算函数numpy.einsum来进行处理,计算结果如下: 1 2 3 4 5 6 7 8 9 10 11 12 A: [[[[0.85939221

    2.2K10发布于 2021-04-02
  • 来自专栏机器学习/数据可视化

    TensorFlow张量知识

    TensorFlow张量 本文记录的是TensorFlow中的张量基础知识,包含: 张量类型 张量数据类型 张量创建 张量类型 维数 阶 名字 例子 0-D 0 标量scalar s = 1,2,3 1 -D 1 vector v = [1,2,3] 2-D 2 matrix m = [[1,2,3],[4,5,6]] n-D n tensor t = [[[ (有n个括号) 张量可以表示0-n阶的数组 创建张量Tensor 创建张量的一般方式: tf.constant(张量内容, dtype=数据类型[可选]) 直接生成 import tensorflow as tf import numpy as ]], dtype=tf.int64) b <tf.Tensor: shape=(2, 3), dtype=int64, numpy= array([[1, 2, 3], [4, 5, 6 创建特殊张量 维度的记忆方式: 一维:直接写个数 二维:用[行, 列]表示 多维:用[n,m,j,k…]表示 全0张量 tf.zeros(3) <tf.Tensor: shape=(3,), dtype

    73030编辑于 2023-08-23
  • 来自专栏Python编程 pyqt matplotlib

    一个PyQt5示例(密码记忆箱)

    下面是一个PyQt5程序,功能是保存各个账号密码,防止忘掉。 新建、修改、和删除分别对应工具条上的三个按钮。 import sys from PyQt5 import QtWidgets, QtGui import os import sqlite3 class PWKeeper(QtWidgets.QMainWindow QtWidgets.QTableWidget() self.setCentralWidget(self.grid) self.grid.setColumnCount(5) QtWidgets.QAbstractItemView.SelectRows) # for i in range(self.current_row): for j in range(1,5)

    1.6K40发布于 2019-08-14
  • 来自专栏Michael阿明学习之路

    Pytorch 张量tensor

    文章目录 1. tensor 张量 2. 运算 3. 切片、形状size()、改变形状view() 4. item() 只能读取一个元素 参考 http://pytorch123.com/ 1. tensor 张量 empty 不初始化 import torch x = torch.empty(5,3) # 不初始化 print(x) tensor([[1.0010e-38, 4.2246e-39, 1.0286e-38], [1.0653e -39, 8.9082e-39], [9.9184e-39, 8.4490e-39, 9.6429e-39]]) rand 随机初始化 0 - 1 之间 x = torch.rand(5,3 torch.tensor([[5.5, 3], [2,4]]) tensor([[5.5000, 3.0000], [2.0000, 4.0000]]) new_* 方法,继承之前张量的属性

    87510发布于 2021-02-19
  • 来自专栏计算机视觉理论及其实现

    Pytorch张量(Tensor)复制

    tensor复制可以使用clone()函数和detach()函数即可实现各种需求。

    4.8K21编辑于 2022-09-02
  • 来自专栏xiaosen

    张量的基础操作

    torch.cat 函数可以将两个张量根据指定的维度拼接起来 import torch def func(): data1 = torch.randint(0, 10, [3, 5, 4] import torch # 创建两个张量 tensor1 = torch.tensor([1, 2, 3]) tensor2 = torch.tensor([4, 5, 6]) # 使用 torch.stack 2, 3], [4, 5, 6]]) 张量索引操作 我们在操作张量时,经常需要去进行获取或者修改操作,掌握张量的花式索引操作是必须的一项能力。 import torch data = torch.randint(0, 10, [4, 5]) print(data) print('-' * 50) tensor([[0, 7, 6, 5, 9 import torch # 创建一个张量 t = torch.tensor([1, 2, 3, 4, 5]) # 范围索引 print(t[1:3]) # 输出 [2, 3] # 布尔索引 b

    1.6K10编辑于 2024-03-24
  • 来自专栏合集

    Python|张量创建操作

    张量创建操作 张量的随机创建包含的方法有:torch.rand(),torch.randlike(),torch.randn(),torch.randnloike(),torch.randint(),torch.randint_like device:可选参数,返回张量的设备,默认使用当前设备。有cpu张量和cuda张量两种形式。 requires_grad:可选参数,bool。默认False,如果自动梯度会在返回的张量上记录操作。 默认False,只在cpu张量上有效。设置之后返回的张量会被分配到指定的内存。 参数 input(Tensor):输入张量 size(tuples或ints):输出张量的形状 stride(tuple或ints):输出张量的步长 storage_offset(int,可选参数):输出张量在存储中的偏移 torch.zeros(2, 3) tensor([[ 0., 0., 0.], [ 0., 0., 0.]]) >>> torch.zeros(5)

    1.6K10发布于 2020-05-27
  • 来自专栏天下风云

    .NET9 PreView5张量和AI算力

    前言 .NET9 PreView5增强了对于人工智能的支持,多维数据的高效编码、操作和计算来扩展 AI 能力。 Tensor<T> 张量是人工智能 (AI) 的基石数据结构。 张量用于: 表示和编码数据,例如文本序列(标记)、图像、视频和音频。 高效处理高维数据。 在高维数据上高效应用计算。 在神经网络中,它们用于存储权重信息和中间计算。 = Tensor.Broadcast(t1, [3, 3]); // Math operations var t4 = Tensor.Add(t0, 1); // [[2, 3, 4]] var t5 System.Numerics.Tensors; ReadOnlySpan<float> vector1 = [1, 2, 3]; ReadOnlySpan<float> vector2 = [4, 5, System.Numerics.Tensors; ReadOnlySpan<double> vector1 = [1, 2, 3]; ReadOnlySpan<double> vector2 = [4, 5,

    34710编辑于 2024-07-04
  • 来自专栏数据分析与挖掘

    【colab pytorch】张量操作

    2、查看张量的基本信息 tensor=torch.randn(3,4,5) print(tensor.size()) print(tensor.type()) print(tensor.dim()) torch.Size ([3, 4, 5]) torch.FloatTensor 3 3、命名张量 张量命名是一个非常有用的方法,这样可以方便地使用维度的名字来做索引或其他操作,大大提高了可读性、易用性,防止出错。 例如当参数是3个10x5张量,torch.cat的结果是30x5张量, 而torch.stack的结果是3x10x5张量。 t2=torch.randn(10,5) t3=torch.randn(10,5) s1=torch.cat([t1,t2,t3],dim=0) s2=torch.stack([t1,t2,t3],dim =0) print(s1.size()) print(s2.size()) torch.Size([30, 5]) torch.Size([3, 10, 5]) 14、将整数标签转换为ont-hot码

    1.8K20发布于 2020-08-26
领券