首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 记忆不上云:mem9 + TiDB 打造 OpenClaw 私有记忆中枢

    理想的agent记忆系统应该满足四点:自动注入、跨agent共享、新记忆实时可用、数据留在本地。带着这四个要求,我开始寻找答案。这篇文章介绍了mem9作为AIagent记忆方案的思路,给了我很大启发。 两者互补:mem9覆盖日常自动记忆,memsearch处理需要在大量历史文件中深度回溯的场景。 插件可以追加系统指令、注入工具描述,或者——正如mem9所做的——把相关记忆塞进去。 Step5:历史记忆迁移有两类历史数据需要迁移:本地.md记忆文件和mem9.ai云端记忆。踩坑记录:mem9的/imports端点不支持.md格式(返回status:failed)。 换句话说,无法给每个agent配置独立的mem9实例。但深入mem9源码后发现这不是问题:mem9内部用agent_id区分不同agent的记忆,写入和检索都带着这个标识。

    14900编辑于 2026-04-08
  • 来自专栏王的机器

    张量 101

    [7, 8, 9]], [[9, 8, 7], [6, 5, 4], [3, 2, 1]]]) # 4维张量 X4 = np.ones( (60000, 28, 28 # 2维张量 X2 = tf.Variable( [ [4, 9], [16, 25] ], tf.int32 ) # 3维张量 X3 = tf.ones( [60000, 28, 28] ) # # 0维张量 X0 = torch.tensor(3) # 1维张量 X1 = torch.tensor([9, -9]) # 2维张量 X2 = torch.rand(5, 5) # 3维张量 X2, [3 2 1; 0 9 8; 5 3 7] ); % 4 维数组 X4 = repmat( 5,[2 3 1 4] ); 不难看出 X0, X1, X2 都是用方括号 “[]” 直接设定张量里的元素来定义张量 对应的概率为 0.97,因此推断图片里是 9

    3.5K20发布于 2019-07-05
  • 来自专栏天下风云

    .NET9 PreView5张量和AI算力

    前言 .NET9 PreView5增强了对于人工智能的支持,多维数据的高效编码、操作和计算来扩展 AI 能力。 Tensor<T> 张量是人工智能 (AI) 的基石数据结构。 张量用于: 表示和编码数据,例如文本序列(标记)、图像、视频和音频。 高效处理高维数据。 在高维数据上高效应用计算。 在神经网络中,它们用于存储权重信息和中间计算。 var t7 = Tensor.Subtract(t0, t0); // [[0, 0, 0]] var t8 = Tensor.Multiply(t0, 2); // [[2, 4, 6]] var t9 = Tensor.Multiply(t0, t0); // [[1, 4, 9]] var t10 = Tensor.Divide(t0, 2); // [[0.5, 1, 1.5]] var t11 Console.WriteLine(TensorPrimitives.CosineSimilarity(vector1, vector2)); // prints 0.9746318 现在(.NET9)

    34710编辑于 2024-07-04
  • 来自专栏毛利学Python

    tensor张量

    张量 在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比如,下面的张量(使用Python 中list定义的)就是2阶. t=[[1,2,3],[4,5,6],[7,8,9]] ? 创建张量 ? )linear_squares = tf.Variable([[4], [9], [16], [25]], tf.int32) squarish_squares = tf.Variable([ [4, 9], [16, 25] ], tf.int32)rank_of_squares = tf.rank(squarish_squares)mymatC = tf.Variable([[7],[11]],

    1.1K20发布于 2019-11-04
  • 来自专栏产品经理的人工智能学习库

    张量 – Tensor

    文章目录 小白版本 张量是属于线性代数里的知识点,线性代数是用虚拟数字世界表示真实物理世界的工具。 百度百科版本 张量(tensor)理论是数学的一个分支学科,在力学中有重要应用。张量这一术语起源于力学,它最初是用来表示弹性介质中各点应力状态的,后来张量理论发展成为力学和物理学的一个有力的数学工具。 张量之所以重要,在于它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,矢量是一阶张量张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。 查看详情 维基百科版本 在数学中,张量是一种几何对象,它以多线性方式将几何向量,标量和其他张量映射到结果张量。因此,通常在基础物理和工程应用中已经使用的矢量和标量本身被认为是最简单的张量。 另外,来自提供几何矢量的矢量空间的双空间的矢量也被包括作为张量。在这种情况下,几何学主要是为了强调任何坐标系选择的独立性。 查看详情

    1.5K20发布于 2019-12-18
  • 来自专栏xiaosen

    PyTorch张量

    PyTorch 中的张量就是元素为同一种数据类型的多维矩阵。在 PyTorch 中,张量以 "类" 的形式封装起来,对张量的一些运算、处理的方法被封装在类中。 基本创建方式 torch.tensor 根据指定数据创建张量 torch.Tensor 根据形状创建张量, 其也可用来创建指定数据的张量 torch.IntTensor、torch.FloatTensor PyTorch 计算的数据都是以张量形式存在, 我们需要掌握张量各种运算。 张量的基本运算包括多种操作: 加法和减法:两个同阶张量可以进行元素对元素的加法和减法运算。 标量乘法:一个标量可以与任何阶的张量相乘,结果是将原张量的每个元素乘以该标量。 张量积(Kronecker积):用于组合两个张量来创建一个新的高阶张量。 特定运算:包括对称张量的运算、反对称张量的运算、迹运算等。

    65510编辑于 2024-03-24
  • 来自专栏xiaosen

    Tensors张量操作

    x_data的数据属性与形状 x_ones = torch.ones_like(x_data) print(f"ones Tensor: \n {x_ones} \n") # 保持形状不变但改变数据属性的新张量 ]]) # 在CPU上的张量 x_gpu = x_cpu.to(device) # 移动到GPU 数据的运算 这些操作中的每一个都可以在GPU上运行(通常比在CPU上运行的速度更快)。 = agg.item()#使用item()获取里面的值 print("求和,agg_item = " , agg_item,type( agg_item) ) 在PyTorch中,当你想要从一个标量张量 (即形状为(1,)或者空的张量)中提取出Python的原生数值(例如整数、浮点数)时,可以使用.item()方法。 这个方法会返回张量中的数据,将其转换为Python的基本数据类型。

    65610编辑于 2024-05-28
  • 来自专栏python深度学习

    张量张量网络背景和意义-基础知识

    让我们用几个常用的图来看看张量网络大概长什么样子(下图转载自参考链接1): 上面这个图从左到右分别表示:一阶张量、二阶张量以及三阶张量,我们可以看出,一个张量的阶数在图像化的表示中被抽象称为了张量的腿的数量 ,这里的M表示二阶张量,v,w表示一阶张量。 numpy.dot来处理,因此我们还是适用了专业的张量计算函数numpy.einsum来进行处理,计算结果如下: 1 2 3 4 5 6 7 8 9 10 11 12 A: [[[[0.85939221 ,相当于分别将张量w和张量C表示成了多个张量组合运算的结果。 由多个张量构成的组合运算,我们可以使用张量网络来表示: 上图所示的(a)(a)和(b)(b)就分别表示张量w和张量C的张量网络图。

    2.2K10发布于 2021-04-02
  • 来自专栏机器学习/数据可视化

    TensorFlow张量知识

    TensorFlow张量 本文记录的是TensorFlow中的张量基础知识,包含: 张量类型 张量数据类型 张量创建 张量类型 维数 阶 名字 例子 0-D 0 标量scalar s = 1,2,3 1 -D 1 vector v = [1,2,3] 2-D 2 matrix m = [[1,2,3],[4,5,6]] n-D n tensor t = [[[ (有n个括号) 张量可以表示0-n阶的数组 判断张量是几阶,就看有几个[] TensorFlow数据类型 tf.int, tf.float:tf.int32、tf.float32、tf.float64 tf.bool:tf.constant([True 创建张量Tensor 创建张量的一般方式: tf.constant(张量内容, dtype=数据类型[可选]) 直接生成 import tensorflow as tf import numpy as 维度的记忆方式: 一维:直接写个数 二维:用[行, 列]表示 多维:用[n,m,j,k…]表示 全0张量 tf.zeros(3) <tf.Tensor: shape=(3,), dtype=float32

    73030编辑于 2023-08-23
  • 来自专栏Michael阿明学习之路

    Pytorch 张量tensor

    文章目录 1. tensor 张量 2. 运算 3. 切片、形状size()、改变形状view() 4. item() 只能读取一个元素 参考 http://pytorch123.com/ 1. tensor 张量 empty 不初始化 import torch.tensor([[5.5, 3], [2,4]]) tensor([[5.5000, 3.0000], [2.0000, 4.0000]]) new_* 方法,继承之前张量的属性

    87510发布于 2021-02-19
  • 来自专栏计算机视觉理论及其实现

    Pytorch张量(Tensor)复制

    tensor复制可以使用clone()函数和detach()函数即可实现各种需求。

    4.8K21编辑于 2022-09-02
  • 来自专栏xiaosen

    张量的基础操作

    张量 张量是一个多维数组,它是标量、向量和矩阵概念的推广。在深度学习中,张量被广泛用于表示数据和模型参数。 具体来说,张量的“张”可以理解为“维度”,张量的阶或维数称为秩。 例如,零阶张量是一个标量,一阶张量是一个向量,二阶张量是一个矩阵,三阶及以上的张量则可以看作是高维数组。 在不同的上下文中,张量的意义可能会有所不同: 数据表示:在深度学习中,张量通常用于表示数据。 import torch data = torch.randint(0, 10, [4, 5]) print(data) print('-' * 50) tensor([[0, 7, 6, 5, 9] , [6, 8, 3, 1, 0], [6, 3, 8, 7, 3], [4, 9, 5, 3, 1]]) print(data[0]) print(data[:, 0]) # tensor ([0, 7, 6, 5, 9]) # tensor([0, 6, 6, 4]) 列表索引 def test(): print(data[[0, 1], [1, 2]])

    1.6K10编辑于 2024-03-24
  • 来自专栏合集

    Python|张量创建操作

    张量创建操作 张量的随机创建包含的方法有:torch.rand(),torch.randlike(),torch.randn(),torch.randnloike(),torch.randint(),torch.randint_like device:可选参数,返回张量的设备,默认使用当前设备。有cpu张量和cuda张量两种形式。 requires_grad:可选参数,bool。默认False,如果自动梯度会在返回的张量上记录操作。 默认False,只在cpu张量上有效。设置之后返回的张量会被分配到指定的内存。 参数 input(Tensor):输入张量 size(tuples或ints):输出张量的形状 stride(tuple或ints):输出张量的步长 storage_offset(int,可选参数):输出张量在存储中的偏移 layout(torch.layout,可选参数):默认是torch.strided,指定返回张量的layout device(可选参数):默认None返回当前的张量类型 requires_grad(bool

    1.6K10发布于 2020-05-27
  • 来自专栏数据分析与挖掘

    【colab pytorch】张量操作

    1、在pytorch中,有以下9张量类型 ? ([3, 4, 5]) torch.FloatTensor 3 3、命名张量 张量命名是一个非常有用的方法,这样可以方便地使用维度的名字来做索引或其他操作,大大提高了可读性、易用性,防止出错。 tensor中取出值 value = torch.rand(1) print(value) print(value.item()) tensor([0.2959]) 0.2958560585975647 9、 改变张量的形状 # 在将卷积层输入全连接层的情况下通常需要对张量做形变处理, # 相比torch.view,torch.reshape可以自动处理输入张量不连续的情况。 例如当参数是3个10x5的张量,torch.cat的结果是30x5的张量, 而torch.stack的结果是3x10x5的张量

    1.8K20发布于 2020-08-26
  • 来自专栏数据科学(冷冻工厂)

    深度学习:张量 介绍

    4D 张量可以被认为是 3D 张量的四维列表: 考虑 4D 张量的另一种方式是使用 3D 张量作为其元素的向量。这些可能会变得越来越复杂,但这是继续使用张量进行运算所必需的程度。 ], [ 3, 7]], [[13, 9], [ 9, 5], [13, 9]]]) 减法 减法也是按元素进行的并且按预期执行 ]]) 点积 张量乘法比二维中的张量乘法稍微复杂一些。 四维张量运算仍然要求两个张量具有相同的大小。 这意味着两个 4D 张量都包含两个 3D 张量,并且每个张量都包含三个 (3,2) 矩阵。

    1.4K20编辑于 2023-10-27
  • 来自专栏全栈程序员必看

    记忆化递归(记忆化搜索)

    我看了答案还是有些不能完全理解,于是又去b站翻了翻教程基础DP,其中提到记忆化的递归(也称记忆化搜索),相当于结合了dp和递归的优点(这时我又觉得比DP还厉害),然后就准备写写记忆化递归。 ---- 目录 ​ 1.记忆化递归的解释与分析 ​ 2.记忆化递归的应用 ---- 一、记忆化递归的解释与分析 前面说道它结合了dp和递归的优点,分别是记忆化和逻辑清晰易懂。 记忆化递归则更加”投机取巧“了,它只计算了需要用的值并储存起来,而其它不会用到的值不去计算,最大化地减少了计算。 打个比方,dp就相当于计算了一个方阵上所有的点(无论有没有利用价值),而记忆化递归相当于计算了方阵上有价值的点,因此记忆化递归的运行时间可能比dp还要短。 (注意只是可能,因为斐波那契数列无论是dp还是记忆化递归,都是要把前面的值全部算出来的) ---- 二、记忆化递归的应用 感觉没啥写的,就拿分配宝藏来写shui一写shui吧。题目在这里。

    68460编辑于 2022-09-17
  • 来自专栏生命科学

    TLR9 炎症信号与 DNA 损伤 造就 的记忆回路!| MedChemExpress (MCE)

    如果 TLR9 功能受损,基本的记忆机制可能会变为基因组不稳定和认知障碍的开端,与加速衰老、精神疾病和神经退行性疾病有关。 这些发现揭示了免疫应答基因在记忆形成中的关键作用。图 2. CFC 后的基因表达谱图及 TLR9 蛋白水平,TLR9/LAMP2 在不同时间的共定位[3]。A. 核外 γH2AX 与 TLR9 共定位。▐ CA1 神经元中的 TLR9 是情景记忆所必需的炎症反应是学习-诱导的 DNA 损伤的副作用还是有助于记忆的形成? 此外,TLR9 敲低也破坏了 CFC 诱导的基因表达。以上结果证明了神经元特异性 TLR9 介导的 dsDNA 传感在情境记忆的形成和持久中的作用。图 4. TLR9 激活可能由 γH2AX 和 dsDNA 片段触发。TLR9 参与了 DNA 传感,而不是 CFC 中更为传统的 cGAS-STING 路径,提示神经元采用了基于免疫的记忆机制。

    34410编辑于 2024-05-23
  • 来自专栏Python与算法之美

    张量的结构操作

    前面几章我们对低阶API已经有了一个整体的认识,本章我们将重点详细介绍张量操作和动态计算图。 张量的操作主要包括张量的结构操作和张量的数学运算。 张量结构操作诸如:张量创建,索引切片,维度变换,合并分割。 张量数学运算主要有:标量运算,向量运算,矩阵运算。另外我们会介绍张量运算的广播机制。 本篇我们介绍张量的结构操作。 一,创建张量 张量创建的许多方法和numpy中创建array的方法很像。 g = torch.masked_select(scores,scores>=80) print(g) 以上这些方法仅能提取张量的部分元素值,但不能更改张量的部分元素值得到新的张量。 ,可以用torch.split方法把一个张量分割成多个张量

    2.3K20发布于 2020-07-20
  • 来自专栏xiaosen

    Pytorch - 张量转换拼接

    目录 张量转换为 numpy 数组 numpy 转换为张量 标量张量和数字的转换 张量拼接操作 张量索引操作 张量转换为 numpy 数组 使用 Tensor.numpy 函数可以将张量转换为 ndarray 2]], [[5, 1], [9, 4], [0, 1]]]) 张量索引操作 张量索引操作允许我们对多维数组中的元素进行访问和操作。 , 6, 5, 9], [6, 8, 3, 1, 0], [6, 3, 8, 7, 3], [4, 9, 5, 3, 1]]) data[0] -- 9]], [[9, 7, 5, 3, 1], [8, 8, 6, 0, 1], [6, 9, 0, 2, 1], [9, 7, ], [9, 8, 6, 9], [0, 2, 2, 9]])

    70910编辑于 2024-04-16
  • 来自专栏计算机视觉

    PyTorch核心--tensor 张量 !!

    下面从3个方面做一共总结: 张量的概念 张量的原理 张量的操作 张量的概念 1. 张量的定义 张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。 张量的属性 每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。 张量的形状 张量的形状定义了其维度和每个维度上的大小。例如,形状为(2,3,4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。 多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。 # 获取张量的存储 storage = tensor_3d.storage() 2. 广播 广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。

    88500编辑于 2024-03-22
领券