首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏新智元

    Tilde打破提示工程局限,让AI推理更精准

    接着,案例演示引入了Tilde的干预,补充了指令:「确保有山!」 我们可以注意到加入Tilde干预后的准确性和遵循用户偏好的提升。 技术原理 Tilde还发表了一篇内容关于稀疏自编码器中的速率-失真问题的博客,并表示不久将会发布开源的项目。 这些理论都被积极融入到Tilde训练的解释性模型中。 Tilde研究团队在实验中发现,与自适应稀疏方法相比,Top-k方法能够产生更平滑的学习动态和更强的抗噪性。 在未来的研究中,Tilde将进一步探讨这一方向,并期待为解码器架构提供新的优化方法。

    35810编辑于 2025-02-15
  • 来自专栏又见苍岚

    Markov Chain Monte Carlo 采样算法

    通常 \tilde{p}(i) Q_{i, j} \neq \tilde{p}(j) Q_{j, i} , 即 \tilde{p} 并不满足细致平稳条件 我们需要改造已有的马尔可夫链,使得细致平稳条件成立 \alpha(i, j)=\tilde{p}(j) Q_{j, i} ​, 则有: \tilde{p}(i) Q_{i, j} \alpha(i, j)=\tilde{p}(i) Q_{i, j} \tilde{p}(j) Q_{j, i}=\tilde{p}(j) Q_{j, i} \tilde{p}(i) Q_{i, j}=\tilde{p}(j) Q_{j, i} \alpha(j, i) 当 \tilde{p}(j) Q_{j, i}>\tilde{p}(i) Q_{i, j} \alpha(i, j)=1, \alpha(j, i)=\frac{\tilde{p}(i) Q_{i, 当 \tilde{p}(j) Q_{j, i}<\tilde{p}(i) Q_{i, j} \alpha(i, j)=\frac{\tilde{p}(j) Q_{j, j}}{\tilde{p}(i)

    1K20编辑于 2022-08-05
  • 来自专栏MyBlog

    数值分析读书笔记(1)导论

    $$e(x)=x-\tilde {x}$$) , 其中![](http://www.forkosh.com/mathtex.cgi?$$\tilde x$$)为x的近似值,我们可以得到绝对误差界 ! x} \end{vmatrix}=\begin{vmatrix} \frac{x-\tilde x}{\tilde x} \end{vmatrix} \le \delta(x)=\delta $$) $$\epsilon(y)=\frac{e(y)}{\tilde y}=\frac{f^(\tilde x)e(x)}{\tilde y} =\frac{\tilde xf^(\tilde x)e(x) }{\tilde y \tilde x}=\frac{\tilde x f^(\tilde x)}{\tilde y}\epsilon (x)$$) 相对误差界为 ! }f^(\tilde x)\end{vmatrix}}{\begin{vmatrix}\tilde y\end{vmatrix}}\delta(x)$$) 从而 !

    1.3K20发布于 2018-09-13
  • 来自专栏秋枫学习笔记

    WWW'22 用户意图发掘:序列推荐中的意图对比学习

    \tilde{S}_{1}^{u}=g_{1}^{u}\left(S^{u}\right), \tilde{S}_{2}^{u}=g_{2}^{u}\left(S^{u}\right), \text { {\mathbf{H}}_2^u ,将其聚合后得到兴趣向量表示当前整个序列的表征 \tilde{h}_1^u , \tilde{h}_2^u ,文中采用的聚合方式是拼接。 {h}}_{2}^{u}\right)+\mathcal{L}_{\text {SeqCL }}\left(\tilde{\mathbf{h}}_{2}^{u}, \tilde{\mathbf{h}}_ {1}^{u}\right), \mathcal{L}_{\mathrm{SeqCL}}\left(\tilde{\mathbf{h}}_{1}^{u}, \tilde{\mathbf{h}}_{2} ^{u}\right)=-\log \frac{\exp \left(\operatorname{sim}\left(\tilde{\mathbf{h}}_{1}^{u}, \tilde{\mathbf

    1.6K50编辑于 2022-09-19
  • 来自专栏hotarugaliの技术分享

    PCA模型

    {matrix} \tilde{x_{11} } & \tilde{x_{12} } & \cdots & \tilde{x_{1p} } \\ \tilde{x_{21 \tilde{x_{n1} } & \tilde{x_{n2} } & \cdots & \tilde{x_{np} } \end{matrix} \right) \end{array} X~= {x_1} + c_2\tilde{x_2} + \cdots + c_p\tilde{x_p}, \sum_{j=1}^{p}c_j^2 = 1 \end{array} z=c1​x1​~​+c2​x2​ {x_1} + \mu_{21}\tilde{x_2} + \cdots + \mu_{m1}\tilde{x_m} \\ y_2 = \mu_{12}\tilde{x_1} + \mu_{22}\tilde {x_2} + \cdots + \mu_{m2}\tilde{x_m} \\ \vdots \\ y_m = \mu_{1m}\tilde{x_1} + \mu_{2m}\tilde{x_2} + \

    1.2K40编辑于 2022-03-16
  • 来自专栏深度学习

    【计算机视觉】二、图像形成:1、向量和矩阵的基本运算:线性变换与齐次坐标

    叉积算子 两条直线的表示: 给定两条直线 \tilde{l}_1 和 \tilde{l}_2 的齐次坐标表示。 交点的计算: 两条直线 \tilde{l}_1 和 \tilde{l}_2 的交点 \tilde{x} 可以通过它们的外积(叉积)求得: \tilde{x} = \tilde{l}_1 \times \tilde{l}_2 其中,外积的计算方式为: \tilde{l}_1 = (\tilde{x}_1, \tilde{y}_1, \tilde{a}_1) \tilde{l}_2 = (\tilde {x}_2, \tilde{y}_2, \tilde{a}_2) \tilde{x} = \tilde{l}_1 \times \tilde{l}_2 = 这种利用直线的齐次坐标表示求交点的方法,可以自然地推广到三维空间

    81310编辑于 2024-07-30
  • 来自专栏晓飞的算法工程笔记

    NASH:基于丰富网络态射和爬山算法的神经网络架构搜索 | ICLR 2018

    {w} \in \mathbb{R}^j$的网络$g^\tilde{w} \in \mathcal{N}(\mathcal{X})$,并且满足公式1,即对于相同的输入,网络的输出不变。 [1240]   下面给出几种标准网络结构的网络态射例子: Network morphism Type I [1240]   将$f^w$进行公式2的替换,$\tilde{w}=(w_i, C, d)$ {h}^{w{\tilde{h}}}(x)$根据公式4替换为$\tilde{f}^{\tilde{w}i}$,$\tilde{w}=(w_i, w{\tilde{h}}, \tilde{A})$,设定$ \tilde{A}=0$。 这个态射可以表示为两种结构: 增加层宽度,将$h(x)$想象为待拓宽的层,设定$\tilde{h}=h$则可以增加两倍的层宽度。

    83060发布于 2020-06-15
  • 来自专栏秋枫学习笔记

    UFIN:用于多域点击率预测的通用特征交互网络

    基于这一思路,将文本数据的潜在表征映射到通用特征模态,如下所示 \tilde{e}_j=LayerNorm(V_j\tilde{z}) 通过一组映射矩阵V将编码器得到的emb映射到不同的表征子空间 \ {\tilde{e}_1,... 给定数据特征 \tilde{E}=\{\tilde{e}_1,... \tilde{e}_1^{\alpha_1}\odot ... F}\left(\tilde{\boldsymbol{E}} ; \mathcal{A}_{j}\right) \cdot \tilde{\boldsymbol{g}}_{j} \\ \tilde{\boldsymbol

    83410编辑于 2024-01-17
  • 来自专栏代码编写世界

    最小二乘问题详解13:对极几何中本质矩阵求解

    对每一对归一化匹配点 (\tilde{\mathbf{x}}_{1i}, \tilde{\mathbf{x}}_{2i}) ,其中 \tilde{\mathbf{x}}_{1i} = [\tilde {u}_{1i}, \tilde{v}_{1i}, 1]^\top 、 \tilde{\mathbf{x}}_{2i} = [\tilde{u}_{2i}, \tilde{v}_{2i}, 1]^\top tilde{u}_{1i}\tilde{v}_{2i} & \tilde{u}_{1i} & \tilde{v}_{1i}\tilde{u}_{2i} & \tilde{v}_{1i}\tilde{v} {u}_{1i} \tilde{u}_{2i} & \tilde{u}_{1i} \tilde{v}_{2i} & \tilde{u}_{1i} & \tilde{v}_{1i} \tilde{u}_{ 2i} & \tilde{v}_{1i} \tilde{v}_{2i} & \tilde{v}_{1i} & \tilde{u}_{2i} & \tilde{v}_{2i} & 1 \end{bmatrix

    8110编辑于 2026-03-10
  • 来自专栏hotarugaliの技术分享

    最大熵模型

    给定训练数据集,可以确实联合分布 P(X,Y)P(X, Y)P(X,Y) 的经验分布和边缘分布 P(X)P(X)P(X) 的经验分布,分别以 P~(X,Y)\tilde{P}(X, Y)P~(X,Y) 和 P~(X)\tilde{P}(X)P~(X) 表示: P~(X=x,Y=y)=ν(X=x,Y=y)NP~(X=x)=ν(X=x)N\tilde{P}(X = x, Y = y) = \frac{\ {P}(X, Y)P~(X,Y) 的期望值,用 EP~(f)E_{\tilde{P}}(f)EP~​(f) 表示: EP~(f)=∑x,yP~(x,y)f(x,y)E_{\tilde{P}}(f) = ,即 EP(f)=EP~(f)E_{P}(f) = E_{\tilde{P}}(f)EP​(f)=EP~​(f)。 }(P_w) = \log{\prod_{x,y} P(y | x)^{\tilde{P}(x, y)}} = \sum_{x, y} \tilde{P}(x, y) \log P(y | x) LP~​

    65230编辑于 2023-02-02
  • 来自专栏秋枫学习笔记

    CIKM'21「Adobe」Locker:具有局部约束的自注意力序列推荐

    经过M个头的多头自注意力可得向量 \tilde{V}_i ,公式如下,其中 f_{att} 表示注意力机制。 \begin{array}{l} \tilde{V}_{i}=\left[\tilde{V}_{i}^{(1)} ; \ldots, \tilde{V}_{i}^{(m)} ; \ldots ; \tilde 则V的计算公式稍作改动,如下, \tilde{V}_{i}=\left[\tilde{V}_{i, l}^{(1)} ; \ldots ; \tilde{V}_{i, l}^{\left(M_{l}\right )} ; \tilde{V}_{i, g}^{(1)} ; \ldots ; \tilde{V}_{i, g}^{\left(M_{g}\right)}\right] \mathrm{W}_{O} 3.2 基于模型的局部编码器 通过具有归纳局部偏差的神经网络来生成局部的embedding \tilde{V}_{i,l}^{(m_l)} 3.2.1 固定深度的RNN RNN在短期序列建模方面很有效。

    48230编辑于 2022-09-19
  • 来自专栏秋枫学习笔记

    协同过滤中考虑表征对齐和均匀性

    给定数据分布 p_{data}(\cdot) 和正样本对的分布 p_{pos}(\cdot,\cdot) ,对齐定义为正样本对的标准化embedding之间的距离的期望,公式如下,其中 \tilde{f \begin{aligned} l_{\mathrm{align}}=&\underset{(u, i) \sim p_{\text {pos }}}{\mathbb{E}} \| \tilde{f ( u)}-\tilde{f (i) }\|^{2} \\ l_{\text {uniform }}=& \log \underset{u, u^{\prime} \sim p_{\text {user } }}{\mathbb{E}} e^{-2 \| \tilde{f(u)}-\tilde{f(u’)} \|^{2}} / 2+\\ & \log \underset{i, i^{\prime} \sim p_{\text {item }}}{\mathbb{E}} e^{-2\left\|\tilde{f(i)}-\tilde{f\left(i^{\prime}\right)}\right\|^{2}

    70830编辑于 2022-09-19
  • 来自专栏又见苍岚

    线性模型 -1- 线性回归

    线性回归 问题定义 给定数据集 \mathbb{D}=\left\{\left(\overrightarrow{\mathbf{x}}_{1}, \tilde{y}_{1}\right),\left (\overrightarrow{\mathbf{x}}_{2}, \tilde{y}_{2}\right), \cdots,\left(\overrightarrow{\mathbf{x}}_{N}, \tilde{y}_{N}\right)\right\} , 其中 \overrightarrow{\mathbf{x}}_{i}=\left(x_{i, 1}, x_{i, 2}, \cdots , x_{i, n}\right)^{T} \in \mathcal{X} \subseteq \mathbb{R}^{n}, \tilde{y}_{i} \in \mathcal{Y} \subseteq {w}})^{T}(\overrightarrow{\mathbf{y}}-\mathbf{X} \overrightarrow{\tilde{\mathbf{w}}}) 。

    1.1K20编辑于 2022-08-06
  • 来自专栏秋枫学习笔记

    KDD'22 | 自监督超图Transformer构建推荐系统

    SHT 通过将对应于id的embedding( e_i,e_j )与拓扑感知embedding结合生成输入的用户和商品embedding,表示如下,然后,SHT 使用 \tilde{e}_i,\tilde \tilde{e}_i=e_i+\bar{e}_i; \tilde{e}_j=e_j+\bar{e}_j 2.2.1 节点到超边的信息传播 商品和用户的表示是类似的,这里以用户节点为例。 从用户节点到用户侧超边的传播可以表示如下,其中 \tilde{z}_k 表示第k条超边的embedding,通过拼接H个头的超边embedding得到,通过注意力机制计算得到H个头的embedding。 \tilde{\mathbf{z}}_{k}=\|_{h=1}^{H} \overline{\mathbf{z}}_{k, h} ; \quad \overline{\mathbf{z}}_{k, h} ,公式如下, \tilde{E}_l=HyperTrans(\tilde{E}_{l-1});\hat{E}=\sum_{l=1}^L{\tilde{E}_l} 预测用户 u_i 和商品 v_j 的分数为

    1.4K20编辑于 2022-09-19
  • 来自专栏基于深度学习的图像增强

    基于变分法的感知色彩校正

    \({D_{\tilde \omega ,GW}}(I)\)的初级变分为\(\delta {D_{\tilde \omega ,GW}}(I)x = 2(I(x) - (1/2))\)。 对\({D_{\tilde \omega ,{I_0}}}\)有如下命题。 命题2:\({D_{\tilde \omega ,{I_0}}}(I)\)的初级变分为: ? }(\tilde x)\)。 另一方面,若\(I(x) = I(\tilde x)\),则\({H_J}(I(x)) = {H_J}(I(\tilde x))\)。 因此若\({I^k}(x) = {I^k}(\tilde x)\),则\({I^{k + 1}}(x) = {I^{k + 1}}(\tilde x)\)。

    99920发布于 2020-06-03
  • 来自专栏秋枫学习笔记

    SIGIR'23 阿里 | 基于对比学习做转化率预估

    将同一样本的两个增广emb表示为 \tilde{e_i} , \tilde{e}_j 。 给定锚点样本 \tilde{e}_i ,可以将另一个增广样本 \tilde{e}_j 作为正样本,而其他样本的增广样本作为负样本。 使用 o(\tilde{e}_i) 表示 \tilde{e}_i 的原始样本i。 引入了一个重复指标, o(\tilde{e}_i) 和 o(\tilde{e}_k) 具有相同的特征, 则 I(o(\tilde{e}_i),o(\tilde{e}_k))=1 ,否则为0。 在传统的对比学习中,锚点样本 \tilde{e}_i 具有单个正样本 \tilde{e}_j , 此方法为锚点样本找到多个正样本 S(i)=\{j\}\cup\{k|z(\tilde{\mathbf{e

    1K20编辑于 2023-08-18
  • 来自专栏又见苍岚

    机器学习简介

    {\mathbf{x}}_{2}, \tilde{y}_{2}\right), \cdots,\left(\overrightarrow{\mathbf{x}}_{N}, \tilde{y}_{N}\right 输入 \overrightarrow{\mathbf{x}} 和标记 \tilde{y} 可以是连续的,也可以是离散的。 \tilde{y} 为连续的:这一类问题称为回归问题。 \tilde{y} 为离散的, 且是有限的:这一类问题称之为分类问题。 {\mathbf{x}}_{2}, \tilde{y}_{2}\right), \cdots,\left(\overrightarrow{\mathbf{x}}_{N}, \tilde{y}_{N}\right 平方损失函数 MSE : L(\tilde{y}, \hat{y})=(\tilde{y}-\hat{y})^{2} 绝对损失函数 MAE : L(\tilde{y}, \hat{y})=|\tilde

    74830编辑于 2022-08-05
  • 来自专栏mathor

    L2正则效果不好?试试WEISSI正则

    \boldsymbol{h}_l =\left(\prod_{i=1}^l \gamma_i\right) \phi(\tilde{\boldsymbol{W}}_l \phi(\tilde{\boldsymbol {W}}_{l-1} \phi(\cdots\phi(\tilde{\boldsymbol{W}}_1\boldsymbol{x} + \tilde{\boldsymbol{b}}_1)\cdots) + \tilde{\boldsymbol{b}}_{l-1}) + \tilde{\boldsymbol{b}}_l) \end{aligned}\tag{2} $$ 如果\prod\limits_{ {\boldsymbol{W}}_i\right\Vert_2^2的最小值在 \begin{equation}\Vert\tilde{\boldsymbol{W}_1}\Vert_2^2=\Vert\tilde {\boldsymbol{W}}_1\Vert_2^2=\Vert\tilde{\boldsymbol{W}}_2\Vert_2^2=\cdots =\Vert\tilde{\boldsymbol{W}

    86410发布于 2021-06-17
  • 来自专栏hotarugaliの技术分享

    条件数

    定义 给定问题 ,输入 以及用于求解问题的算法 ,则绝对误差定义为 E(f~(x))=∣f(x)−f~(x)∣\begin{array}{c} E(\tilde{f}(x)) = |f (x) - \tilde{f}(x)| \end{array} E(f~​(x))=∣f(x)−f~​(x)∣​ 相对误差定义为 RE(f~(x))=E(f~(x))∣f(x)∣=∣f(x)−f~(x) ∣∣f(x)∣\begin{array}{c} RE(\tilde{f}(x)) = \frac{E(\tilde{f}(x))}{|f(x)|} = \frac{|f(x)-\tilde{f}(x)| {x}) \leq \varepsilon } \frac{E(\tilde{f}(x))}{E(\tilde{x})} \end{array} limε→0​supE(x~)≤ε​E(x~)E(f~​ {x}) \leq \varepsilon } \frac{RE(\tilde{f}(x))}{RE(\tilde{x})} \approx \frac{|f^{'}(x)|}{|f(x)|} \cdot

    1.8K30编辑于 2022-03-09
  • 来自专栏mathor

    Glove和fastText

    我们使用\boldsymbol{v}和\boldsymbol{\tilde {v}}分别表示中心词和背景词的词向量 我们可以用有关词向量的函数f来表达共现概率比值: f(\boldsymbol{v}_i ,\boldsymbol{v}_j,\boldsymbol{\tilde{v}}_k)=\frac{P_{ik}}{P_{jk}} 需要注意的是,函数f可能涉及的并不唯一。 首先,我们用向量之差来表达共现概率的比值,并将上式改写成 f(\boldsymbol{v}_i-\boldsymbol{v}_j,\boldsymbol{\tilde{v}}_k)=\frac{P_{ik _{jk}} 由于共现概率比值是一个标量,我们可以使用向量之间的内积把函数f的自变量进一步改写 f((\boldsymbol{v}_i-\boldsymbol{v}_j)^T\boldsymbol{\tilde {v}}_k)=\frac{f(\boldsymbol{v}_i^T\boldsymbol{\tilde{v}}_k)}{f(\boldsymbol{v}_j^T\boldsymbol{\tilde{v

    67120发布于 2020-04-10
领券