首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏summerking的专栏

    docker安装gauss

    # 1.拉取镜像 [root@summer ~]# docker run --name opengauss --privileged=true -d -e GS_PASSWORD=Gauss@123 PORTS NAMES 88990d723c95 enmotech/opengauss:latest "entrypoint.sh gauss

    1.2K30编辑于 2022-09-19
  • 来自专栏软件研发

    Gibbs Gauss采样入门

    Gibbs Gauss采样入门引言Gibbs采样是一种马尔可夫链蒙特卡洛(MCMC)方法,用于从一个高维的概率分布中采样。在多元统计学和机器学习领域广泛应用。

    74720编辑于 2023-10-25
  • 来自专栏mwangblog

    gauss消元法

    # gauss消元法 OUTLINE: 主要内容: - m个方程n个未知数的线性方程组 - 齐次、非齐次、解集合、特解、通解 - 消元过程(例子) - 矩阵

    49720发布于 2018-07-04
  • 来自专栏图像处理与模式识别研究所

    Gauss-Seidel、Laplace、Jacobi等求解热方程。

    Gauss_Seidel.m %% Homework 12 (b) % Heat equation with variable coeficients using Gauss-Seidel Method iter = iter+1; end fprintf('iterations: %4.1f \n',iter); %% Plot Figures figure contourf(T) title(['Gauss-Seidel

    38720编辑于 2022-05-28
  • 来自专栏小樱的经验随笔

    高斯消元法(Gauss Elimination)【超详解&模板】

    补充1: 高斯-若尔当消元法(Gauss-Jordan Elimination) 相对于高斯消元法,高斯-若尔当消元法最后的得到线性方程组更容易求解,它得到的是简化行列式。 1 列选主元消元法 2 /* 3 *Gauss.cpp 4 *功能:列选主元消元法 5 */ 6 #include<stdio.h> 7 #include"Gass.h" 8 9 / /高斯消元法(列选主元) 10 void Gauss (double a[][MAXNUM],int n) 11 { 12 int i,j; 13 SelectColE(a,n); ][3]=4.623;a[2][4]=2.000; 72 a[3][1] = -2.000;a[3][2]=1.070;a[3][3]=5.643;a[3][4]=3.000; 73 Gauss elimination).(-2表示有浮点数解,但无整数解,-1表示无解,0表示唯一解,大于0表示无穷解,并返回自由变元的个数) 48 int Gauss(void) 49 { 50 int

    23.2K101发布于 2018-04-09
  • 来自专栏数据和云

    网友过招老杨:Gauss和Poincare数学问题的另类解法

    大家应该还记得前几天我们的一篇文章:用SQL解一道有趣的数学题:Gauss和Poincare ,错过的朋友请先回顾。感谢网友的反馈,发来新的解法一则。 问题提出 这是一个流传已久的故事: Gauss和Poincare在天堂相遇了,上帝说:你们都是人间最伟大的数学家,那我来出道题考考你们谁更聪明。 我在左手写一个大于1小于100的数,在右手同样写一个大于1小于100的数,然后把他们的和写在Gauss手上,把积写在Poincare手上,看看你们能不能猜出这两个数字是几。 Gauss看了手上的数字,说:“我不知道这两个数字是几,可我保证Poincare也不知道。” Poincare看了手上的数字,说:“我原来的确不知道那两个数字是几,可我现在知道了。” Gauss说:“那我也知道了。” 问题:那两个数字是几?

    98840发布于 2018-03-05
  • 来自专栏数值分析与有限元编程

    Gauss-Seidel迭代法解线性方程组

    与Jacobi迭代法密切相关的一种迭代方法叫做Gauss-Seidel迭代方法。Gauss-Seidel方法与Jacobi方法之间的差别是:在一个迭代步里,一旦未知变量值有更新,则立马投入使用。 对于方程组:3u+v=5,u+2v=5,Gauss-Seidel迭代就这样进行: ? 注意红圈位置是Gauss-Seidel方法与Jacobi方法之间的差别:v1的计算用到了u1而不是u0。 通常情况下Gauss-Seidel方法比Jacobi方法收敛更快。 设D表示系数矩阵A 的主对角部分,L表示A的主对角线下方部分,U表示A的主对角线上方部分。 用Gauss-Seidel方法求解方程组 ? Gauss-Seidel迭代格式为: ? 使用初值[u0,v0,w0]=[0,0,0]开始迭代,以下是迭代过程: ? Gauss-Seidel方法的Fortran程序 ?

    3.8K20发布于 2019-07-08
  • 来自专栏3D视觉从入门到精通

    SLAM算法&技术之Gauss-Newton非线性最小二乘算法

    很多问题最终归结为一个最小二乘问题,如SLAM算法中的Bundle Adjustment,位姿图优化等等。求解最小二乘的方法有很多,高斯-牛顿法就是其中之一。

    2.7K20发布于 2020-11-19
  • 来自专栏数据和云

    用SQL解一道有趣的数学题:Gauss和Poincare

    Gauss说:“那我也知道了。” 问题:那两个数字是几? 对于Gauss来说他知道两个数之和,而不知道两个数的积,但是Gauss却肯定的说,他保证Poincare也不知道这两个数是什么。这句话就很有深意。 这说明由于Gauss刚才的推断所排除的一些数值组合后,使得Poincare手中的积可以唯一确定这两个数值了。 随后Gauss说他也知道了,意味着根据Poincare能够确认这两个数的信息,Gauss也可以唯一的确定这两个数了。 随后还有最后一个条件,就是Gauss这时也知道了两个数是什么,说明Gauss根据Poincare确定两个数的数值这个事实,进一步推断出了最终的结果。

    1.5K50发布于 2018-03-05
  • 来自专栏一心无二用,本人只专注于基础图像算法的实现与优化。

    【短道速滑九】仿halcon中gauss_filter小半径高斯模糊优化的实现

    关键字后,你会发现有以下两个函数:              gauss_filter — Smooth using discrete gauss functions.               gauss_image — Smooth an image using discrete Gaussian functions.         两个函数的功能描述基本是一个意思,但是在gauss_image函数的注释下有这么一条:              gauss_image is obsolete and is only provided New applications should use the operator gauss_filter instead.         即这个函数已经过时,提供他只是为了向前兼容,新的应用建议使用gauss_filter 函数,那我们再来看下halcon中其具体的描述:   Signature     gauss_filter(Image

    84110编辑于 2022-09-28
  • 来自专栏专知

    【干货】用极少量样本有效的训练分类器-对抗自编码器PyTorch手把手实战系列

    = z_real_gauss.cuda() z_fake_cat, z_fake_gauss = Q(X) D_real_cat = D_cat(z_real_cat) D_real_gauss = D_gauss(z_real_gauss) D_fake_cat = D_cat(z_fake_cat) D_fake_gauss = D_gauss(z_fake_gauss) = -torch.mean(torch.log(D_real_gauss + TINY) + torch.log(1 - D_fake_gauss + TINY)) D_loss Q.train() z_fake_cat, z_fake_gauss = Q(X) D_fake_cat = D_cat(z_fake_cat) D_fake_gauss = D_gauss(z_fake_gauss) G_loss = - torch.mean(torch.log(D_fake_cat + TINY)) - torch.mean(torch.log

    2.6K41发布于 2018-06-05
  • 来自专栏数值分析与有限元编程

    SOR迭代法解线性方程组

    SOR迭代是在Gauss-Seidel迭代方法基础之上的进一步改进。其特征是取xk+1和xk的一个适当的加权平均来加快Gauss-Seidel收敛。对于方程组 ? Gauss-Seidel迭代格式为 ? 而SOR迭代则是: ? 显然,参数ω=1时就是Gauss-Seidel迭代。 1)当n=200时,分别用Jacobi,Gauss-Seidel以及SOR (ω=1.5和ω=1.2),比较三种方法收敛所需的迭代步数。 ? 合理选择参数ω决定了SOR比Gauss-Seidel更快收敛。如果参数选择不当,SOR反而比Gauss-Seidel更慢。参数ω=1时就是Gauss-Seidel迭代。

    3.3K20发布于 2019-07-17
  • 来自专栏专知

    【干货】对抗自编码器PyTorch手把手实战系列——PyTorch实现对抗自编码器

    = self.lin3_gauss(x) return z_gauss Decoder模型: # p(x|z) class P_net(nn.Module): def __ 得到loss D_real_gauss = D_gauss(z_real_gauss) # 用encoder 生成假样本 Q.eval() # 切到测试形态, 这时候, Q( 即encoder)不参与优化 z_fake_gauss = Q(images) # 用判别器判别假样本, 得到loss D_fake_gauss = D_gauss(z_fake_gauss ) # 判别器总误差 D_loss = -mean(log(D_real_gauss + EPS) + log(1 - D_fake_gauss + EPS)) # 优化判别器 = Q(images) D_fake_gauss = D_gauss(z_fake_gauss) G_loss = -mean(log(D_fake_gauss + EPS))

    4.5K50发布于 2018-04-08
  • 来自专栏专知

    【干货】对抗自编码器PyTorch手把手实战系列——对抗自编码器学习笔迹风格

    = D_net_gauss(500, z_red_dims).cuda() # encode/decode 优化器 optim_P = torch.optim.Adam(P.parameters() 得到loss D_real_gauss = D_gauss(z_real_gauss) # 用encoder 生成假样本 Q.eval() # 切到测试形态, 这时候, Q( 即encoder)不参与优化 z_fake_gauss = Q(images) # 用判别器判别假样本, 得到loss D_fake_gauss = D_gauss(z_fake_gauss ) # 判别器总误差 D_loss = -mean(log(D_real_gauss + EPS) + log(1 - D_fake_gauss + EPS)) # 优化判别器 = Q(images) D_fake_gauss = D_gauss(z_fake_gauss) G_loss = -mean(log(D_fake_gauss + EPS))

    2.3K90发布于 2018-04-25
  • 来自专栏大数据生态

    Elasticsearch 7.10.1集群压测报告(4核16G*3,AMD)

    decay_geo_gauss_function_score 644.189 ms 100th percentile latency decay_geo_gauss_function_score 652.326 decay_geo_gauss_function_score 614.672 ms 99th percentile service time decay_geo_gauss_function_score 0 % Min Throughput decay_geo_gauss_script_score 1 ops/s Mean Throughput decay_geo_gauss_script_score 1 ops/s Median Throughput decay_geo_gauss_script_score 1 ops/s Max Throughput decay_geo_gauss_script_score time decay_geo_gauss_script_score 602.263 ms 99th percentile service time decay_geo_gauss_script_score

    2.3K2510编辑于 2022-05-16
  • 来自专栏-csdn迁移

    OpenCV图像处理09-图像模糊(一)

    imshow(blur_window, dst_blur); //************************************************** //高斯滤波 Mat dst_Gauss ; GaussianBlur(src, dst_Gauss, Size(5, 5), 11, 11); string Gauss_window = "Gauss image"; namedWindow (Gauss_window, CV_WINDOW_AUTOSIZE); imshow(Gauss_window, dst_Gauss); waitKey(0); return 0; }

    75710发布于 2021-03-04
  • [pymc]pymc2.3.8安装后测试教程之将非线性函数拟合到数据/观察值

    * 1e3 # Parameters for gaussian amp_true = 0.2 size_true = 1.8 ps_true = 0.1 # Gaussian function gauss * np.exp( -1 * (np.pi ** 2 / (3600. * 180.) * size * x) ** 2 / (4. * np.log(2.))) + ps f_true = gauss =1.0) ps = pymc.Normal('ps', 0.13, 40, value=0.15) @pymc.deterministic(plot=False) def gauss return amp * np.exp(e) + ps y = pymc.Normal('y', mu=gauss, tau=1.0 / f_error ** 2, value=f, observed ']['quantiles'][2.5] y_max = MDL.stats()['gauss']['quantiles'][97.5] y_fit = MDL.stats()['gauss']['mean

    11600编辑于 2025-07-20
  • 来自专栏-csdn迁移

    OpenCV图像处理10-图像模糊(二)

    dst_bilateral); //************************************************** //高斯滤波(用于对比 凸显双边滤波效果) Mat dst_Gauss ; GaussianBlur(src, dst_Gauss, Size(5, 5), 11, 11); string Gauss_window = "Gauss image"; namedWindow (Gauss_window, CV_WINDOW_AUTOSIZE); imshow(Gauss_window, dst_Gauss); waitKey(0); return 0; }

    74110发布于 2021-03-04
  • 来自专栏深度学习和计算机视觉

    【从零学习OpenCV 4】高斯滤波

    = imread("equalLena_gauss.png", IMREAD_ANYDEPTH); Mat equalLena_salt = imread("equalLena_salt.png" , IMREAD_ANYDEPTH); if (equalLena.empty()||equalLena_gauss.empty()||equalLena_salt.empty()) { , result_5gauss, Size(5, 5), 10, 20); GaussianBlur(equalLena_gauss, result_9gauss, Size(9, 9), 10, imshow("result_5", result_5); imshow("result_9", result_9); //显示含有高斯噪声图像 imshow("equalLena_gauss ", equalLena_gauss); imshow("result_5gauss", result_5gauss); imshow("result_9gauss", result_9gauss

    1.9K10发布于 2019-12-30
  • 来自专栏二猫の家

    【机器学习】朴素贝叶斯算法:多项式、高斯、伯努利,实例应用(心脏病预测)

    #(4)高斯模型训练 # 导入朴素贝叶斯--高斯模型方法 from sklearn.naive_bayes import GaussianNB # gauss_nb接收高斯方法 gauss_nb = GaussianNB () # 模型训练,输入训练集 gauss_nb.fit(x_train,y_train) # 计算准确率--评分法 gauss_accuracy = gauss_nb.score(x_test,y_test ) # 预测 gauss_result = gauss_nb.predict(data_predict_feature)         导入高斯模型方法,gauss_nb接收该方法;使用.fit()函数进模型训练 接收高斯方法 gauss_nb = GaussianNB() # 模型训练,输入训练集 gauss_nb.fit(x_train,y_train) # 计算准确率--评分法 gauss_accuracy = gauss_nb.score(x_test,y_test) # 预测 gauss_result = gauss_nb.predict(data_predict_feature) #(5)多项式模型训练

    1.5K30编辑于 2023-11-15
领券