首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏乐享123

    机器学习笔记-2

    代表逻辑函数(logistic function), 是一个常用的逻辑函数为 S形函数(Sigmoid function),公式为: image.png python 代码实现sigmoid函数: 1 2 代价函数 逻辑回归的代价函数为: image.png 其中: image.png 代入代价函数: image.png 逻辑回归代价函数的Python代码实现: 1 2 3 4 5 6 7 8 接着,类似地第我们选择另一个类标记为 正向类(y=2),再将其它类都标记为负向类,将这个模型记作 ℎ(2)?(?) ,依此类推。 最大的 i,即 image.png 2-正则化 过拟合问题 就以多项式理解,x 的次数越高,拟合的越好,但相应的预测的能力就可能变差。 如何解决? 丢弃一些不能帮助我们正确预测的特征。 experience_loss = lmd * np.sum(w ** 2) loss = (constrct_loss + experience_loss) / (2 * len(predict

    61820发布于 2019-12-30
  • 来自专栏自学笔记

    DL笔记

    2 神经网络基础 以逻辑回归为例子。如果使用Java,遍历每一个数据可能需要for循环一个一个来,但是Python不然,可以直接进行矩阵计算,所以把所有的特征并成一列计算更方便。

    1.1K20发布于 2020-04-16
  • 来自专栏对白的算法屋

    团队新作!

    基于此,斯坦福团队的最新研究——ManyICL,主要评估了目前最先进的多模态基础模型在从少样本 (少于 100) 到多样本(最高至 2000)上下文学习中的表现。 总的来说,团队的这项研究为多模态基础模型的应用开辟了新的路径,特别是在快速适应新任务和领域方面。

    27310编辑于 2024-07-24
  • 来自专栏sukuna的博客

    机器学习IV

    机器学习IV 于2020年11月15日2020年11月15日由Sukuna发布 这一周只需要对两个函数进行更改就行了 第一题:实现神经网络的前后传播 function [J grad] = nnCostFunction end); t2 = Theta2(:, 2:end); regularization = lambda / (2 * m) * (sum(sum(t1 .^ 2)) + sum(sum(t2 .^ 2 = (d3 * Theta2(:, 2:end)) .* sigmoidGradient(z2); % 10 x 26 Theta2_grad %这里是求最后的梯度下降值 %偏差乘以原来的元素就是梯度下降值 a2_with_a0 = [ones(m, 1) a2]; D2 = d3' * a2_with_a0; Theta2_grad = D2 / m; %正则化,不对第一行处理,因为是bias量 regularization = lambda / m * [zeros(size(Theta2, 1), 1) Theta2(:, 2:end)]; Theta2_grad = Theta2_grad + regularization

    84730编辑于 2022-12-08
  • 来自专栏AI科技评论

    :告别,大数据

    :十年前,当我发起 Google Brain 项目,并使用 Google的计算基础设施构建“大”神经网络的时候,引起了很多争议。 :我想是的。 在过去一年,我一直在讨论以数据为中心的AI,我遇到了和10年前一样的评价:“没有新意”,“这是个错误的方向”。 :使用50张图片训练什么样的模型?是微调大模型,还是全新的模型? :让我讲一下Landing AI的工作。 :很有可能。有很多研究人员已经指出,有偏差的数据是导致系统出现偏差的众多因素之一。其实,在设计数据方面也已经有了很多努力。 :并非如此。比方说,智能手机上有许多不同类型的缺陷,如果要检测智能手机外壳的缺陷,那可能会是划痕、凹痕、坑痕、材料变色或者其它类型的瑕疵。

    42210编辑于 2022-03-03
  • 来自专栏量子位

    ,新冠阳性

    金磊 发自 凹非寺 量子位 | 公众号 QbitAI 就在刚刚,AI大牛发布推文: 我的新冠病毒检测呈阳性。 称其目前的症状类似于轻微流感,而且他此前是已经打过疫苗的,否则情况会更加糟糕。 除此之外,他还对防疫工作者表示了感谢。 AI大牛 (Andrew Ng)是斯坦福大学计算机科学系和电子工程系教授。 也是谷歌大脑的联合创始人和主管,曾担任过百度首席科学家。 而最“家喻户晓”的工作,是通过他开发的神经网络,仅是看了一周的油管视频,便自主学会识别哪些是关于猫的视频。 这个案例可以说是为人工智能领域翻开崭新一页。 …… 最后,也正如许多网友在推文下的留言,希望能够早日康复。

    55730编辑于 2022-03-04
  • 来自专栏量子位

    被diss了

    夏乙 岳排槐 发自 凹非寺 量子位 出品 | 公众号 QbitAI 团队可能没想到突然被diss。 Twitter一发,说得好像这个问题已经解决了一样,可是他们只找了4名放射科医师,略微超过了他们的平均成绩。 生物学家、医生、以及的半个机器学习同行们对这条Twitter的不满,很大程度上也是因为老师的学术地位和影响力。 与当年的洋洋洒洒、雷霆万钧相比,他这次对的批评,应该算是“三和一少”的态度了。 而说马库斯,马库斯就到。 刚刚马库斯也出手参与了一下这件事,他又在Twitter上开炮: “过度炒作可能已经成了的习惯,在影像诊断上,在汽车上,更普遍地说在AI上都是这样。” 关于未来 其实,放狠话的不仅仅是

    68710发布于 2018-07-20
  • 来自专栏闪电gogogo的专栏

    机器学习笔记

    that gives computers the ability to learn without being explicitly programmed 在没有显示编程的情况下,让计算机具有学习的能力 (2) measured by P, improves with experience E 对于一个程序,给它一个任务T和一个性能测量方法P,如果在经验E的影响下,P对T的测量结果得到了改进,那么就说该程序从E中学习 2 关于梯度下降和正规方程的优缺对比: Gradient Descent Normal Equation 需要选择合适的学习效率 不需要选择学习效率 需迭代 无需迭代 计算复杂度为O(kn2) 因为要计算XTX ...]; end 接着使用fminunc()函数 options = optimset('GradObj', 'on', 'MaxIter', 100); initialTheta = zeros(2,1 Use a model selection algorithm (studied later in the course). 2) Regularization Keep all the features

    73210发布于 2018-08-21
  • 来自专栏云原生民工

    prompt 课程笔记

    prompt 课程笔记 1. for Text 2:") print(response) 策略4: “Few-shot” prompting 给出少量的例子 1 2 3 4 5 6 7 8 9 10 11 12 print("\nCompletion for prompt 2:") print(response) 策略2: Instruct the model to work out its own solution Land cost: 100x 2. Solar panel cost: 250x 3. Issue 2.

    79822编辑于 2023-11-16
  • 来自专栏sukuna的博客

    机器学习II

    机器学习II 于2020年10月26日2020年10月26日由Sukuna发布 注意:X是一个 的矩阵,矩阵的第一列都是1! *(ones(m, 1) - y)) / m +(lambda/(2*m)) * sum(theta(2:end).^2); grad(1) = (X(:, 1).' * (h - y)) /m; grad (2:end) = (X(:, 2:end).' * (h - y)) /m + (lambda/m) * theta(2:end); % =============================== ============================= end 这里主要区分了grad中1和2之间的区别,其他的和公式相差无二

    36610编辑于 2022-12-08
  • 来自专栏sukuna的博客

    机器学习I

    机器学习I 于2020年10月20日2020年10月20日由Sukuna发布 第一题:WarmUp 让我们写一个函数返回一个单位阵 这真没啥好说的 function A = warmUpExercise f=X*theta; f=f-y; J=1/m/2*(f'*f); % ======================================================== % Save the cost J in every iteration J_history(iter) = computeCost(X, y, theta); end end 给的代码里面出现了迭代 theta = zeros(size(X, 2), 1); % ==================== YOUR CODE HERE ====================== % Instructions

    48720编辑于 2022-12-08
  • 来自专栏sukuna的博客

    机器学习III

    机器学习III 于2020年11月2日2020年11月2日由Sukuna发布 第一部分:多分类 X:是一个 维的矩阵,里面存的是m组数据集 第一题: 正则化的逻辑回归表达式 function [ *(ones(m, 1) - y)) / m +(lambda/(2*m)) * sum(theta(2:end).^2); grad(1) = (X(:, 1).' * (h - y)) /m; grad (2:end) = (X(:, 2:end).' * (h - y)) /m + (lambda/m) * theta(2:end); % ============================== 比如C=max(A,[],2),在矩阵中,第2维度表示列,第1维度表示行 max这个函数有两个输出,但是调用这个函数的程序只把第二个输出赋值给了p,不需要第一个输出,于是第一个输出就写成~ 第一个输出就是一个索引表 .'); X1 = [ones(size(X1), 1), X1]; % Add ones to the X1 data matrix [~, p] = max(X1 * Theta2.

    40110编辑于 2022-12-08
  • 来自专栏讲编程的高老师

    机器学习笔记2-简介1

    根据老师的讲解,我们使用网络搜索、垃圾邮件的过滤这些都是机器学习在支撑,google或微软的机器学习算法为你筛选喜欢的网页或过滤垃圾邮件。 而对于老师,他希望有一天可以做出和人类一样聪明的机器来,这是一件非常激动人心又有点让人担忧的目标。但是,目前的研究进展离这一目标很挺遥远的。 老师最后还提到很多公司让他帮忙在斯坦福大学找一些毕业生,而这些职位中的大多数是机器学习相关的。也就是说,机器学习就业前景很好,学它准没错。

    36520发布于 2020-08-14
  • 机器学习 - 正规函数

    theta = zeros(size(X, 2), 1); % ====================== YOUR CODE HERE ====================== % Instructions

    14810编辑于 2025-08-27
  • 来自专栏乐享123

    机器学习笔记-4

    对于数据集中的每一个数据,按照距离 K个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类; 计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置; 重复步骤 2- (2),…?(?)和 ?1,?2,…,??。 K-均值迭代算法 第一个循环(cluster assignment)是用于减小 ?(?) 这种模式下,它的畸变值会迅速下降,从 1 到 2,从 2 到 3 之后,你会在 3 的时候达到一个肘点。 在此之后,畸变值就下降的非常慢,我们就选这个转折点。

    69730发布于 2019-12-30
  • 来自专栏windealli

    《 提示工程》学习笔记

    的《ChatGPT 提示工程》课程主要是分享使用大语言模型API来构建应用程序的一些可行性,以及如何构建的最佳实践。 2. ``` 学生答案: ``` 小明的总账单是:`5*8 + 10*2`,扣去满减金额,因此需要支付: 5*8 + 2*5  - 5  = 55元 ``` 你需要给出你的分析过程的计算结果。 手机特性</h2>        

    生物识别/人脸识别

            <h2>包装清单</h2>        
                     
    • iOS 16的iPhone 以人民为中心的政绩观 2. 为民造福的使命担当 3.

    3.5K166编辑于 2023-09-12
  • 来自专栏机器学习/数据可视化

    笔记2_梯度下降和正规方程

    机器学习-2-梯度下降与正规方程 第二周主要讲解的内容包含: 多维特征 多变量梯度下降 梯度下降法实践 正规方程 ---- 多维特征Multiple Features 还是利用房价模型的例子,增加了更多的特征 theta,求代价函数J import numpy as np def computeCost(X,y,theta): inner = np.power(((X * theta.T) - y), 2) # 求解每个平方项 return np.sum(inner) / (2 / len(X)) # 求和再除以2*len(X) 梯度下降法实践 特征缩放 面对多维度特征问题,我们需要保证这些特征具有相近的尺度 0.01, 0.03, 0.1, 0.31, 3,10 特征和多项式回归 如房价预测问题, h_{\theta}{(x)} = \theta_0+\theta_1 \cdot宽度 + \theta_2

    1.3K00发布于 2021-03-02
  • 来自专栏xingoo, 一个梦想做发明家的程序员

    机器学习笔记 —— 2 单变量线性回归

    第一章讲述了基本的机器学习的概念以及分类,这里从单变量的线性回归入手,讲解了机器学习中的几个重要因素,如模型、损失函数、优化方法等 更多内容参考 机器学习&深度学习 首先以房价预测入手: 房子的面积

    49000发布于 2018-07-31
  • 来自专栏机器学习/数据可视化

    笔记8-KMeans

    机器学习-8-聚类和降维 本周的主要知识点是无监督学习中的两个重点:聚类和降维。 规定:p\geq1,常用的距离计算公式有 当p=2时,即为欧式距离,比较常用,即: ? 当p=1时,即曼哈顿距离,即: ? 当p趋于无穷,为切比雪夫距离,它是各个坐标距离的最大值: ? 图解K-means 给定需要划分的数据,随机确定两个聚类中心点 计算其他数据和这两个中心点的距离,划入距离小的类中,假设两个类是C_1,C_2 确定上述步骤中两个类是C_1,C_2的均值,这个均值就是新的聚类中心 K-means算法过程 视频的中的伪代码为 repeat { for i= to m # 计算每个样例属于的类 c(i) := index (from 1 to K) of cluster 2, 2]) # 预测值的簇类 y_pred = KMeans(n_clusters=2, random_state=random_state).fit_predict(X) y_pred array

    99111发布于 2021-03-02
  • 来自专栏乐享123

    机器学习笔记-5

    2:是用英寸表示同一物体的长度。 这给了我们高度冗余表示,也许不是两个分开的特征 ?1 和 ?2 ,这两个基本的长度度量,我们可以减少数据到一维。 使用降维的方法将其降至 2 维,我们便可以将其可视化了。 22) , 则其概率密度函数为: 高斯分布的异常检测算法 对于每一个样本值,计算特征,并以此估算高斯分布中的? 和?2的估计值; 以此来绘制一个估计函数,在这个估计函数之外的值即异常值; 模型计算 ? 通常我们会令 b 在 2-100 之间。

    57110发布于 2019-12-30
领券