代表逻辑函数(logistic function), 是一个常用的逻辑函数为 S形函数(Sigmoid function),公式为: image.png python 代码实现sigmoid函数: 1 2 代价函数 逻辑回归的代价函数为: image.png 其中: image.png 代入代价函数: image.png 逻辑回归代价函数的Python代码实现: 1 2 3 4 5 6 7 8 接着,类似地第我们选择另一个类标记为 正向类(y=2),再将其它类都标记为负向类,将这个模型记作 ℎ(2)?(?) ,依此类推。 最大的 i,即 image.png 2-正则化 过拟合问题 就以多项式理解,x 的次数越高,拟合的越好,但相应的预测的能力就可能变差。 如何解决? 丢弃一些不能帮助我们正确预测的特征。 experience_loss = lmd * np.sum(w ** 2) loss = (constrct_loss + experience_loss) / (2 * len(predict
2 神经网络基础 以逻辑回归为例子。如果使用Java,遍历每一个数据可能需要for循环一个一个来,但是Python不然,可以直接进行矩阵计算,所以把所有的特征并成一列计算更方便。
基于此,斯坦福吴恩达团队的最新研究——ManyICL,主要评估了目前最先进的多模态基础模型在从少样本 (少于 100) 到多样本(最高至 2000)上下文学习中的表现。 总的来说,吴恩达团队的这项研究为多模态基础模型的应用开辟了新的路径,特别是在快速适应新任务和领域方面。
吴恩达机器学习IV 于2020年11月15日2020年11月15日由Sukuna发布 这一周只需要对两个函数进行更改就行了 第一题:实现神经网络的前后传播 function [J grad] = nnCostFunction end); t2 = Theta2(:, 2:end); regularization = lambda / (2 * m) * (sum(sum(t1 .^ 2)) + sum(sum(t2 .^ 2 = (d3 * Theta2(:, 2:end)) .* sigmoidGradient(z2); % 10 x 26 Theta2_grad %这里是求最后的梯度下降值 %偏差乘以原来的元素就是梯度下降值 a2_with_a0 = [ones(m, 1) a2]; D2 = d3' * a2_with_a0; Theta2_grad = D2 / m; %正则化,不对第一行处理,因为是bias量 regularization = lambda / m * [zeros(size(Theta2, 1), 1) Theta2(:, 2:end)]; Theta2_grad = Theta2_grad + regularization
吴恩达:十年前,当我发起 Google Brain 项目,并使用 Google的计算基础设施构建“大”神经网络的时候,引起了很多争议。 吴恩达:我想是的。 在过去一年,我一直在讨论以数据为中心的AI,我遇到了和10年前一样的评价:“没有新意”,“这是个错误的方向”。 吴恩达:使用50张图片训练什么样的模型?是微调大模型,还是全新的模型? 吴恩达:让我讲一下Landing AI的工作。 吴恩达:很有可能。有很多研究人员已经指出,有偏差的数据是导致系统出现偏差的众多因素之一。其实,在设计数据方面也已经有了很多努力。 吴恩达:并非如此。比方说,智能手机上有许多不同类型的缺陷,如果要检测智能手机外壳的缺陷,那可能会是划痕、凹痕、坑痕、材料变色或者其它类型的瑕疵。
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 就在刚刚,AI大牛吴恩达发布推文: 我的新冠病毒检测呈阳性。 吴恩达称其目前的症状类似于轻微流感,而且他此前是已经打过疫苗的,否则情况会更加糟糕。 除此之外,他还对防疫工作者表示了感谢。 AI大牛吴恩达 吴恩达(Andrew Ng)是斯坦福大学计算机科学系和电子工程系教授。 也是谷歌大脑的联合创始人和主管,曾担任过百度首席科学家。 而吴恩达最“家喻户晓”的工作,是通过他开发的神经网络,仅是看了一周的油管视频,便自主学会识别哪些是关于猫的视频。 这个案例可以说是为人工智能领域翻开崭新一页。 …… 最后,也正如许多网友在吴恩达推文下的留言,希望能够早日康复。
夏乙 岳排槐 发自 凹非寺 量子位 出品 | 公众号 QbitAI 吴恩达团队可能没想到突然被diss。 吴恩达Twitter一发,说得好像这个问题已经解决了一样,可是他们只找了4名放射科医师,略微超过了他们的平均成绩。 生物学家、医生、以及吴恩达的半个机器学习同行们对这条Twitter的不满,很大程度上也是因为吴恩达老师的学术地位和影响力。 与当年的洋洋洒洒、雷霆万钧相比,他这次对吴恩达的批评,应该算是“三和一少”的态度了。 而说马库斯,马库斯就到。 刚刚马库斯也出手参与了一下这件事,他又在Twitter上开炮: “过度炒作可能已经成了吴恩达的习惯,在影像诊断上,在汽车上,更普遍地说在AI上都是这样。” 关于未来 其实,放狠话的不仅仅是吴恩达。
that gives computers the ability to learn without being explicitly programmed 在没有显示编程的情况下,让计算机具有学习的能力 (2) measured by P, improves with experience E 对于一个程序,给它一个任务T和一个性能测量方法P,如果在经验E的影响下,P对T的测量结果得到了改进,那么就说该程序从E中学习 2 关于梯度下降和正规方程的优缺对比: Gradient Descent Normal Equation 需要选择合适的学习效率 不需要选择学习效率 需迭代 无需迭代 计算复杂度为O(kn2) 因为要计算XTX ...]; end 接着使用fminunc()函数 options = optimset('GradObj', 'on', 'MaxIter', 100); initialTheta = zeros(2,1 Use a model selection algorithm (studied later in the course). 2) Regularization Keep all the features
吴恩达 prompt 课程笔记 1. for Text 2:") print(response) 策略4: “Few-shot” prompting 给出少量的例子 1 2 3 4 5 6 7 8 9 10 11 12 print("\nCompletion for prompt 2:") print(response) 策略2: Instruct the model to work out its own solution Land cost: 100x 2. Solar panel cost: 250x 3. Issue 2.
吴恩达机器学习II 于2020年10月26日2020年10月26日由Sukuna发布 注意:X是一个 的矩阵,矩阵的第一列都是1! *(ones(m, 1) - y)) / m +(lambda/(2*m)) * sum(theta(2:end).^2); grad(1) = (X(:, 1).' * (h - y)) /m; grad (2:end) = (X(:, 2:end).' * (h - y)) /m + (lambda/m) * theta(2:end); % =============================== ============================= end 这里主要区分了grad中1和2之间的区别,其他的和公式相差无二
吴恩达机器学习I 于2020年10月20日2020年10月20日由Sukuna发布 第一题:WarmUp 让我们写一个函数返回一个单位阵 这真没啥好说的 function A = warmUpExercise f=X*theta; f=f-y; J=1/m/2*(f'*f); % ======================================================== % Save the cost J in every iteration J_history(iter) = computeCost(X, y, theta); end end 吴恩达给的代码里面出现了迭代 theta = zeros(size(X, 2), 1); % ==================== YOUR CODE HERE ====================== % Instructions
吴恩达机器学习III 于2020年11月2日2020年11月2日由Sukuna发布 第一部分:多分类 X:是一个 维的矩阵,里面存的是m组数据集 第一题: 正则化的逻辑回归表达式 function [ *(ones(m, 1) - y)) / m +(lambda/(2*m)) * sum(theta(2:end).^2); grad(1) = (X(:, 1).' * (h - y)) /m; grad (2:end) = (X(:, 2:end).' * (h - y)) /m + (lambda/m) * theta(2:end); % ============================== 比如C=max(A,[],2),在矩阵中,第2维度表示列,第1维度表示行 max这个函数有两个输出,但是调用这个函数的程序只把第二个输出赋值给了p,不需要第一个输出,于是第一个输出就写成~ 第一个输出就是一个索引表 .'); X1 = [ones(size(X1), 1), X1]; % Add ones to the X1 data matrix [~, p] = max(X1 * Theta2.
根据吴老师的讲解,我们使用网络搜索、垃圾邮件的过滤这些都是机器学习在支撑,google或微软的机器学习算法为你筛选喜欢的网页或过滤垃圾邮件。 而对于吴老师,他希望有一天可以做出和人类一样聪明的机器来,这是一件非常激动人心又有点让人担忧的目标。但是,目前的研究进展离这一目标很挺遥远的。 吴老师最后还提到很多公司让他帮忙在斯坦福大学找一些毕业生,而这些职位中的大多数是机器学习相关的。也就是说,机器学习就业前景很好,学它准没错。
theta = zeros(size(X, 2), 1); % ====================== YOUR CODE HERE ====================== % Instructions
对于数据集中的每一个数据,按照距离 K个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类; 计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置; 重复步骤 2- (2),…?(?)和 ?1,?2,…,??。 K-均值迭代算法 第一个循环(cluster assignment)是用于减小 ?(?) 这种模式下,它的畸变值会迅速下降,从 1 到 2,从 2 到 3 之后,你会在 3 的时候达到一个肘点。 在此之后,畸变值就下降的非常慢,我们就选这个转折点。
吴恩达的《ChatGPT 提示工程》课程主要是分享使用大语言模型API来构建应用程序的一些可行性,以及如何构建的最佳实践。 2. ``` 学生答案: ``` 小明的总账单是:`5*8 + 10*2`,扣去满减金额,因此需要支付: 5*8 + 2*5 - 5 = 55元 ``` 你需要给出你的分析过程的计算结果。 手机特性</h2>
生物识别/人脸识别
<h2>包装清单</h2>吴恩达机器学习-2-梯度下降与正规方程 第二周主要讲解的内容包含: 多维特征 多变量梯度下降 梯度下降法实践 正规方程 ---- 多维特征Multiple Features 还是利用房价模型的例子,增加了更多的特征 theta,求代价函数J import numpy as np def computeCost(X,y,theta): inner = np.power(((X * theta.T) - y), 2) # 求解每个平方项 return np.sum(inner) / (2 / len(X)) # 求和再除以2*len(X) 梯度下降法实践 特征缩放 面对多维度特征问题,我们需要保证这些特征具有相近的尺度 0.01, 0.03, 0.1, 0.31, 3,10 特征和多项式回归 如房价预测问题, h_{\theta}{(x)} = \theta_0+\theta_1 \cdot宽度 + \theta_2
第一章讲述了基本的机器学习的概念以及分类,这里从单变量的线性回归入手,吴恩达讲解了机器学习中的几个重要因素,如模型、损失函数、优化方法等 更多内容参考 机器学习&深度学习 首先以房价预测入手: 房子的面积
吴恩达机器学习-8-聚类和降维 本周的主要知识点是无监督学习中的两个重点:聚类和降维。 规定:p\geq1,常用的距离计算公式有 当p=2时,即为欧式距离,比较常用,即: ? 当p=1时,即曼哈顿距离,即: ? 当p趋于无穷,为切比雪夫距离,它是各个坐标距离的最大值: ? 图解K-means 给定需要划分的数据,随机确定两个聚类中心点 计算其他数据和这两个中心点的距离,划入距离小的类中,假设两个类是C_1,C_2 确定上述步骤中两个类是C_1,C_2的均值,这个均值就是新的聚类中心 K-means算法过程 吴恩达视频的中的伪代码为 repeat { for i= to m # 计算每个样例属于的类 c(i) := index (from 1 to K) of cluster 2, 2]) # 预测值的簇类 y_pred = KMeans(n_clusters=2, random_state=random_state).fit_predict(X) y_pred array
2:是用英寸表示同一物体的长度。 这给了我们高度冗余表示,也许不是两个分开的特征 ?1 和 ?2 ,这两个基本的长度度量,我们可以减少数据到一维。 使用降维的方法将其降至 2 维,我们便可以将其可视化了。 2 。 2) , 则其概率密度函数为: 高斯分布的异常检测算法 对于每一个样本值,计算特征,并以此估算高斯分布中的? 和?2的估计值; 以此来绘制一个估计函数,在这个估计函数之外的值即异常值; 模型计算 ? 通常我们会令 b 在 2-100 之间。