首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏我还不懂对话

    论文阅读】- 怎么快速阅读ML论文

    机器学习的论文很多,怎么从Arxiv上泛滥的文章中选择论文阅读,那么我们就需要快速地了解论文内容概要,从而决定是否精读。 2. 文章的模型(函数)的输出是什么?例如,1000个向量(1000分类问题)了解了模型的输入输出之后,你大致就能脱离模型,想到其他类似的方法来对比,或者考虑其他领域是否有一些算法也可以应用于此处。 ML模型是去拟合偏差和数据。有时候数据中偏差很大,有时候很小,为了确保模型泛化很好(拟合数据而非偏差)需要更多的偏差和数据,最好是无偏数据。 论文里面的说法是否可靠?个人理解,是说论文里面指标是否靠谱,方法是否实用等。凭我自己的经验,一般可以从以下几点来看:论文方法是否过于trick,是否非常复杂(奥卡姆剃刀原理)。 Referencehttps://blog.evjang.com/2021/01/understanding-ml.html图片

    73120编辑于 2022-10-08
  • 来自专栏YoungGy

    ML基石_2_LearnAnswer2

    在下面的二维数据空间中: ww指c(w0,w1,w2)c(w_0,w_1,w_2),xx指c(1,x1,x2)c(1,x_1,x_2) 感知器的图像意义 感知器,实际上是 linear(binary 在样本空间中,尽量满足g(xn)=f(xn)=yng(x_n)=f(x_n)=y_n的分类规则 2. 从w0w_0开始,根据D中分类错的数据不断对ww进行修正 修正规则 分类正确的依据 分类正确,等同于以下描述: 1. yn∗wxn>0y_n *w x_n >0 2. 首先,画图易知: 1. w+xnw+x_n靠近了xnx_n 2. w−xnw-x_n远离了xnx_n 因此,易得到对于分类错误的数据xnx_n,修正规则如下: yny_n wxNw x_N本应该

    64720发布于 2019-05-26
  • 来自专栏流川疯编写程序的艺术

    机器学习规则:ML工程最佳实践----rules_of_ml section 2【翻译】

    作者:黄永刚 ML Phase II: 特征工程 第一阶段介绍了机器学习的一个周期,为学习系统获取训练数据,通过有趣的引导设计指标,创建一个服务框架。在有了一个完整系统之后,就进入了第一阶段。 2. 你可能调整了正则,改变了原来特征的处理方式。 3. 你可能调整了目标。 2. 将特征权重限制在正数范围内。因此好的特征降会由于‘unkown’特征(0权重特征)。 3. 不要只获取文本特征。这是#1的一个拓展。 2. holdout数据和‘新一期’数据之间的性能差异也会一直存在。你应该调整正则化来最大化‘新一期’数据上的性能。 : Best Practices for ML Engineering ---- 不愿将流行的app到处展示的原因是要保证所有用户想要的app都是可见的。

    41710编辑于 2022-05-10
  • 来自专栏iOSDevLog

    Core ML 2有什么新功能

    今年,在2018年WWDC上,Apple发布了Core ML 2.0-下一版Core ML,所有这些都集中在通过优化模型的大小,提高性能以及让开发人员定制自己的Core ML模型来简化流程。 在本教程中,我将了解Core ML 2.0中引入的所有新功能以及如何将其应用到您的机器学习应用程序中!如果您是Core ML的新手,我建议您通过本教程熟悉Core ML 。 您可以在此处下载Core ML格式的模型。 打开这个模型,你可以看到它占用了94.7 MB的相当大的空间。 ? coreml-2-1 我们将使用Python包coremltools量化这个模型。 image 在我们量化模型之前(它只需要2行!),让我给你一些神经网络的背景信息。 神经网络由不同的层组成。这些图层只是具有许多参数的数学函数。这些参数称为权重。 ? 性能 苹果专注于核心ML 2的下一点是性能。由于我们在设备上运行ML计算,我们希望它快速准确。这可能非常复杂。幸运的是,Apple为我们提供了一种提高CoreML模型性能的方法。让我们来看一个例子。

    1K20发布于 2018-08-22
  • 来自专栏生信补给站

    R|ML_code-线性回归(2

    Importing the dataset dataset <- read.csv('studentscores.csv') #时间和得分之间的关系 Hours Scores 1 2.5 21 2 2 数据预处理 首先按照上次分享的进行数据预处理 R|ML_code-入门(1) 3 训练集和测试集 将数据按照4:1拆分,每一组分别包含自变量和因变量 # Splitting the dataset <- predict(regressor, newdata = test_set) 5 结果可视化 # Visualising the Training results library(ggplot2) Hours (Training set)') + xlab('Hours') + ylab('Scores')# Visualising the Test results library(ggplot2) 参考链接: 爆红GITHUB的百日入门机器学习项目 https://github.com/Avik-Jain/100-Days-Of-ML-Code/blob/master/Code/Day2_Simple_Linear_Regression.md

    55920发布于 2020-08-06
  • 来自专栏DeepHub IMBA

    2022 年 4 月 10篇 ML 研究论文推荐

    NVidia 的新 H100 GPU已经发布了,我们也很久没有发论文推荐了,这是4月份的论文推荐:Google 的 5400 亿参数 PaLM、Pathways、Kubric、Tensor Programs 作者也提到,这种方法仍然存在许多局限性,但它为促进大型模型的训练,甚至对现有模型的进一步优化,甚至在数万亿参数规模上实现下一代更大型模型的超参数调整提供了一个有趣的方向. 2、Visual Prompt 3、Pathways: Asynchronous Distributed Dataflow for ML and PaLM: Scaling Language Modeling with Pathways 对于训练,视频的2帧被用作数据的自我监督源,让模型将一个对象的不同视图编码成它的身份和可分解的运动部分,生成器将其用于输出一个图像,并从中计算重构损失。 架构在 ML 中的作用是否会进一步缩小?论文的回答是:是的。

    63020编辑于 2022-04-14
  • 来自专栏应兆康的专栏

    Python ML Library --- sklearn_Par. 2

    本文相关资料下载地址: https://github.com/yingzk/sklearn_learning/tree/master/page2

    722110发布于 2018-03-21
  • 来自专栏量化投资与机器学习

    【代码+论文】通过ML、Time Series模型学习股价行为

    今天编辑部给大家带来的是来自Jeremy Jordan的论文,主要分析论文的建模步骤和方法,具体内容大家可以自行查看。 .'.format(len(w2v))) # We'll later reduce the dimensionality from 50 to 2, let's go ahead and fit the reduced_embeddings = pca.fit_transform(list(w2v.values())) w2v_reduced = dict(zip(list(w2v.keys()), ]) print(' -- '.join(not_in_vocab)) motofone -- segment's -- we're -- ml910 -- here's -- , 1., 2., 2.]), array([ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18., 20.]),

    1.8K80发布于 2018-01-30
  • 来自专栏数据派THU

    收藏|最优论文+代码查找神器,覆盖AI全领域(966个ML任务、8500+论文

    本文介绍了查找论文及对应源码神器的最新版本,从应用领域到具体任务再到实现一步到位。 目前该网站已经完成了代码与论文的自动化链接,正在研究自动提取论文中的评估数据。 每一个分类下面所列出的项目包含:论文标题、机构、发表日期、摘要、任务分类等信息。 ? 使用 现在,我们来看看这个 ML SOTA 浏览器怎么用吧。 我们可以看到 5 个数据集的 SOTA 论文,每一行分别列出了数据集名称、SOTA 模型名称、论文、源代码等。 如下图所示,点击“See all”之后,页面跳转到在 PASCAL VOC 2012 数据集上的排行榜详细信息,如下图所示,图中绿色点为曾经的 SOTA 论文,图中折线表示趋势图,灰色点表示性能较弱的其他论文

    1.6K30发布于 2019-03-08
  • 来自专栏DeepHub IMBA

    2021 年 10 月推荐阅读的10篇精选ML论文

    幸运的是,学者们经常关注这一点,传统上大多数揭示事实的论文都来自大学,就像我们很快就会看到的那篇。 这篇论文的缺点也是它的优点:为进一步优化他们的实验而付出的有限的范围和努力。 [2] 但是,正弦位置嵌入或固定学习绝对嵌入等常用技术的隐藏陷阱是什么?当进行比训练时更长的推理时,他们不能很好地泛化。 (Frozen finetuned)和保持语言模型不变的模型(Frozen VQA-blind)是很有趣的:只有后者从训练数据集(Conceptual caption[4])到目标评估数据集(VQAv2[ So等人,他们提出了一种方法来搜索性能良好、效率最高的Transformer架构,与普通架构相比,可以实现大约2倍的加速。

    57120发布于 2021-10-09
  • 来自专栏机器之心

    在Mac上训练机器学习模型,苹果WWDC发布全新Create ML、Core ML 2

    而在机器学习方面,苹果发布了最新的 Create ML 与 Core ML 2。 Create ML ? Create ML 文档地址:https://developer.apple.com/documentation/create_ml 在苹果开发者文档介绍中,Create ML 的目标是为应用程序创建机器学习模型 当开发者完成训练并获得满意的性能时,一般就能保存为 Core ML 模型并添加到应用程序中: ? Core ML 2 ? 去年,苹果发布了 Core ML。 今天,苹果发布了 Core ML 2,一个更好的升级版本。 小结 历史 2 个多小时 Keynote,苹果介绍了自己的多个软件。除了发布 Create ML 与 Core ML 2 之外当然还介绍了其他在人工智能领域的应用,例如隐私保护、Siri、图片等。

    1.2K20发布于 2018-06-08
  • 来自专栏机器之心

    AI所有领域最优论文+代码查找神器:966个ML任务、8500+论文任你选

    目前该网站已经完成了代码与论文的自动化链接,正在研究自动提取论文中的评估数据。 数据下载 论文摘要:https://paperswithcode.com/media/about/papers-with-abstracts.json.gz 论文与代码之间的链接:https://paperswithcode.com 每一个分类下面所列出的项目包含:论文标题、机构、发表日期、摘要、任务分类等信息。 ? 使用 现在,我们来看看这个 ML SOTA 浏览器怎么用吧。 我们可以看到 5 个数据集的 SOTA 论文,每一行分别列出了数据集名称、SOTA 模型名称、论文、源代码等。 如下图所示,点击「See all」之后,页面跳转到在 PASCAL VOC 2012 数据集上的排行榜详细信息,如下图所示,图中绿色点为曾经的 SOTA 论文,图中折线表示趋势图,灰色点表示性能较弱的其他论文

    80730发布于 2019-04-29
  • 来自专栏机器之心

    2020年,那些「引爆」了ML社区的热门论文、库和基准

    论文 2:Fixing the train-test resolution discrepancy ? 论文链接:https://arxiv.org/pdf/2004.08955v2.pdf 简介:Facebook、加州大学戴维斯分校、字节跳动等机构的研究者提出了一种模块化 Split-Attention 论文链接:https://arxiv.org/pdf/1911.04252v4.pdf 简介:机器之心在 2019 年 11 月对该论文 v1 版进行了报道,本文是 v2 版本。 项目地址:https://github.com/rwightman/pytorch-image-models 简介:pytorch-image-models 库由热衷于构建 ML 和 AI 系统的加拿大人 项目地址:https://github.com/eriklindernoren/PyTorch-GAN 简介:PyTorchGAN 库由 Apple 公司的 ML 工程师 Erik Linder-Norén

    63420发布于 2021-03-15
  • 来自专栏WebJ2EE

    零基础掌ML(2) — k-NN算法

    如果 k=3(如下图),此时蓝圆点最近的3个邻居是2个绿三角和1个红方块,所以 k-NN 的推断结果还是绿三角。 如果 k=5(如下图),此时蓝圆点最近的5个邻居是2个绿三角和3个红方块,所以 k-NN 的推断结果是红方块。 = KNeighborsClassifier() clf = GridSearchCV(knn, parameters, cv=5) clf.fit(X,Y) print("最终最佳准确率: %.2f 例如,一篇论文展示了如何通过对信用数据使用 KNN 算法来帮助银行评估向组织或个人提供贷款的风险。它用于确定贷款申请人的信用状况。 topic=procedures-k-nearest-neighbors-knn https://www.kaggle.com/code/iambca/ml101-k-nn/notebook https

    65230编辑于 2023-10-30
  • 来自专栏机器之心

    夸大ML能力、论文纸上谈兵……机器学习社区为何变成这样?

    发帖者总结了以下几点: 一些群体自认为可以掌控 ML 领域 在 ML 领域,我经常会看到一个群体或多个群体蜂拥至某个问题上,拿出 ML 这个工具,然后声称问题「已经解决」。 我曾见过很多在著名学术会议上发表 CV 论文的学者,在与他们的交谈中,发现他们不清楚「颜色空间为什么有用」甚至「不清楚什么是像素」(像素绝对不是图像上的小方块)。 绝大多数论文都是「纸上谈兵」,不涉及实际工作 过去很多人都提到过这一点,但我必须澄清自己的观点。我知道,很多因素导致了这一问题以及所有其他问题。 论文往往只包含微小的架构变化或渐进式的改进,「真正的思想」却看不到。这就导致有时一位博士却不擅长工程实践,或者其研究效率比不上有经验的硕士生。 公平来讲,ML 领域也应如此。但很遗憾,ML 领域却没有发挥应有的作用,尤其是在同行业的一般企业中。 认为ML可以解决现实世界所有问题 这一问题也常常被提及。

    33850发布于 2021-06-08
  • 来自专栏mathor

    Tacotron2论文阅读

    论文下载 ABSTRACT ? 这篇论文描述了Tacotron 2, 一个直接从文本合成语音的神经网络架构。 系统由两部分构成,一个循环seq2seq结构的特征预测网络,把字符向量映射为梅尔声谱图,后面再接一个WaveNet模型的修订版,把梅尔声谱图合成为时域波形。 作者们指出,相比WaveNet中使用的方法,Griffin-Lim算法会产生特有的人工痕迹并且合成的语音保真度较低,所以这只是一个临时方法,将来要替换成神经声码器 在这篇论文中,我们描绘一个统一的完整的神经网络语音合成方法 ,它集上述两种方法之长:一个seq2seq的Tacotron风格的模型用来生成梅尔声谱图,后接一个WaveNet声码器的修订版。 Char2Wav也提出了另外一个类似的方法,也使用神经声码器进行端到端的TTS学习,但它使用与我们不同的中间特征表达(传统的声码器特征),并且他们的模型架构与我们迥然不同 2 MODEL ARCHITECTURE

    1.8K20发布于 2020-08-13
  • 来自专栏YZh学习记录

    MobileNetV2 论文阅读

    MobileNetV2:Inverted Residuals and Linear BottleNecks 1 引言 MobileNetv2架构是基于倒置残差结构(inverted residual structure 论文的主要贡献在于提出一种新型层结构: 具有线性瓶颈的倒残差结构(the inverted residual with linear bottleneck)。 论文针对这个问题使用linear bottleneck(即不使用ReLU激活,做了线性变换)的来代替原本的非线性激活变换。 2.2 Inverted residuals MobileNetV2的网络模块样子是这样的: image.png 网络设计思路: 在V2的网络设计中,我们除了继续使用深度可分离(中间那个)结构之外,还使用了 bottleneck residual block(ResNet论文中的)是中间窄两头胖 在MobileNetV2中正好反了过来,所以,在MobileNetV2论文中我们称这样的网络结构为Inverted

    1.8K31发布于 2020-10-26
  • 来自专栏CreateAMind

    视频预测论文2

    CodeIssues14Pull requests0 Projects 0 Wiki Insights

    62520发布于 2018-07-24
  • 来自专栏JNing的专栏

    论文阅读: YOLOv2

    引入Batch Normalization,涨点2。 YOLOv2坐不住了,想要改basemodel。 Thinking YOLOv2中提出了很多trick,贡献很饱满; YOLOv2的加强版——YOLO-9000应该是最早开始对 large-scale detection 领域进行拓荒的了。 ---- [1] YOLO9000: Better, Faster, Stronger [2] 详解YOLO 2与YOLO 9000目标检测系统 | 分享总结 [3] YOLO升级版:YOLOv2 和YOLO9000解析 [4] 解读Yolo2和Yolo9000目标检测系统 [5] Object Detection – 论文YOLO2(YOLO9000:Better, Faster, Stronger

    1.2K40发布于 2018-09-27
  • 来自专栏iOSDevLog

    ML任务

    ML任务: 任务 输出类型 问题的例子 算法 监督学习 回归 实数 根据其特点预测房价 线性回归和多项式回归 分类 明确的 垃圾邮件/非垃圾邮件分类 KNN,NaïveBayes,逻辑回归,决策树

    57820发布于 2018-11-20
领券