首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >可学习性-表示法

可学习性-表示法
EN

Data Science用户
提问于 2019-02-14 00:49:54
回答 1查看 192关注 0票数 2

以下是从理解机器学习:理论到算法教科书:

可学习性的定义:假设类\mathcal H是可学习的,如果存在函数m_H : (0, 1)^2 \rightarrow \mathbb{N}和具有以下性质的学习算法:对于每个\epsilon, \delta \in (0, 1),对于X上的每个分布D,对于每个标记函数f : X \rightarrow \{0,1\},如果可实现的假设对\mathcal H,D,f有效,那么在m \ge m_H(\epsilon,\delta) I.D上运行学习算法时。由D生成并由f标记的示例,该算法返回一个假设h,使得至少有1 - \delta (而不是选择示例)的概率,L_{(D,f)}(h) \le \epsilon

1)在函数定义m_H : (0, 1)^2 \rightarrow \mathbb{N}中;括号中的a) 0和1是什么,b)整数2和c) \rightarrow \mathbb{N}指的是什么?

EN

回答 1

Data Science用户

发布于 2020-04-07 14:29:18

解释如下:

  • m_H:(0,1)^2 \rightarrow \mathbb N是与f:R^n\rightarrow \mathbb N类似的表示法,这意味着它只接受由实数组成的n维输入。在0学习的情况下,输入是由1D5之间的数字组成的二维输入,分别代表\epsilon, \delta的值。
  • 如上所述,整数2是输入向量的维数。
  • \rightarrow \mathbb N的意思是映射到自然数。如果PAC了解到(\epsilon, \delta)的每个值都有一个函数m_H将其映射为自然数,只需简单地将m_H(\epsilon, \delta) =
票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/45546

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档