首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >机器学习中的伦理与偏见差异

机器学习中的伦理与偏见差异
EN

Data Science用户
提问于 2021-06-29 14:44:38
回答 4查看 282关注 0票数 3

当在机器学习(ML)中讨论这些概念时,我对“伦理”和“偏见”之间的区别感到困惑。在我看来,ML中的伦理问题和“偏见”几乎是一样的:比如说,模型区分肤色的人,这和说模型有偏见是一样的。简而言之,“道德永远是一种偏见,但不一定认为偏见总是一个道德问题”。这是真的吗?

EN

回答 4

Data Science用户

发布于 2021-06-29 20:57:09

据我所知,偏见一词与ML中的伦理无关。相反,它通常是指模型的偏差-方差权衡或可学习的参数,例如神经网络中的偏差。(请注意,在统计中,术语通常用来指有偏估计,它与偏差方差权衡有关,但比它的使用更为普遍。)

相反,在与道德(也就是公平)建立联系时,您最有可能在在科学中常用的一种更一般的方法或方法中使用这个术语。(但重要的是要注意,这并不是ML中所指的偏见。)

然而,即使适用一般科学上的偏见定义,它与ML中的伦理/公平的关系也是有限的:

  1. 假设您应用了一个模型来对椅子和桌子的图像进行分类。如果您的数据集包含99.999%的椅子,那么天真的分类器总是预测椅子的准确性会很好。(旁注:让我们忽略这样一个事实,即“非常好”是针对具体任务的,而且在这里,准确性可能不是最好的衡量标准)这个模型将非常偏向于这个术语的一般含义中的椅子。然而,我们不会认为这是一个道德或公平的问题(除非你是一个超级赌桌迷)。
  2. 现在,假设您在自动驾驶汽车任务中应用了一个模型。人们可能会想到这样一种情况,即模型需要决定跑过一组两人或一组三人。模型必须做出的决策是一个道德的ML问题。(可能这实际上是一个人工智能问题,也就是涉及人工智能的其他子领域,因为自动驾驶汽车通常采用来自多个人工智能领域的技术,而不仅仅是ML)显然,这是一个独立于任何偏见的伦理问题,也就是说,你可以在ML中有道德考虑而不一定涉及偏见。

如上述两个例子所示,您可以在ML中不带偏见地处理道德问题(一般意义上),反之亦然。

票数 3
EN

Data Science用户

发布于 2021-06-29 20:41:29

我想说的是相反的:“偏见总是一个道德问题,但不一定是一个道德问题总是一个偏见”。

“偏见总是一个道德问题”,因为就像你说的,模特在招聘时可能会歧视有色人种。即使模型是正确的(这是非常不可能的,如果它发生了,显然是由混淆变量造成的),决定不雇用一个人是不道德的,因为他们的肤色。更广泛地说,我们不应把一群人完全排除在外。

“伦理问题可能不是偏见”,因为有许多与机器学习相关的伦理问题不涉及偏见。例如:

  • 政府监视:政府使用与面部识别相结合的摄像机来跟踪某些感兴趣的人的活动和位置。
  • 深假视频:指一个人的面部或身体经过数字改造,使其看起来像是其他人,通常是恶意使用或传播虚假信息的视频。(例子:https://youtu.be/bE1KWpoX9Hk)
票数 0
EN

Data Science用户

发布于 2021-06-30 12:43:52

数学/统计意义上的“偏见”(即两个价值观之间的差异)与心理/社会意义上的“偏见”(即偏见)之间存在着混淆。事实上,两者之间可以有各种联系,而不是简单的一对一的关系。

例如,一个有偏见的模型(在数学意义上)可能抵消社会偏见的影响(例如,因为数据由于社会偏见而不平衡,因此另一个偏见可以平衡这一点),而另一个无偏模型可能支持社会偏见/偏见效应。另一种方式也是可能的。没有简单的一对一映射。

这位研究员侧重于人工智能的道德、透明度和问责制。这可能是在机器学习中采取更严格的歧视方法的开始。

另见:什么是诱导偏见?

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/97256

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档