当在机器学习(ML)中讨论这些概念时,我对“伦理”和“偏见”之间的区别感到困惑。在我看来,ML中的伦理问题和“偏见”几乎是一样的:比如说,模型区分肤色的人,这和说模型有偏见是一样的。简而言之,“道德永远是一种偏见,但不一定认为偏见总是一个道德问题”。这是真的吗?
发布于 2021-06-29 20:57:09
据我所知,偏见一词与ML中的伦理无关。相反,它通常是指模型的偏差-方差权衡或可学习的参数,例如神经网络中的偏差。(请注意,在统计中,术语通常用来指有偏估计,它与偏差方差权衡有关,但比它的使用更为普遍。)
相反,在与道德(也就是公平)建立联系时,您最有可能在在科学中常用的一种更一般的方法或方法中使用这个术语。(但重要的是要注意,这并不是ML中所指的偏见。)
然而,即使适用一般科学上的偏见定义,它与ML中的伦理/公平的关系也是有限的:
如上述两个例子所示,您可以在ML中不带偏见地处理道德问题(一般意义上),反之亦然。
发布于 2021-06-29 20:41:29
我想说的是相反的:“偏见总是一个道德问题,但不一定是一个道德问题总是一个偏见”。
“偏见总是一个道德问题”,因为就像你说的,模特在招聘时可能会歧视有色人种。即使模型是正确的(这是非常不可能的,如果它发生了,显然是由混淆变量造成的),决定不雇用一个人是不道德的,因为他们的肤色。更广泛地说,我们不应把一群人完全排除在外。
“伦理问题可能不是偏见”,因为有许多与机器学习相关的伦理问题不涉及偏见。例如:
https://datascience.stackexchange.com/questions/97256
复制相似问题