科技网

当前位置: 首页 >VR

把人做决策换成算法决策就公平了吗不见得

VR
来源: 作者: 2019-04-05 23:25:29

雷锋 AI 科技评论按:《哈佛商业评论》(Harvard Business Review)最近发表了一篇文章《不想被偏见左右?那就用算法!》作者是亚历克斯·p·米勒。这篇文章谈到,人类常常做出有带有偏见性的决定(确切如此),所以他认为更多的地使用算法代替人类做决定是一个不错的选择。

「如何提高算法的公平性」是机器学习领域常常谈及的话题,但是直接认为算法的偏见就是比人类少,马上引发了不少反对之声。在雷锋(公众号:雷锋) AI 科技评论编译的这篇文章里,Rachel Thomas 就逐项提出了自己的反驳。

他认为米勒疏忽了许多重要的相干因素,包括:

算法实现的时候通常不会设计一个用来申述的途径(由于很多人误以为算法是客观、精准且不会出错的)

在许多情况下,算法的使用范围比人类的决策者范围大很多,所以会把完全相同的偏见也散布到一样大的范围中去(算法之所以吸引人,一部分缘由就是由于使用本钱低)

算法的使用者可能不理解几率或置信区间(即使已注明),并且在实际操作中可能也不愿去颠覆算法的决定(即使这在技术上是完全可行的)

与其只关注这些不置可否的选择,不如好好斟酌如何将人类和机器的优势相结合,以便创造出更好的、偏见更少的决策工具。

米勒在《不想被偏见左右?那就用算法!》中承认,「算法革命」的批评者是在担心「算法在运用时会不透明、带有偏见,成为没法解释的工具」,但他在自己的文章中却只提到了「偏见」,而疏忽了「不透明」和「无法解释」(和它们和「偏见」之间的化学反应)。

人机结合才是最优方案媒体总是通过人类和机器的对比来证明 AI 的进步,比如我们常会看到媒体报道,谁才是某项任务的冠军。若考虑到大多数算法一般都是用来做什么的,这种比较其实其实不科学,同时这样评价人工智能也十分狭隘。由于在所有案例中,算法都有人类的参与,尤其是在搜集数据、制定决策、实现方式、解读结果及因人而异的理解等方面,都会遭到人类的左右。

多数从事人工智能医学运用的研究人员,事实上其实不打算用机器来完全取代医生,他们只想利用人工智能来帮助医生,使他们的决策能更加准确和效率,并提高医疗质量。要知道,史上最强的从来不是人与机器中的一个,而是并肩协作的人类与计算机组成的团队。

米勒(正确地)认为,人类是非常有偏见的,然后他比较了几种现有的其实不完善的改善方案,想从里面挑出不那么糟糕的一种。但他却并未提出实质性的思考:怎样才能减少偏见,作出更好的决策呢?(也许是通过一些人与算法的结合?)我想,这个问题更值得考量。

人机决策方式根本不同算法在实际中应用范围很广,因此也会出现许多相同的偏见,但这种偏见却会被认为是正确或客观的结果。米勒的研究中,把它们拿来做了完全并列的比较,但他没有注意到实际使用中的区分。

凯茜•奥尼尔(Cathy O Neil)在《摧毁数学的武器》(Weapons of Math Destruction)中写道,她所批评的那类算法更倾向于祸及穷人。它们专注于处理相对便宜而又大规模的任务,固然,价格低是它的优势。相反,富人却常倾向于选择「人」。要知道,大公司或者贵族学校常倾向于内部推荐或面对面的面试,而不会像财力不足的企业那样使用机器进行群体挑选。佼佼者常常会动用人力,而机器常被派遣去做相对低级的提拔。

凯茜在书及第了的一个例子,有一名患双相情感障碍的大学生,他想在暑假里找一份装杂货的工作。但由于他申请的每一家便利店都在使用相同的心理丈量软件来挑选求职者,因此他被每家便利店都谢绝了。这体现出算法的另外一隐患:即使人类常常有类似的偏见,但并不是所有的人都会做出相同的决定。如有可能,他也许能找到一个即便知道他的心理疾病依然愿意雇佣他的老板。

许多人宁愿相信算法做出的决策,也不愿信任人类的决定。事实上,设计算法的研究者们可能对几率和置信区间有更多的了解,但真正使用这些算法的普通大众却不会注意到这一点。即便给了他们颠覆算法决策的权力,在实际操作他们也不一定愿意这样做。

算法的解释也值得重视很多关于算法偏见的案例,其实都缺少有意义的解释或申述进程。这看似是算法决策进程中的特殊趋势,也许是因为人们毛病地认为算法就是客观的,所以没必要允许对结果进行申诉。与此同时,正如上文所说的那样,算法决策系统本来是为了削减本钱,如果要允许申述的话,这工夫就白费了。

凯茜·奥尼尔(Cathy O’neil)还提到,有位深受学生、家长和校长爱好的老师,却莫名被算法开除了。她永久都没办法知道算法是由于甚么原因此开除她的!如果有一种相对快捷、简单的方式来让她提出申述,乃至即使只是让她确切知道这和什么因素有关,这故事就不会那末令人扼腕了。

有一个软件在美国一半以上的州使用着,它会决定每个人接受的医疗保健服务应当有多少。根据 The Verge 的调查,这种软件在阿肯色州实行后,许多得了严重残疾的人医疗保健突然大幅削减。比如,一位患有脑瘫的女性 Tammy Dobbs,她本需要一个帮助来帮助她完成起床,上厕所,吃东西等日常生活行动的人,但其受助时间却突然减少到每周 20 个小时。没有任何人能向她解释为何医疗保健服务一下子变少了。终究,经过法院调查,是该软件的算法错了,因此对糖尿病或脑瘫患者产生了负面影响。但是,像 Tammy Dobbs 类似的许多病人仍然生活在恐惧当中,总担心他们的福利又会稀里糊涂地被削减。

这个算法的创造者是一名教授,他从这个软件中赚取版税。然而在被问及此事时,他却认为这是他人的。我们可不能推辞自己的技术问题给他人。

2000 年代中期,科罗拉多州使用了一个单独的计算机系统来肯定公共福利,结果被发现有超过 900 条的错误规定被输入到了里面,致使了一系列问题。比如,孕妇没法享受医疗补助。律师们通常很难发现这些漏洞,由于这些内部工作机制就像商业秘密一样受保护。所以说,医疗保健、雇佣/解雇、刑事司法和其他会对人们的生活造成重要改变的领域的决策系统,应该创建出一个快速且易于操作的申述机制。这些令人不安的事故中,如果有一种简单高效的方法来纠正算法的错误就好了。犯错是难免的,正因如此,有一个周密的系统来发现和纠正这些错误是不可或缺的。

复杂的现实世界的系统当我们谈及人工智能时,我们需要考虑的是在这个现实世界中复杂的系统。《哈佛商业评论》中提到的研究将决策看成孤立的行动,并没有斟酌所处的环境。就好比判断一个人是否会坦白其他罪行,这类决定并不能孤立做出,还需要结合复杂的法律系统。我们有必要了解研究领域所处的真实环境是如何交互运作的,同时别疏忽那些可能会遭到影响的人。

在美国的一些法庭上,对于审前保释、量刑和假释有关的判决,都使用了 COMPAS 算法。在 ProPublica 的一项中调查发现,白人被告人的结果误报率是 24%(这里的误报是说,算法判断这个人释放时是「高危」的,但尔后并没有二进宫),而黑人被告的误报率高达 45%。后来的研究发现,COMPAS 事实上还不如一个简单的线性方程精确。(你可以在普林斯顿计算机科学学院教授 Arvind Narayanan 的《21个关于公平的定义》视频中看到更多关于公平的定义)。

克里斯蒂安•林(Kristian Lum)是一名统计学博士,也是人权数字分析团体(Human Rights Digital Analysis Group)的首席数据科学家。她与纽约法律援助协会(NY Legal Aid Society)的律师、前公设辩护人伊丽莎白•本德(Elizabeth Bender)以及1名被捕却无辜的男子,特伦斯•威尔克森(Terrence Wilkerson)一起组织了一个研讨会。他们一起分享了关于法律体系中所存在的漏洞的应对经验,为围绕 COMPAS 的辩论提供了宝贵的讨论素材。 Bender 分享说,纽约市的无力负担保释费用、也还没有经过审判的被捕公民都会被关押监禁在Rikers Island,政府付费的公共辩护人去那里见他们的时候来回各需要两个小时,但是实际面见需要法律服务的那个人的时间才不到 30 分钟,假设守卫们动作敏捷、守时的话(但常常不是这样的)。威尔克森详细介绍了这些无力缴纳保释金的无辜被捕者有多么常常同意签署认罪协议,只为了他们可以更快地出狱。请不要忘了,这些都是发生在一群从来没有上过法庭的人身上!这个圆桌讨论是一个阐明现实世界与复杂系统之间关系的绝好例子,真希望更多的统计学家和计算机科学家能向他们学习。

因而可知,算法或许会加剧潜伏的社会问题,比如法院和监狱系统啦,跟种族偏见挂钩的保释金使用等等。所以我们有去了解算法可能会接触的系统和它们可能会遇到的问题。

反对偏见不是反对算法大多数对算法偏见持反对意见的人,都只是在反对不公平的偏见,而不是反对算法本身。米勒说,这些批评算法不公平的人「很少问他们分析的系统在没有算法的情况下运行得有多好」,这表明那些反对者可能其实不知道人类带有多少偏见,或就只是单纯排挤算法。在我开始撰写有关机器学习偏见的文章之前,我就花了大量时间研究和撰写有关人类的偏见(特别是关于它们如何与科技行业相干的研究)。

当我在 twitter 上分享有关偏见的算法时,常会遭到反驳,认为我是反算法/科技人士。我有数学的博士学位,我曾做过量化分析师、数据科学家和软件工程师,并创建了一个免费的计算线性代数课程,且与他人合作创建了 ,它有面向程序员的深度学习实操课程,并通过算法的奇妙运用赢得了斯坦福大学的计算机视觉速度测试。

我不是唯一这样的人:大多数直言不讳批评带有偏见的算法的人,都有计算机科学、数学或统计学博士学位,且持续活跃在他们的领域里。只要看看 Faireness Accountability and Transparency Conference 的一些发言者就懂了。好比普林斯顿大学的计算机科学教授 Arvind Narayanan,他是 Kaggle 社交络挑战赛的冠军,也是1门流行的加密货币课程的老师,他仍然公然反对过算法偏见。

所以,我希望有关偏见算法的讨论不要总是拘泥在这类无足轻重的地方,而要深入问题的本质。

via ,雷锋 AI 科技评论编译

子宫内膜炎症状及治疗
宫颈炎的症状表现
得了盆腔炎吃什么药

相关推荐