深度丨机器为什么会有偏见?

2017-01-03 09:20:00 作者:佚名 分类 : 人工智能

  如果人工智能真的控制了我们的生活,人类与机器人大战也许不会发生。更有可能的是,现在为你推荐电影、人脸识别等人工智能算法可能在某一天,拒绝你的贷款申请、把警察带到你家或者告诉医生你需要节食等。机器学习算法是人类创造的,如果构建算法的人带有个人偏见,这就可能导致算法做出错误的决定,甚至带来灾难。

  这些偏见问题引起了我们对人工智能技术的担忧,因为人类设计的人工智能系统,即使是绝对“公正”的,也会逐渐累积人类的偏见性思维。例如,某一人工智能程序虽然并未特别考虑种族问题,但该程序认为黑人更可能进行二次犯罪。(执法官员已受到批评。)

  导致这一结果主要有两方面原因:首先,有时用于训练机器学习算法的数据不足;其次,算法本身设计有缺陷。机器学习是软件开发人员使用大量与当前任务相关的数据训练人工智能算法的过程。最终,算法基于训练数据,形成模式集,并通过模式集识别新数据中的类似模式。但算法并非总按预期输出,有时会出现灾难性结果。例如,2015年6月,谷歌的照片分类系统将两位非裔美国人误认为是“大猩猩”。虽然谷歌很快解决了这个问题,但微软人工智能研究员Kate Crawford在纽约时报上指出,该事件反映出人工智能的一大问题——“白人问题(White Guy Problem)”。简单来说,就是训练数据中,白人照片太多,导致系统无法准确识别具有不同特征的人。

  最近Facebook的动态消息(News Feeds)事件也暴露出人工智能偏见问题。Facebook的热门新闻(Trending News)算法是基于用户参与度(用户点击率或分享率)来确定新闻优先级,根本没有考虑新闻的真实性。11月初,一些新闻媒体透露,美国大选期间,一群Macedonian青少年“愚弄”Facebook的动态消息算法,公然传播虚假新闻。Facebook表示已修改算法,并且将与专门核查并揭穿谣言和传闻的Snopes、Politfact、FactCheck.org网站以及ABC News、美联社等新闻机构合作,共同来验证一条消息的真实性。

  Maryland大学的计算机科学系副教授Hal Daumé III说:“这有点像“俄罗斯坦克问题(Russian tank problem)””。这个故事不是真的,但十分具有代表性,因此常被计算机科学的老师们引用。它讲的是20世纪80年代早期的机器学习技术,当时美国军队想训练计算机区分照片中的美国坦克和俄罗斯坦克。“算法的分类精度非常高,但所有的训练图片中,俄罗斯坦克图片模糊不清,而美国坦克图片高清,”Daumé解释说。最终,算法学会区分模糊照片和高清照片,而并不是预期中的区分坦克照片。明知算法会受到认知限制,最近一组研究人员发布了一项研究报告,该报告指出算法可以通过评估面部特征,推断某人是否是罪犯。上海交通大学的研究员Xiaolin Wu和Xi Zhang基于1856张人脸图像(其中730张犯罪分子图像,1126张非犯罪分子图像)数据集,训练面部识别算法。利用数据集中90%的人脸图像对该机器学习算法进行训练,完成后,该算法可以正确判别剩下的10%的图像中哪些是犯罪分子。

  该算法将特定面部特征与犯罪相关联。Xiaolin Wu表示,犯罪分子的眼角,上唇弯曲率和鼻尖更可能存在特殊的空间关系。虽然面部呈现这种特征的人不一定就是罪犯,但可能性会相对较高。Wu还发现,与非犯罪分子相比,犯罪分子彼此之间面部特征的差异要更大一些。

  接下来,Wu使用一组新的照片测试算法,发现大多数时候算法判断正确。为了避免引入人类偏见,整个训练和测试过程使用的人脸图像均选自面部无毛发无疤痕的青年或中年中国男性照片。

  “我准备开始反驳那些反对者的观点,”Wu表示,“我们对这个结果感到吃惊。”尽管这项研究可能验证了骨相学上的某些观点,但Wu承认,直接使用这种技术来判断是否犯罪太疯狂了,而且,他表示不打算将其用于执法部门。

  另一些科学家表示Wu和Zhang的研究发现可能只是增加了人工智能系统现有的偏见。谷歌的首席科学家BlaiseAgüeray Arcas指出,这项研究中,受试者的犯罪行为实际上是取决于人类的个人偏见。他又说,“该报告的主要问题是标记罪犯的依据是系统本身(人类设计的),然后得出该输出结果(机器学习)不带人类偏见。”

  华盛顿学院数学系助理教授Kyle Wilson说:“Wu和他的同事直接跳到结论:面部结构特征可以预测犯罪。这是非常鲁莽的。”Wilson已经在学习机器视觉。他还说,这种算法可能只是在某个司法系统上反映出了人类的偏见,在其他任何国家也可能出现这种情况。“用这种方法判断犯罪简直是开玩笑,”Wilson说,“相反,这种方式仅仅教会了计算机重现人类的偏见。”

  还有人认为,通过改正计算机学习模式中的错误,可以改进该算法,从而避开人为偏见。瑞士人工智能实验室Dalle Molle Institute的科学总监Jürgen Schmidhuber说,人工智能系统只要学习就可能犯错(实际上是一定会犯错误),这也是为何称之为“学习”。他认为计算机只能学习到数据中包含的信息。“你无法消除让机器产生偏见的源头,就像你无法消除让人类产生偏见的源头,”他说。我们先得承认这一点,然后确保使用的数据和设计的算法相对“干净”;或者记住一位老程序员的名言:“错进,错出。”

最近更新
科普

科普图集
带着朋友和机器人上月亮散步

带着朋友和机器人上月亮散步>>详情

邮件订阅

软件信息化周刊
比特软件信息化周刊提供以数据库、操作系统和管理软件为重点的全面软件信息化产业热点、应用方案推荐、实用技巧分享等。以最新的软件资讯,最新的软件技巧,最新的软件与服务业内动态来为IT用户找到软捷径。
商务办公周刊
比特商务周刊是一个及行业资讯、深度分析、企业导购等为一体的综合性周刊。其中,与中国计量科学研究院合力打造的比特实验室可以为商业用户提供最权威的采购指南。是企业用户不可缺少的智选周刊!
网络周刊
比特网络周刊向企业网管员以及网络技术和产品使用者提供关于网络产业动态、技术热点、组网、建网、网络管理、网络运维等最新技术和实用技巧,帮助网管答疑解惑,成为网管好帮手。
服务器周刊
比特服务器周刊作为比特网的重点频道之一,主要关注x86服务器,RISC架构服务器以及高性能计算机行业的产品及发展动态。通过最独到的编辑观点和业界动态分析,让您第一时间了解服务器行业的趋势。
存储周刊
比特存储周刊长期以来,为读者提供企业存储领域高质量的原创内容,及时、全面的资讯、技术、方案以及案例文章,力求成为业界领先的存储媒体。比特存储周刊始终致力于用户的企业信息化建设、存储业务、数据保护与容灾构建以及数据管理部署等方面服务。
安全周刊
比特安全周刊通过专业的信息安全内容建设,为企业级用户打造最具商业价值的信息沟通平台,并为安全厂商提供多层面、多维度的媒体宣传手段。与其他同类网站信息安全内容相比,比特安全周刊运作模式更加独立,对信息安全界的动态新闻更新更快。
新闻中心热点推荐
新闻中心以独特视角精选一周内最具影响力的行业重大事件或圈内精彩故事,为企业级用户打造重点突出,可读性强,商业价值高的信息共享平台;同时为互联网、IT业界及通信厂商提供一条精准快捷,渗透力强,覆盖面广的媒体传播途径。
云计算周刊
比特云计算周刊关注云计算产业热点技术应用与趋势发展,全方位报道云计算领域最新动态。为用户与企业架设起沟通交流平台。包括IaaS、PaaS、SaaS各种不同的服务类型以及相关的安全与管理内容介绍。
CIO俱乐部周刊
比特CIO俱乐部周刊以大量高端CIO沙龙或专题研讨会以及对明星CIO的深入采访为依托,汇聚中国500强CIO的集体智慧。旨为中国杰出的CIO提供一个良好的互融互通 、促进交流的平台,并持续提供丰富的资讯和服务,探讨信息化建设,推动中国信息化发展引领CIO未来职业发展。
IT专家网
IT专家新闻邮件长期以来,以定向、分众、整合的商业模式,为企业IT专业人士以及IT系统采购决策者提供高质量的原创内容,包括IT新闻、评论、专家答疑、技巧和白皮书。此外,IT专家网还为读者提供包括咨询、社区、论坛、线下会议、读者沙龙等多种服务。
X周刊
X周刊是一份IT人的技术娱乐周刊,给用户实时传递I最新T资讯、IT段子、技术技巧、畅销书籍,同时用户还能参与我们推荐的互动游戏,给广大的IT技术人士忙碌工作之余带来轻松休闲一刻。