首页 >> 报刊 >> 期刊要闻 >> 编辑推荐
赵媛:加大人为干预力度 消除人工智能技术应用中的偏见
2018年08月21日 10:02 来源:中国社会科学网-中国社会科学报 作者:赵媛 字号
关键词:人工智能技术;算法;语言;机器学习;应用;技术开发;性别偏见;伊泽勒表示;英国皇家国际事务研究所;网站

内容摘要:随着人工智能技术在经济与社会生活中的应用日趋广泛,新的机遇与挑战也随之而来。人工智能技术在学习人类语言的同时,受人类的一些观念影响,导致人工智能技术应用中出现了语言、性别等偏见。8月 14日,英国皇家国际事务研究所副研究员伊丽莎白·伊泽勒(Elizabeth Isele)在该所网站撰文表示,人为审视与重构对于消除人工智能技术中的偏见至关重要。对此,本报记者就人工智能技术存在何种偏见、如何确保人工智能技术的公平与透明等问题采访了有关专家学者。在实践中不断优化算法对于如何打开人工智能技术的“黑箱”,让人工智能技术更透明且易于理解,伊泽勒强调了语言的重要性。

关键词:人工智能技术;算法;语言;机器学习;应用;技术开发;性别偏见;伊泽勒表示;英国皇家国际事务研究所;网站

作者简介:

  随着人工智能技术在经济与社会生活中的应用日趋广泛,新的机遇与挑战也随之而来。人工智能技术在学习人类语言的同时,受人类的一些观念影响,导致人工智能技术应用中出现了语言、性别等偏见。8月14日,英国皇家国际事务研究所副研究员伊丽莎白·伊泽勒(Elizabeth Isele)在该所网站撰文表示,人为审视与重构对于消除人工智能技术中的偏见至关重要。对此,本报记者就人工智能技术存在何种偏见、如何确保人工智能技术的公平与透明等问题采访了有关专家学者。

  加强机器学习流程管理

  人工智能技术包括机器学习、自然语言处理、推理感知等技术。伊泽勒在接受记者采访时表示,当前,越来越多的基于人工智能技术的数字科技服务与产品不断呈现在人们面前,但这些产品已经开始出现了偏见,例如性别偏见等。这些偏见并非来自机器本身,而是在学习人类语言时吸纳了一些人类文化根深蒂固的观念。因此,开发者应加强对机器学习从输入到输出全过程的管理,并对收集数据、设计算法、建立模型、测试等环节加强监管。

  《赫芬顿邮报》记者巴哈尔·格里珀尔(Bahar Gholipour)认为,这些偏见是人工智能技术所面临的“黑箱”问题。因为人们无法看到人工智能技术的内部运行,很难理解它是如何得出决策的。如果不采取措施,这些偏见可能将随着人工智能技术一直延续下去。

  伊泽勒认为,不能只依靠人工智能技术专家去检查、监测机器学习过程。伊泽勒建议,应借鉴社会不同年龄段、各行各业工作者的经验与视角,了解存在于人们潜意识中的各种偏见,再根据综合建议进行调整,以完善人工智能技术的准确性,增强人们对人工智能技术的信任。

  推动开发过程透明化

  伊泽勒表示,虽然越来越多的用户要求人工智能技术以人为本,并呼吁技术开发过程更为公开、透明,但因为涉及技术专利权和企业利益问题,对不少人而言,人工智能技术开发过程依然充满了神秘感。社会各界正在采取各种积极措施,以加速开放源代码,创建更透明的标准。美国纽约大学倡导算法公平的非营利组织“当下人工智能”(AI Now)的一个原则值得参考:“当涉及人的服务时,如果设计者不能解释算法的结果,你就不能使用这个算法”。

  目前,不少机构与企业已经开始认真思考人工智能应用中的潜在偏见问题。例如,谷歌人工智能(Google AI)推出的“玻璃盒”(GlassBox)项目、“活跃问题回答”(Active Question Answering)项目,以及其他强调以人为本的人工智能研究项目,将人的限制指令与机器学习相结合,使输出结果更准确也更易于理解。

  在实践中不断优化算法

  对于如何打开人工智能技术的“黑箱”,让人工智能技术更透明且易于理解,伊泽勒强调了语言的重要性。只有真正明确需要监测的内容是什么,才能采取相应的措施去评估数据的公正性。但对人工智能技术而言,自动化处理自然语言并不简单,因为语言中是存有偏见的,不仅是在基本词汇中,而且存在于词之间、词和意象之间。

  20世纪80年代就有学者撰写了非歧视性语言的相关著作,致力于促进语言中的性别平等。虽然现在技术水平相比彼时已经突飞猛进,但人们从词汇中消除性别偏见的进展仍旧很慢。人工智能技术面临的挑战是如何将一个不断变化的词汇系统编成一个二进制系统。伊泽勒表示,在开发算法的过程中,人的再次干预是判断各种潜在偏见所必需的。但性别偏见不只存在于算法中,也存在于由算法得出的结果中,即预测和建议中。常见的刻板印象甚至可能被人工智能技术的算法所强化。

  此外,由于某些工作领域女性的缺乏,性别偏见有可能进一步加剧。有研究认为,在人工智能技术开发领域,女性研究者较少已成为一个普遍问题,可能对人工智能系统产生实质性影响。

  针对这些挑战,伊泽勒认为,人们要监督人工智能技术应用过程的每个阶段,并不断提出问题以帮助改进算法,而且每个问题都需要多样化、跨学科的视角,既兼顾公共和私营部门,也包容不同种族、性别、文化、教育、年龄和社会经济地位。

  针对人工智能领域存在的挑战,英国华威大学科研副校长帕姆·托马斯(Pam Thomas)在接受本报记者采访时提出,未来仍需采取积极措施,主动应对,以控制风险。政府及相关部门要加强监管。例如,欧盟颁布的《通用数据保护条例》,要求在数据收集与处理的过程中,保持合法性、公平性和透明性。当前,一些公司正试图让算法更易于为用户所理解,这样有利于形成公平、透明的算法开发应用文化,减少人工智能技术的偏见。

  伊泽勒表示,仅打开机器学习的“黑箱”是不够的,人们直接参与评估是确保人工智能技术的发展不被偏见所影响的重要方法。21世纪的机器学习要基于提问与回答的方式,以激发批判性思维,寻求潜在假设背后的思考与创新。人工智能开发者应理解,这种人为的审视与重构有利于他们从运行数据中清除可确认的偏见,并对算法进行相应调整,增强人们对技术的信任。

  (本报伦敦8月18日电)

作者简介

姓名:赵媛 工作单位:

转载请注明来源:中国社会科学网 (责编:王禧玉)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们