内容摘要:基于智能算法的自主决策系统,被认为能够为人类社会生活中的各种决策和事务提供彻底的客观性。智能算法背后的“歧视”问题值得关注。毫无疑问,当今人工智能技术的突飞猛进,很大程度上得益于大数据、深度学习及其智能算法等技术的突破性进展,人工智能算法在现代社会发挥着越来越重要的作用。智能算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值选择,他们可能会把自己持有的偏见嵌入智能算法之中。智能算法决策本质上就是用过去预测未来,而过去的歧视和偏见可能会在智能算法中固化并在未来得以强化。与传统的决策系统不同,基于智能算法基础上的人工智能决策中,普通人根本无法理解其复杂的算法机制原理和框架模型,这种决策是基于算法黑箱而做出的,不透明性问题便由此而生。
关键词:智能算法;歧视;偏见;决策系统;计算机;人工智能决策;伦理;客观性;设计者;选择
作者简介:
1956年6月,在达特茅斯会议上诞生了“人工智能”。半个多世纪过去了,时至今日它正在对人类生活、世界经济和社会进步产生深刻的影响。不仅如此,我们自身也越来越生活在智能算法之中。基于智能算法的自主决策系统,被认为能够为人类社会生活中的各种决策和事务提供彻底的客观性。但是,这很可能事与愿违。寄希望于智能算法的设计者完全客观地把已有的道德或法律规则编入程序,几乎是不可能的。智能算法背后的“歧视”问题值得关注。
毫无疑问,当今人工智能技术的突飞猛进,很大程度上得益于大数据、深度学习及其智能算法等技术的突破性进展,人工智能算法在现代社会发挥着越来越重要的作用。当今时代,基于智能算法的人工智能决策可以说是无处不在。
人工智能算法逐渐继承了社会需求,接管了本来由人控制的可以预测未来的社会功能。人们的数字化生存日益受到智能算法的左右。在虚拟的网络空间中,智能算法往往决定了向人们推荐什么。当然,人工智能决策并非局限于解决“信息过载”难题的个性化推荐。在无人驾驶机车面对“电车难题”的两难困境进行选择时,智能算法可以决定该如何做出道德选择;在对刑事犯罪风险开展评估时,智能算法能够影响其刑罚;在把人工智能应用于战争时,智能算法可以做出攻击目标的最终选择。问题的关键是:当我们把本该由人类承担的最终决策任务托付给人工智能系统时,智能算法能够做到客观公正、不偏不倚吗?
智能算法并非绝对客观。有学者认为,算法本质上是一种数学表达,是很客观的,不像人类那样具有各种情绪和偏见、容易受外部因素的影响,因而绝对不会产生歧视。然而,这种观点却备受质疑。正如凯文·凯利在其作品《失控》中所指出的,“人们在把自然逻辑输入机器的同时,也将技术逻辑带到了生命之中,机器人、计算机程序等人工制造物也越来越具有生命属性”。而作为大数据处理的计算程序和人类思维的一种物化形式和人脑外延的智能算法,也正“失控性”地呈现出其劣根性——歧视。智能算法本质上是“以数学形式或计算机代码表达的意见”。算法并非完全客观的,其中可能暗藏歧视。智能算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值选择,他们可能会把自己持有的偏见嵌入智能算法之中。而智能算法又可能会把这种歧视倾向进一步放大或者固化,从而造成“自我实现的歧视性反馈循环”。正如奥威尔在其小说《1984》中所指出的,“谁掌握过去,谁就掌握未来;谁掌握现在,谁就掌握过去”。智能算法决策本质上就是用过去预测未来,而过去的歧视和偏见可能会在智能算法中固化并在未来得以强化。







