首页 >> 党政院校 >> 理论视角
把握人工智能时代下的国家安全治理
2018年11月21日 10:19 来源:学习时报 作者:阙天舒 张纪腾 字号
关键词:人工智能技术;技术风险;形成;国家安全治理;人工智能发展;伦理;全球;风险评估;技术发展;产业

内容摘要:同时,突出强调了要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,进而维护好人民利益和国家安全,推动我国新一代人工智能健康发展。因此,必须进一步完善人工智能的发展战略以把握国家安全治理,突出强调对人工智能核心技术的把控,并构建起自主可控、可持续发展的人工智能创新体系和产业体系,从而掌握人工智能创新发展的主动权。此外,加快推进人工智能技术风险的信息平台建设,建立人工智能技术风险评估与管理工作的数据库,并以此为基础形成国际风险预警机制,加强对国际性技术风险事故的防范能力。

关键词:人工智能技术;技术风险;形成;国家安全治理;人工智能发展;伦理;全球;风险评估;技术发展;产业

作者简介:

  2018年10月31日,习近平总书记主持中央政治局第九次集体学习,研究人工智能发展现状和趋势。习近平总书记提出,加快发展新一代人工智能是我国赢得全球科技竞争主动权的重要战略抓手。同时,突出强调了要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,进而维护好人民利益和国家安全,推动我国新一代人工智能健康发展。

  作为新一轮科技革命和产业变革的核心驱动力量,人工智能的快速发展在为社会提供强大发展动力和平台的同时,也将对国家安全治理造成一系列挑战。因而,如何维护人工智能时代下的国家安全治理,把控技术研发方向和解决相关法律法规、制度体系、伦理道德等衍生问题,也将成为未来人工智能发展的关键所在。

  人工智能或对国家安全治理形成重大挑战

  人工智能或将打破传统的国际战略对抗模式。2018年9月,美国布鲁金斯学会发布了《2020—2040年军事技术变化预测》,该报告认为未来战争的革命性技术变化可能只发生在计算机和机器人的部分领域,人工智能将从机器人、自主化和网络安全三方面形成新的军事优势。实际上,人工智能的军事化应用或将形成新的军事能力和战略博弈模式,进而实现战争形态的转变。同时,战争形态的转变也将导致原有的战略博弈结构失衡,并且这种由于技术而产生的失衡,很难通过战术博弈或数量叠层进行中和或弥补。显然,缺少人工智能技术辅助的国家将在战略判断、策略选择与执行效率等多方面处于绝对劣势,拥有方则将具有全面超越传统军事力量的能力,进而在对抗中占据新的技术制高点,国际主体间的力量鸿沟将更加难以跨越。此外,随着人工智能技术的成熟,人工智能军事化应用的成本和门槛将不断下降,其技术扩散所带来风险也将随之上升,进而也将对全球安全体系基础造成巨大的挑战。

  人工智能或将拉大国际行为主体的能力代差。人工智能产业的核心逻辑是通过自动化生产替代劳动力来提高生产效率,而这将对传统生产模式造成“创造性破坏”。一方面自动化生产将导致跨国企业将生产部门从发展中国家回迁,另一方面技术的高门槛将导致全球产业链进一步向价值链跃升,这就意味着人工智能技术或将大大减少发展中国家以承接发达国家产业转移的方式进入全球产业链的机会。同时,人工智能自身的“创新增压器”角色还使占据技术高地的国家形成一种自我增强的技术经济优势,进而掌握制定相关“游戏规则”的主导权以实现更多的超额性收益。根据清华大学发布的《中国人工智能发展报告2018》,截至2018年6月,发达国家在全球人工智能专利产出、人才投入等成果方面保持绝对的领先地位,其中美国在多数指标上仍具有绝对性的优势。可见,发展中国家的人工智能技术发展机遇期将会变得非常有限,那些技术条件和资本基础薄弱的国家甚至可能会丧失实质性的发展机会。

  人工智能或将使资本与技术获得“超级权力”。作为一种资本密集型和技术导向型的产业,人工智能的发展需要大量的资本投入和技术积累,这或将导致社会各产业间、群体间与阶层间的发展能力、资源占有程度与社会影响力方面的极大不对称。目前,几乎所有重要的人工智能领域的突破性成果都是出自谷歌、微软、IBM、亚马逊和苹果等大型公司所支持的研究平台,并且这些大型跨国公司本身对于全球人工智能的核心技术和顶尖人才具有极强的虹吸效应。这意味着它们或将成为人工智能时代的巨头企业,形成操纵全球产业结构与资金流向的垄断能力。此外,掌握人工智能关键技术的少数精英技术群体或将凭借知识和技术方面的不对称优势形成垄断高阶技术权力,如果对其缺少有效的引导、制约和监督,可能会出现技术滥用而危害社会安全,或成为资本权力的附庸而激化社会矛盾。

  人工智能或将导致社会治理面临新的挑战。人工智能通过产业革命实现对社会结构的大规模调整,进而从利益再分配、法律规范和伦理道德等多个层面对社会治理形成新的冲击。最为明显的便是人工智能技术的普及所导致的社会结构性失业,尤其是依靠重复性劳动的劳动密集型产业和依赖信息不对称而存在的部分服务业将遭受到“毁灭性打击”,而且技术进步下的职业极化也将拉大收入差距。根据麦肯锡2018年9月发布的《人工智能对全球经济影响的模拟计算》,重复性任务和少量数字技术为特征的岗位需求或从目前的40%下降到30%,其在工资总额中的占比或将从33%下降到20%。同时,由于人工智能在技术发展初期存在“索洛悖论”,即社会生产率的提升相对于人工智能带来的技术进步存在迟滞,并且劳动生产率的提升难以同步转化为人们收入的普遍增长和消费成本的普遍下降,甚至人工智能会成为资本挤压劳动力的工具。此外,由于目前仍未形成关于人工智能技术统一的法律法规和道德认知,这就使得难以对技术主体责任进行及时、合理的监管,社会伦理也难以对人工智能技术的发展形成有效的制约。

  人工智能或将加剧“技术恐怖”现象的发生。实际上,人工智能自身的技术自主性、高度复杂性和风险存续性或使其技术失控的可能性和破坏性更大。人工智能所具有“自我学习”能力使其能够在不需要人类控制或者监督的情况下,便能自主地完成某些任务。这意味着,如果人工智能跃升成具有“自主思维”的主体,形成了自身运行的“技术理性”,那就具备了脱离人类管控的能力。同时,人工智能算法的逻辑基础本身蕴含着不确定性,即人工智能技术基础隐藏着不可追溯性,其自身包含了很多不受控制的机制。例如,机器学习中使用的人工神经网络,在无人驾驶领域得到了广泛应用,尤其是用于图像识别,但原本无害的神经网络可能在遭受对抗样本(Adversarial Example)攻击后就会出现偏差,并且很难对其进行及时有效的调控。此外,犯罪分子通过人工智能的拓展使用将形成新型安全攻击,人工智能本身的技术漏洞也会使其增加被攻击利用的可能,进而或将加剧数字安全威胁的出现。

作者简介

姓名:阙天舒 张纪腾 工作单位:

转载请注明来源:中国社会科学网 (责编:钟义见)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们