3、为什么要给人工智能戴上紧箍儿
科技的发展越来越迅速,而普通人对于复杂的黑科技也越来越难以理解。人类社会根据适用对象的不同,需要对人工智能的发展方向加以疏导和限制,避免可能出现的失控局面。这就需要一些相对具体的指导原则进行引领。
第一,人类中心原则。人工智能的使用不得侵害宪法和国际规范保障的基本人权。人工智能的研发、推广、运用应该被用于提升拓展人的能力,使人类获得多元幸福。为了防止人类过度依赖人工智能、恶意使用人工智能操纵人类意思决定的行为,需要把握以下原则:(1)人工智能不仅仅用来代替部分人力劳动,还可以作为高级工具辅助人类,从而拓展人类能力和创造性。(2)在人工智能利用中,人类自己可以判断和决定如何使用人工智能。对使用人工智能带来的后果和责任,根据问题性质在研发、提供、运用等利益相关者之间妥当分配。(3)在人工智能普及过程中,防止出现“信息弱者”和“技术弱者”群体,建立能够使人工智能带来的恩惠普及所有人的、易于使用的系统。
第二,教育应用原则。平等地向所有人提供教育、培育应用的教育环境:(1)在幼儿教育、初等中等教育中提供广泛的教育机会,为社会人和老年人提供重新学习的机会。(2)建立人人都能掌握人工智能、数理、数据科学等相关素养的教育系统,超越文理学科界限强化学习。在应用教育中,设置有助于认识到数据偏误及使用方法偏误等人工智能、数据相关特性的内容,以及人工智能公平性、公正性、隐私保护等相关内容。(3)从单方向、均一化教育方式转变为激发人类兴趣和力量。始终保持灵活转变的意识,灵活运用人工智能,构建防止弱势群体出现的交互式教育环境。(4)完善教育环境并不是给行政部门和学校(教师)增加负担,民间企业和普通市民要发挥自主性。
第三,保护隐私原则。人工智能社会中,依据个人行动等数据可以高精度推断其政治立场、经济状况、兴趣爱好等。这意味着需要谨慎对待个人数据:(1)对个人数据的使用,包括政府使用行为在内,不得侵犯个人自由、尊严和平等;(2)对个人数据中涉及隐私的部分,确保使用行为的正确性、正当性,以及本人能够实质性地参与,并从中得到适当益处;(3)个人数据必须根据其重要性和需求性得到妥善保护,基于文化背景和社会共同理念,把握使用和保护之间的平衡。
第四,保障安全原则。人工智能在实现社会系统自动化、提升安全性的同时,在目前能够设想的技术范围内,对于稀有现象和故意攻击行为人工智能无法做到总是能够正确应对,在安全方面存在新的风险。因此,需要把握利益与风险之间的平衡,从整体上提高社会的安全性和可持续性:(1)推进正确评估人工智能风险及降低风险的研究、人工智能深度研发以及包含安全保障在内的风险管理;(2)重视人工智能使用的可持续性,不一味依赖特定的、单一的或者少数几个特定的人工智能。
第五,公平竞争原则。维护能够推动商业模式和服务创新,维持经济持续增长和解决社会课题的公平的竞争环境:(1)不应形成特定国家基于对人工智能相关资源的集中,利用其支配地位实施不当的数据收集和侵害主权行为的社会;(2)不应形成特定企业基于对人工智能相关资源的集中,利用其支配地位实施不当的数据收集和不公平竞争行为的社会;(3)不应形成由于人工智能的使用,导致财富和社会影响力不当地集中于部分利益相关者的社会。
第六,公平性、说明责任及透明性原则。为了避免人工智能的使用导致个人因背景不同而遭受不当的差别待遇,或者使人在尊严层面遭受不正当待遇,需要确保公平、透明的意思决定,以及对意思决定结果的说明义务,确保技术的可信赖性:(1)在人工智能设计理念下,人不应由于人种、性别、国籍、年龄、政治信念、宗教等背景被不当地差别对待;(2)对使用人工智能事实、人工智能数据的取得方法及使用方法、确保人工智能运行结构正确性的相关措施等,都需要根据情况予以说明;(3)为使人能够理解并判断人工智能提案,对于人工智能的使用、采纳、运用都应该根据需要设置沟通对话场所;(4)使社会能够安心灵活使用人工智能,需要保障人工智能以及数据的可信赖性。
第七,创新原则。(1)为实现持续创新,需要跨越国境、产学官民、人种、性别、国籍、年龄、政治理念、宗教等界限,从人才、研究两个方面,大力推进国际化、多样化以及产学官民合作;(2)推动大学、研究机构、企业间的平等合作以及人才流动;(3)推进人工智能品质及可信赖性的确认方法、效率性数据收集及整理方法、人工智能开发、测试、运用方法论等人工智能工学的确立;(4)在确保个人隐私和安全的前提下,打破数据垄断,推动数据跨国境流动使用,完善国际合作,构筑人工智能计算机资源、高速网络共用的研发环境;(5)推进人工智能技术的社会应用,政府对成为阻碍因素的规制内容实施改革。
4、我们对人工智能型社会有怎样的期待
对于人工智能开发者和经营者来说,需要遵守基本理念和上述人工智能社会原则的基础上,制定并遵守人工智能开发利用原则。目前已经有不少国家、团体、企业都已经对人工智能开发利用原则开展探讨,但是,目前尚未达成国际共识。因此,本《原则》强调日本需要积极制定本国的开发利用原则,通过开放式探讨,积极推动国际非规制性、非约束性原则框架的达成。2016年,日本政府在G7信息通信部长会议上提出人工智能研发8项基本原则,并提议创设讨论国际统一标准的国际会议。
当前,人工智能不仅与实体经济深度融合,对于社会发展、贫富差距、政府治理、资源枯竭、全球环境问题和科学研究等关乎人类可持续发展的重大课题都有重要影响。加上日本自身面临少子高龄化、劳动力不足、地方稀疏化、财政支出负担等社会经济问题,因此,日本政府对人工智能的发展和广泛应用寄予厚望。其人工智能的内涵并不局限于技术层面的人工智能,而是泛指“高度复杂的智能社会体系”。
值得一提的是,《原则》在尊重人类尊严、实现人工智能可信赖性等方面与欧洲委员会2018年12月18日发布的《关于可信赖人工智能的伦理准则》具有一致之处。《原则》崇尚人人平等、不唯效率至上的人本发展观,符合对“Society 5.0”的概念界定和打造超级智能社会的发展目标。
中国作为2016年二十国集团(G20)主席国,首次将“数字经济”列为G20创新增长蓝图中的一项重要议题。2018年G20峰会,我国建议二十国集团将“新技术应用及其影响”作为一项重点工作深入研究。我国作为人工智能发展大国,向全球展现了人工智能时代的中国智慧。我们不仅要抓住人工智能发展机遇,还要积极应对人口老龄化、劳动力人口下降、技能型人才短缺等挑战,多维度对人工智能的开发应用及影响进行系统深入、客观冷静的专业研讨,在基础研究、技术开发应用、资源开放共享、人才教育及法律政策上进行有序引导,为人工智能持续健康发展保驾护航。
(作者:李慧敏,系中科院科技战略咨询研究院助理研究员)



×