2017年中国发布的《新一代人工智能发展战略规划》(Development Plan of the New Generation Artificial Intelligence)强调,必须认真管理好AI的技术属性和社会属性,以确保AI的可靠性。2019年,中国科技部(Ministry of Science and Technology of the People's Republic of China,MOST)成立了国家新一代人工智能治理专业委员会,并发布了《新一代人工智能治理原则——发展负责任的人工智能》[1]。北京智源人工智能研究院(Beijing Academy of Artificial Intelligence,BAAI)也发布了《人工智能北京共识》[2],就推进AI的研发、使用、治理和长远规划提出倡议,以支持实现对人类和自然环境有益的AI。在参考文献[3]中,来自BAAI的研究人员收集了20多个关于AI伦理原则的提议,并对这些提议的文本内容进行了主题词分析。他们确定了提议中共同提到的如下关键词——隐私、保密、安全、透明、问责和公平。
数据安全是AI伦理原则中最基本、最常见的要求。各国政府正在制定保护数据安全和隐私的法律。例如,欧盟于2018年实施了《通用数据保护条例》(General Data Protection Regulation,GDPR),中国也于2017年颁布了《中华人民共和国网络安全法》(Cybersecurity Law of the People's Republic of China)。这些法规的建立旨在保护用户的个人隐私,并给如今被广泛使用的数据驱动型AI的开发带来新的挑战。
联邦学习为AI公司提供了一个有效的解决方案,该方法能够以合法的方式解决数据碎片和数据孤岛的问题。香港科技大学(Hong Kong University of Science and Technology)及其他研究机构的研究人员[4]列出了三种联邦学习模式,即横向联邦学习、纵向联邦学习和联邦迁移学习。当数据共享的参与方各自具有不重叠的数据集,但数据样本又具有相同的特征空间时,我们可以使用横向联邦学习。纵向联邦学习适用于参与方的数据集指向同一组实体,但其特征属性不同的情况。当参与方的数据集不能满足上述任意一个条件时(数据样本既指向不同实体,又具有不同的特征空间),联邦迁移学习可能是一个合理的选择。通过这些模式,AI公司始终能够为多个企业建立统一的模型,而无需在一个集中的地方共享它们的本地数据。
联邦学习模式被中国越来越多的在线金融机构所采用。微众银行(WeBank)已经制定了一个关于联邦学习的开源项目,并向Linux基金会贡献了联邦AI技术使能器(federated AI technology enabler,FATE)框架。WeBank的AI研发团队[5]还启动了IEEE联邦学习的标准化工作,并开始起草体系结构框架的定义和应用指南。
不完整的验证程序可能会产生误报,但其可扩展性比完整的验证程序好。苏黎世联邦理工学院(ETH Zurich)的研究人员[13,14]基于抽象解释提出了一种不完整的验证程序,其中基于形状的抽象域被表示为非线性激活函数输出的几何边界,以逼近DNN的无穷行为集。华东师范大学(East China Normal University)、中国科学院(Chinese Academy of Science)和其他相关机构的研究人员[15,16]也介绍了他们基于线性规划或符号传播的形式化验证框架。
除了能够促进AI模型的开发外,溯源在新兴的AI司法鉴定研究中也发挥着重要作用。最近,DeepFake技术被滥用,该技术利用GAN生成了虚假的人脸图像和视频,从而对社会规范和安全造成了巨大威胁。许多研究人员正在开发新的分类方法,以检测这些虚假的图像并确保视觉内容的可信度。例如,中国科学院自动化研究所(Institute of Automation,Chinese Academy of Science)的研究人员[21]尝试着去改善DeepFake检测算法的通用性,并提出了一种新的司法鉴定CNN模型。但是,仅凭这些努力还不足以击败DeepFake,因为恶意的设计者总是可以构思出更好的算法来欺骗已知的检测算法。或许,我们应该对原始图像的可靠来源信息进行补充,以提供必要的线索来验证图像来源的合法性。基于区块链的溯源管理系统对建立一个可靠且可信赖的数字生态系统是有帮助的,在这个生态系统中我们可以跟踪和验证数字资源的真实来源,从而彻底清除虚假图像和视频。
世界上的主要经济大国已经发布了他们的AI伦理原则和治理法规。欧盟在2018年发布了GDPR。2019年4月,欧盟AI高级别专家组(High-Level Expert Group)提出了《可信赖AI的伦理原则》(Ethics Guidelines for Trustworthy AI)[27]。2019年,美国政府发布了《维持美国AI领先地位的行政命令》(Executive Order on Maintaining American Leadership in Artificial Intelligence),并要求美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)为制定关于AI的相关技术标准进行计划,这些标准旨在规范开发可靠、健壮和可信赖的AI系统[28]。与欧盟和美国一样,中国是在全国范围内发起AI治理和伦理倡议的主要国家之一。联合国也正在推进AI伦理方面的国际政策的制定,并在2019年3月联合国教科文组织(UNESCO)的AI会议上宣布了其对待AI的人文主义态度,它强调“以具有人类价值观的AI实现可持续发展”。但是,目前多国政府尚未采取任何联合行动来推动落实。
此外,大型科技公司,如谷歌、亚马逊和微软,以及中国的百度、阿里巴巴和腾讯,一直都在积极参与国内外的AI伦理和治理的相关工作。腾讯在2018年宣布了AI的ARCC(“可用、可靠、可理解、可控制”)原则,并在2019年发布了数字社会中关于AI伦理的报告[29]。百度加入了AI合作伙伴联盟(Partnership on AI)[30],这是一个由AI行业的主要参与者组成的国际联盟,其任务旨在建立造福社会的AI系统。
在AI的安全性和鲁棒性方面,针对Szegedy等[32]提出的DNN的脆弱性,中国研究人员在对抗攻击和防御方面开发的新算法表现出色。在2017年NIPS会议上,Google Brain组织了一场关于对抗性攻击和防御方法的国际竞赛,清华大学团队在攻击性和防御性方面均获得了第一名[33]。在这方面,也有国际合作的例子,中国的百度研究院与美国密歇根大学(University of Michigan)和伊利诺伊大学香槟分校(University of Illinoisat Urbana-Champaign)的研究人员合作,发现了基于LiDAR的自动驾驶检测系统中DNN的安全漏洞[34]。
伦理决策框架是AI治理研究的主要议题之一。香港科技大学(Hong Kong University of Science)和南洋理工大学(Nanyang Technological University)的研究人员[36]在AI顶级会议上回顾了有关现有伦理决策框架的文章,并提出划分这一主题的分类法,将伦理决策框架划分为4个部分,即道德困境探索、个体伦理决策框架、集体伦理决策框架和人机交互中的伦理。其他研究者[37]也回顾了关于通用AI(artificial general intelligence,AGI)的安全性研究,其中,伦理决策问题研究通常采用强化学习的理论框架。他们假定理性智能体能够通过与社会环境互动产生的经验来学习人类的道德偏好和规则。因此,在强化学习的框架中,AI设计者可以将伦理价值观指定为奖励函数,以使智能体的目标与其人类同伴的目标保持一致,并激发智能体以人类的道德规范行事。在新兴的研究领域,科学家们必须克服当前数据驱动型DNN模型的主要瓶颈,以实现人类水平的自动化伦理决策,并对部署到实际复杂道德环境中的这些理论框架进行广泛评估。
随着AI治理技术的进步,我们可以预见,AI伦理方面的法规和标准将在企业、社区、国家和国际层面得到不断实施,以加强AI系统和产品的合规性。实际上,全球AI标准化研究工作已经开展了好多年。例如,国际标准化组织(International Organization for Standardization,ISO)的SC24于2018年成立了AI可信度工作组,中国人工智能标准化总体组、专家咨询组则于2019年发布了AI伦理风险分析白皮书[41]。AI工业界和标准化组织的共同努力将进一步提高人们对AI伦理问题的认识,并在AI工业界和研究社区加速道德价值观在智能系统和产品中的集成。
Wenjun Wu,Tiejun Huang,and Ke Gong declare that they have no conflicts of interest or financial conflicts to disclose.
References
[1] National Governance Committee for the New Generation Artificial Intelligence.Governance principles for the new generation artificial intelligence-developing responsible artificial intelligence[Internet].Beijing:China Daily;c1995-2019[updated 2019 Jun 17;cited 2019 Dec 18].Available from:https://www.chinadaily.com.cn/a/201906/17/ WS5d07486ba3103dbf14328ab7.html?from=timeline&isappinstalled=0
[2] Beijing AI Principles[Internet].Beijing: Beijing Academy of Artificial Intelligence;c2019[updated 2019 May 28;cited 2019 Dec 18].Available from:https://www.baai.ac.cn/blog/beijing-ai-principles
[4] Yang Q,Liu Y,Chen T,Tong Y.Federated machine learning:concept and applications.ACM Trans Intell Syst Technol 2019;10(2):12.
[5] Guide for architectural framework and application of federated machine learning[Internet]. New York:IEEE P3652.1 Federated Machine Learning Working Group;c2019 [cited 2019 Dec 18].Available from: https://sagroups.ieee.org/3652-1/
[7] Liu A,Liu X,Fan J,Ma Y,Zhang A,Xie H,et al.Perceptual-sensitive GAN for generating adversarial patches. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence;2019 Jan 27–Feb 1;Honolulu,HI,USA;2019.
[8] Yan Z,Guo Y,Zhang C.Deep defense:training DNNs with improved adversarial robustness.Adv Neural Inf Process Syst 2018:419–28.
[9] Pang T,Du C,Dong Y,Zhu J.Towards robust detection of adversarial examples.Adv Neural Inf Process Syst 2018:4579–89.
[10] Ling X,Ji S,Zou J,Wang J,Wu C,Li B,et al.DEEPSEC:a uniform platform for security analysis of deep learning model.In:Proceedings of the 40th IEEE Symposium on Security and Privacy;2019 May 20–22;San Francisco,CA,USA;2019.
[12] Katz G,Barrett C,Dill DL,Julian K,Kochenderfer MJ.Reluplex:an efficient SMT solver for verifying deep neural networks.In:Proceedings of the International Conference on Computer Aided Verification;2017 Jul 24–28;Heidelberg,Germany;2017.p.97–117.
[13] Gehr T,Mirman M,Drachsler-Cohen D,Tsankov P,Chaudhuri S,Vechev M.AI2:safety and robustness certification of neural networks with abstract interpretation.In:Proceedings of the 2018 IEEE Symposium on Security and Privacy;2018 May 20–24;San Francisco,CA,USA;2018.
[14] Singh G,Gehr T,Mirman M,Püschel M,Vechev M.Fast and effective robustness certification.In:Proceedings of the Advances in Neural Information Processing Systems 31;2018 Dec 3–8;Montreal,QC,Canada;2018.p.10802–13.
[15] Lin W,Yang Z,Chen X,Zhao Q,Li X,Liu Z,et al.Robustness verification of classification deep neural networks via linear programming.In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition;2019 Jun 16–20;Long Beach,CA,USA;2019.p.11418–27.
[16] Yang P,Liu J,Li J,Chen L,Huang X.Analyzing deep neural networks with symbolic propagation:towards higher precision and faster verification.2019.arXiv:1902.09866.
[17] Ribeiro MT,Singh S,Guestrin C.“Why should I trust you?”: explaining the predictions of any classifier.In:Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining;2016 Aug 13–17;San Francisco,CA,USA;2016.p.1135–44.
[18] Zhang Q,Yang Y,Ma H,Wu YN.Interpreting CNNs via decision trees.In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition;2019 Jun 16–20;Long Beach,CA,USA;2019.p.6261–70.
[19] Liu S,Wang X,Liu M,Zhu J.Towards better analysis of machine learning models:a visual analytics perspective.Visual Inf 2017;1(1):48–56.
[20] Ma S,Aafer Y,Xu Z,Lee WC,Zhai J,Liu Y,et al.LAMP:data provenance for graph based machine learning algorithms through derivative computation.In:Proceedings of the 2017 11th Joint Meeting on Foundations of Software Engineering;2017 Sept 4–8;Paderborn,Germany;2017.p.786–97.
[21] Xuan X,Peng B,Dong J,Wang W.On the generalization of GAN image forensics.2019. arXiv:1902.11153.
[22] Gajane P,Pechenizkiy M.On formalizing fairness in prediction with machine learning.2017.arXIv:1710.03184.
[24] Bolukbasi T,Chang KW,Zou J,Saligrama V,Kalai A.Man is to computer programmer as woman is to homemaker?Debiasing word embeddings.Adv Neural Inf Process Syst 2016:4349–57.
[25] Weng P.Fairness in reinforcement learning.2019. arXiv:1907.10323.
[27] High-Level Expert Group on AI.Ethics guidelines for trustworthy AI[Internet].Brussels:European Commisiion;2019 Apr 8[cited 2019 Dec 18].Availablefrom:https://ec.europa.eu/digital-single-market/en/news/ethics-guidelinestrustworthy-ai
[28] Trump DJ.Executive order on maintaining American leadership in artificial intelligence [Internet].Wahington,DC: The White House;2019 Feb 11[cited 2019 Dec 18].Available from: https://www.whitehouse.gov/presidential-actions/executive-order-maintaining-american-leadership-artificialintelligence/
[29] Tencent AI Lab. Technological ethics at intelligent era—reshape trustworthiness in digital society[Internet].Beijing:Tencent Research Institute;2019 Jul 8 [cited 2019 Dec 18].Available from:https://tisi. org/10890. Chinese.
[30] Meet the Partners [Internet]. San Francisco:Partnership on AI;c2016–2018[cited 2019 Dec 18]. Available from:https://www.partnershiponai.org/ partners/
[31] Li Q,Wen Z,Wu Z,Hu S,Wang N,He B.Federated learning systems:vision,hype and reality for data privacy and protection.2019.arXiv:1907.09693.
[34] Cao Y,Xiao C,Yang D,Fang J,Yang R,Liu M,et al.Adversarial objects against LiDAR-based autonomous driving systems.2019.arXiv:1907.05418.
[35] Arya V,Bellamy RK,Chen PY,Dhurandhar A,Hind M,Hoffman SC,et al.One explanation does not fit all:a toolkit and taxonomy of AI explainability techniques.2019.arXiv:1909.03012.
[36] Yu H,Shen Z,Miao C,Leung C,Lesser VR,Yang Q.Building ethics into artificial intelligence.In:Proceedings of the 27th International Joint Conference on Artificial Intelligence;2018 Jul 13–19;Stockholm,Sweden;2018.p.5527–33.
[39] Conitzer V,Sinnott-Armstrong W,Borg JS,Deng Y,Kramer M.Moral decision making frameworks for artificial intelligence.In:Proceedings of the 31st AAAI Conference on Artificial Intelligence;2017 Feb 4–10;San Francisco,CA,USA;2017.p.4831–5.
[40] Kim R,Kleiman-Weiner M,Abeliuk A,Awad E,Dsouza S,Tenenbaum JB,et al. A computational model of commonsense moral decision making.In: Proceedings of the 2018 AAAI/ACM Conference on AI,Ethics,and Society;2018 Feb 2–3;New Orleans,LA,USA;2018.p.197–203.
[41] National Artificial Intelligence Standardization Steering Committee.Report on artificial intelligence ethical risk analysis[Internet].[cited 2019 Dec 18].Available from: http://www.cesi.ac.cn/images/ editor/20190425/20190425142632634001.pdf.Chinese.
[42] Crawford K,Calo R.There is a blind spot in AI research.Nature 2016;538(7625):311–3.