来源:期刊VIP网所属分类:计算机信息管理发布时间:2021-04-26浏览:次
摘 要:人工智能、基因重组、干细胞移植等新兴技术逐渐被应用到经济社会的发展中。然而,新技术如同“双刃剑”,可能引发道德伦理等问题,因此需要加强对新兴技术伦理治理的研究。文章聚焦人工智能,分析新兴技术发展可能带来的伦理挑战及伦理治理存在的问题,结合当前国内外人工智能伦理治理实践,提出中国人工智能伦理治理的对策建议,以期促进人工智能在发展中规范、在规范中发展。
关键词:人工智能;伦理挑战;伦理治理
现代科技发展具备的不确定性、高风险性等特点决定了科技伦理问题的产生具有必然性。如果把科学技术视为一辆正在行驶的列车,科技伦理就是指引列车前行,用以保证科技研发与应用的方向正确的路标。对新兴技术伦理的研究,一方面要对新技术的发展应用予以规范,另一方面又要保护和促进“负责任的研究”。笔者以人工智能技术的发展为例,研究新兴技术伦理治理的对策。
一、人工智能发展带来的伦理挑战
人工智能是引领新一轮科技革命和产业变革的战略性技术,不仅能替代人类的体力劳动,更几乎可以完全替代人类的脑力劳动[1]。人工智能更像是智慧载体,它可以通过深度学习不断进化,它的颠覆性、复杂性以及社会关联性等特性所引发的伦理挑战和风险日趋凸显,如何应对人工智能等新技术引发的伦理挑战已经是相关研究人员所要面对的重要课题。
(一)存在性风险对人类主体地位的挑战
随着信息技术、生物技术的发展,人机互动、人机协同甚至人机一体都成为人工智能发展的趋势。尽管现阶段对人工智能技术的开发、测试、应用等都还在一个基本可控的伦理框架内,但随着人工智技术的能进一步发展,当具备无自主意识的人工智能做出超出科研人员预期的行为并产生相应的伦理影响时,现有的伦理框架及人类的思维本质将因此面临极大的挑战。如果技术的发展推动智能机器人越来越像人类,这将会对目前社会的人际关系、家庭结构产生重大影响,甚至颠覆人类在人类活动中的主体地位。机器人是否应享有人类的基本权利?是否应建立新的人机关系甚至人际关系的价值原则?人类的唯一主体地位或将因此受到挑战[2]。随着人工智能的强智能化发展,人类有可能逐渐难以参与智能生产的过程,甚至最终成为智能机器的零件,人与机器的关系可能发生扭转,人工智能由此引发对人类传统伦理道德判断的颠覆,人类将第一次真正面对存在性风险。
(二)数据泄露和信息泛滥带来的挑战
人工智能技术的基础是基于海量数据的算法设计和深度学习,而数据的采集和使用若管理不到位会导致数据安全问题。当前互联网应用软件采集的个人信息维度多样,社交通信、移动支付、网络购物、卫星导航、智能手环等智能工具采集了用户多方面的数据,将一个人的喜好、行踪、受教育程度、职业、财富、健康等多种信息整合归纳,多维度的数据轨迹足以为个人画像。这些信息如果被非法利用就會构成对他人隐私权的侵犯。2019年8月,一款名为“ZAO”的AI换脸社交软件在年轻人中流行开来,用户只需提供一张正面照就能将其他视频中人物的脸换为自己的脸。但该软件的用户隐私协议没有对用户阐明数据泄露的风险,甚至认为该软件对使用者的肖像权具有“全球范围内免费、不可撤、永久可转授权”,而如果侵权了明星肖像,最后责任都在用户。此外,当前的监控设备也因其便捷性被广泛使用,商场、医院、学校甚至快递收取点都有监控系统。这些设施在便利工作生活、辅助安全保障的同时,收集并存储的信息并没有被合理监管,导致公民的个人隐私也存在隐患。
(三)权利与责任认定问题带来的挑战
人类对人工智能的担忧之一,就是它的高度智能化系统如果被不正当利用或者失控可能会对人类社会产生威胁,随之而来的必定是技术研究与应用引发的责任归属问题。目前已经有一些医院采用算法读取患者影像,凡是机器判断为阳性的片子,医生再通过人工诊断进行复核,诊断出来是阴性的,医生不再检查。一旦因算法出错导致误诊,特别是出现假阴性误诊,谁应该签字承担责任?再如,随着谷歌、特斯拉和Uber等智能无人驾驶致人死亡事件的相继发生,关于机器和人谁应当对此负责的伦理争论愈演愈烈。麻省理工学院进行的“道德机器”测试曾提出无人驾驶的伦理困境:通过模拟行驶中不常见的一些情景,大量采集公众选择的数据样本,“训练”一辆无人驾驶汽车的人工智能系统对这些情景作出判断。这些判断是基于公众的意见,简单来看是由公众对这些情景进行了判断,这些判断没有正确答案,但形成了无人驾驶汽车行动的依据,而由此产生的责任划分则难以明确。因此,如果事先没有适当的权责划分,容易导致人工智能产品脱离社会伦理、法律规范,其可能扰乱经济社会秩序,造成更大危害。
(四)人工智能的岗位替代带来的挑战
人工智能以其智能化、高效化,成为提高社会工作效率、提升经济效益的重要方式,实现对产业结构和社会分工模式的重构,有可能造成大量人员的结构性失业,从而影响社会公平。当前,许多领域的工作岗位已经逐渐尝试应用人工智能技术。例如,制造大廠富士康在多个工厂和多条生产线已经实现了自动化,实现了24小时的无人工厂,仅在昆山工厂就减员6万人。麻省理工学院发布研究报告称,过去20年,美国有36万—67万工作岗位被机器人夺走,未来10年,还将有350万个岗位被人工智能替代[3]。虽然这并非人类开发者刻意为之,但是人工智能技术的应用对人类就业和财富分配观念带来的影响,对社会公平可能带来的损害,都引发了潜在的伦理风险。
二、中国人工智能伦理治理的实践探索
为促进人工智能的健康发展,中国一直以来都很重视对人工智能的伦理、法律、社会影响等问题的研究,积极研究制定相关政策法规,以全球化的视角推动人工智能治理。但随着人工智能技术的快速应用与发展,与之匹配的伦理治理体系还未建立,相关政策还需不断完善,科研人员的伦理自觉还有待提升,社会影响的应对方式还需探索。
(一)主要进展
1.建立人工智能治理委员会
为推进人工智能发展,保持中国在人工智能等新技术革命中的后发优势,从2015年开始,国家通过顶层设计,有力地保障了人工智能的快速发展。2019年,中国成立了由科学技术部、国家发展和改革委员会、工业和信息化部、中国科学院、中国工程院、中国共产党中央军事委员会科学技术委员会、中国科学技术协会等15个部门构成的新一代人工智能发展规划推进办公室,随后成立了国家新一代人工智能治理专业委员会,加强了对人工智能领域科技伦理的监督。
2.发布相关治理原则和规范
《国务院关于印发新一代人工智能发展规划的通知》中提出,要形成我国人工智能法律法规、伦理规范和政策体系。国家标准化管理委员会发布《人工智能标准化白皮书(2018版)》,从国家层面明确了中国人工智能为人类服务原则和责任原则[4]。2019年6月,新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。由于人工智能技术正处于快速发展期,过早地从法制角度进行强制性约束可能会影响技术的发展和应用[5],因此这些政策仅是原则性意见或通知,尚无具体管理制度。中国人工智能学会伦理道德专业委员会正在计划针对不同行业的人工智能设立和制定种种伦理规范,如智能驾驶规范、数据伦理规范、智慧医疗伦理规范、智能制造规范、助老机器人规范等[6]。
针对一些具体技术应用领域,国家也出台了相关管理规范。2019年11月底,国家互联网信息办公室、文化和旅游部、国家广播电视总局联合印发了《网络音视频信息服务管理规定》,明确提出“利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的,应当及时采取相应的辟谣措施,并将相关信息报网信、文化和旅游、广播电视等部门备案”等规定,加强对数据隐私的管理。2018年4月,工业和信息化部、公安部和交通运输部等三部门发布了《智能网联汽车道路测试管理规范(试行)》,对测试主体、测试驾驶人、交通违法和事故处理等内容进行了明确规定,各省、市级政府相关主管部门可以组织开展智能网联汽车道路测试工作。
3.推动人工智能科研界建立共识
2019年5月25日,北京智源人工智能研究院正式成立了人工智能伦理与安全研究中心。北京智源人工智能研究院与北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位共同发布了《人工智能北京共识》。该文件提出,在人工智能的研发、使用、治理等方面应遵循有益于人类命运共同体构建和社会发展的15条原则。2020年9月14日,北京智源人工智能研究院发布了中国首个针对儿童的人工智能发展原则《面向儿童的人工智能北京共识》,作为《人工智能北京共识》针对儿童群体的实施细则,提出包括“以儿童为中心”“保护儿童权利”“承担责任”“多方治理”4大主题的19条细化原则。
(二)存在的问题
1.人工智能伦理治理体系亟待建立
在人工智能领域,技术飞速发展,但与其相匹配的管理、运行、保障、监督机制仍显滞后和发展缓慢,政府对人工智能伦理监管的顶层设计尚处于起步阶段。与人工智能类似的大数据领域已基本完成制度建设,在全国形成了协同共治的大数据管理机制,各省、自治区、直辖市都设置了由中央统一领导的大数据政务服务管理局。而在人工智能领域,目前国家新一代人工智能治理专业委员会正逐步探索构建治理体系,政府对于技术伦理的治理仍处于探索阶段,治理组织体系、监管机制、治理方案等都还不够成熟。
推荐阅读:基于人工智能技术的会展业务新模式
期刊VIP网,您身边的高端学术顾问
文章名称: 人工智能发展对伦理的挑战及其治理对策
文章地址: http://www.qikanvip.com/jisuanjixinxiguanli/57177.html