人物声音

当前位置: 首页 > 人物声音 > 正文

卢卫红:发展负责任的人工智能

来源:中国社会科学网-中国社会科学报   时间:2021-06-29  浏览:

经过三次发展浪潮,人工智能已渗透到人类生产、生活的方方面面,在制造业、交通、教育、医疗、家居、金融等领域得到广泛应用。人工智能的发展及应用带来了诸多益处,但也引发了诸多问题。比如,安全、失业、隐私侵犯、算法歧视等。面对可能存在的风险,“负责任”成为人工智能发展的必然要求。2019年6月,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,明确将“负责任”作为人工智能治理的重要原则。从目前国内和国际范围内发布的关于人工智能的文件、规范及相关领域的理论和实践研究来看,发展负责任的人工智能已成为广泛共识。负责任的人工智能面临两个现实性难题:谁来负责?如何负责?第一个问题是关于责任主体的确定,即人工智能产生的责任由谁来承担;第二个问题指向发展负责任人工智能的途径,即责任主体如何尽责。

  人工智能的责任问题

  在人工智能的多个应用领域,目前都已产生了实际的责任问题。比如,在自动驾驶领域,已发生过多起由人工智能导致的交通事故。2018年3月,美国亚利桑那州发生了一起优步自动驾驶汽车引发的车祸,导致一名路人死亡。在事后的调查和报道中,关于责任认定存在一定争议。有报道提出,该起事故应归责于软件缺陷,也有报道认为是行人的责任而非车辆的责任。这个案例引出的问题是:自动驾驶领域中交通事故的责任该由谁负责?是通过自动驾驶法案的政府、自动驾驶程序编程人员、汽车制造公司,还是优步、用户、行人?

  再比如,在医疗领域,也存在着人工智能应用带来的责任问题。德国康斯坦茨大学学者贾布里(Sarah Jabri)曾在研究中介绍过一个相关案例:光学相干断层成像(Optical Coherence Tomography,OCT)技术可以实现视网膜等眼组织的活体三维高分辨成像,用于视网膜病变等眼部疾病的诊断和治疗。在临床实践中,很少有专家能够对OCT进行正确评估,因此经常造成治疗的延迟。针对这种状况,人工智能专家开发了一种利用计算机辅助诊断的深度学习算法,能够评估OCT所做的诊断,并根据治疗的紧急程度对患者进行分类,以减少重症患者的等待时间。测试表明该人工智能技术已达到甚至超过人类专家的表现,并显示出临床适用性。在这个案例中,当人工智能被用于患者优先治疗顺序的确定与实际诊断,并会影响甚至决定治疗的成功与否时,相应的伦理以及责任问题就产生了。医生应在多大程度上依赖人工智能技术?由此产生的诊断失误、医疗事故应由谁负责?是监管主体、研发人员还是临床医师?

  传统的交通驾驶领域有一整套关于责任认定和划分的规则;在传统医疗领域,主要关系是医生与患者的关系,其责任也相对容易界定。但是从以上两个案例可以看出,由于人工智能因素的介入,责任主体的界定以及责任主体应如何负责变得更为复杂。

  谁来负责

  需要明确的是,人工智能在当前的发展水平下还不能作为责任主体。尽管目前关于人工智能是否具有主体地位仍存在争论,但现在的人工智能作为技术人工物,本质上仍是人类为了达成某种目标而制造的工具。人工智能基于数据和算法形成判断并作出选择,具有自动性但不具有自主性,具有行动能力但不具有行动意识、思维能力,因此无法成为责任主体。

  因此,当讨论人工智能的责任问题时,实质上讨论的是人类的责任。在全国信息安全标准化技术委员会秘书处2021年1月发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》中,提出了四大责任主体:研究开发者、设计制造者、部署应用者及用户。在《新一代人工智能治理原则——发展负责任的人工智能》中,提出了共担责任的原则,涉及“研发者、使用者和受用者”几个主体。尽管不同文件中所界定的责任主体不完全相同,但可以明确的是,人工智能的责任主体不是某个单一群体,而是多元行为主体。

  由于太多行为主体参与到人工智能技术的研发、制造与使用中,可能会导致具体责任难以认定及责任主体相互推诿的问题。如荷兰马斯特里赫特大学学者韦尔伯斯(Katinka Waelbers)所言,“自然科学家经常声称他们只是开发知识,实际应用不在他们的责任范围之内。工程师和工程公司认为他们的设备没有问题,并以此来推卸责任。在他们看来,技术的使用(或滥用)才是问题的根源。而用户则倾向于声称自己缺乏能力:一个普通消费者怎么会知道技术的影响呢?即使有了知识,个人还能做些什么?他们经常指出政府应该承担责任。然而,西方政府机构的行动往往落后于技术的发展”。在人工智能责任问题上存在的这种困境,会引出发展负责任的人工智能所要回答的第二个问题:如何负责?

  如何负责

  要解决如何负责的问题,各个责任主体需明确并承担起相应责任。综合考虑上文各文件中关于责任主体的界定,可以将责任主体划分为监管者、研发者、生产制造者和使用者。

  监管者。这类主体主要指政府部门,也包括参与人工智能监管的非政府机构、组织和团体。从目前世界范围来看,各主要国家的政府机构都相继发布了人工智能发展报告纲要,制定了相应国家政策和发展战略,对人工智能发展进行了伦理监管。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部五部门于2020年7月联合印发了《国家新一代人工智能标准体系建设指南》,为人工智能重点发展方向、技术研究标准体系建设进行顶层设计,提供指导方案。人工智能处于飞速发展之中,政府及相关组织团体需要准确把握人工智能发展大势,为人工智能发展制定更具前瞻性的标准体系、管理规范,持续跟进领域内最新动态,并对研发、制造、使用等环节进行监测和管理。

  研发者。这类主体是指从事人工智能理论创新和技术研发的组织或个人。人工智能所要遵循的伦理原则、价值与标准需要在研发环节置入。由于人工智能的行为及功能由算法决定,研发主体需要充分考虑其研发成果可能导致的风险,明确人工智能需要遵循的人类价值观和伦理规则,如公平、安全、透明与多样性等。其中透明原则是发展“负责任”人工智能的基本要求。因为,在“黑箱”情况下,主体很难承担责任。另外,人工智能技术不是独立于社会而存在的,研发主体需要考虑人工智能发展的社会文化环境,并考虑价值设置的优先等级,如我国在人工智能发展中要求重视集体利益、社会稳定等。

  生产制造者。这类主体是指从事人工智能产品生产制造的组织或个人。国家标准化管理委员会发布的《人工智能标准化白皮书(2018版)》将人工智能产品界定为“人工智能领域的技术成果集成化、产品化”,并将人工智能产品分为智能机器人、智能运载工具、智能终端、自然语言处理、计算机视觉等类型。在这些人工智能产品的生产中,生产主体应严格遵守人工智能领域的法规和行业标准,确保所制造的产品符合社会及人类利益;充分评估产品使用中可能存在的风险,并设置相应的应急机制;保证产品的可解释性和可说明性,并为使用者提供关于产品功能、使用方式及风险应对等方面的明确信息。

  使用者。这类主体是指在各种情况下使用人工智能技术产品的组织或个人。使用主体应具备使用人工智能所要求的基本知识和能力,能够正确、规范使用技术产品,且不能利用人工智能实施任何有害他人及社会的行为。为了使用主体更好地承担其主体责任,需要普及人工智能基础知识教育。这既是使用主体承担责任的基本要求,也符合其他伦理原则(如公平、反歧视等)的要求。

  以上对责任主体及各主体所要承担责任进行了概要分析。在具体实践中,需要在人工智能发展的总体框架及基本原则的指导下,根据不同领域内人工智能的发展阶段、应用场景、使用特征等分门别类地进行更细化的讨论和研究。比如,在自动驾驶领域,相关研究指出汽车厂商应是主要责任方;在医疗领域,除了上文提到的各主体,还涉及医疗机构中的专业评估组织等。

  发展负责任的人工智能,需要构建相应伦理治理原则。但我们不能仅停留在对原则、规范的探讨层面,还需要各个责任主体的合作和参与。只有各方形成合力,负责任的人工智能才有实现的可能。

  (本文系国家社科基金重大项目“人工智能伦理风险防范研究”(20&ZD041)阶段性成果)

  (作者单位:同济大学马克思主义学院)

链接:http://www.cssn.cn/zx/bwyc/202106/t20210629_5343029.shtml

 

联系我们

同济大学 版权所有    上海市四平路1239号 021-65982200

同济大学新闻中心主办    E-mail:newscenter@tongji.edu.cn

沪ICP备10014176号    沪公网安备:31009102000038号    沪举报中心