关键词:人工智能,人权,伦理
人工智能是新一轮科技革命和产业革命的重要驱动力量,众多国家已将人工智能提升为国家战略。然而,人工智能的发展和应用也引起了许多相关人权风险,如果缺乏相应的治理措施,不但可能会制约该技术的发展,而且可能因该技术被误用、滥用、恶用而给人类带来灾难。人工智能相关的人权问题是人工智能理论和实践中一个亟待解决的问题。事实上,人工智能的人权问题也已经是国内外学术界关注的热点问题之一。目前关于人工智能相关的人权问题研究多来自法学领域,来自哲学和伦理学领域的相对较少。人权从内容上通常被划分为人身人格权利、政治权利以及经济、社会和文化权利(下文简称为经社文权利)三种类型,在实践中可区分为“应有权利、法定权利、实有权利”三种存在形态,作为伦理学讨论对象的人权更多的是指应有权利,也即道德人权,是以实践理性为出发点并为法定权利、实有权利提供形而上学奠基的逻辑前提。有鉴于此,本文从伦理视角来检视人工智能发展的人权风险,剖析原因,并尝试提出针对性的治理路径,以期为我国建成更加完善的人工智能伦理规范、法律规范和政策体系提供参考。
一、人工智能时代人权面临的伦理风险与挑战
人工智能的飞速发展对人权而言既是机遇也是挑战。毋庸置疑,人工智能一定程度上保障和促进了人权。这主要表现在以下两个方面:第一,人工智能是保障和促进人权的新手段和新方式。经济基础是保障人权的根本条件,人工智能的科技作为第一生产力不但促进了经济发展,从而在一般意义上有利于保障人权,而且从技术自身来看,它也能保障人权和赋能人权。例如,当前人工智能在医疗、教育、商业、服务、交通、司法、政务等领域的应用方便了人类生活,提高了工作效率,减轻了劳动负担,极大地解放了人。而且,国际人权组织以及各国人权组织都开始利用人工智能进行人权调查,促进了世界人权理论和实践的发展。第二,人工智能推动了人类思想观念的进步,从而带来人权内涵的拓展。人工智能的发展使人权具有了新的表现形式,催生了上网权、数据权、虚拟财产权、通用人工智能和超人工智能的人权等关于第四代人权乃至第五代人权的讨论,拓展了人权内涵。然而,人工智能的发展也可能削弱威胁甚至践踏人权。人工智能的基础层、技术层、应用层的运作,或者说人工智能生命周期的每一个阶段,都有可能带来人权的风险和挑战。具体包括在人工智能的设计开发和应用中泄露用户隐私(隐私权);侵犯用户的财产(财产权);动摇人们公平参与社会活动和享有社会资源的权利(经社文权利);干涉用户对自我意识与行为的判断决策,动摇人的独立自主性(自由权);代替人类劳动导致技术性失业(工作权);技术与权力相结合形成技术政治,加深数字鸿沟和社会不公(平等权、自由权);由人工智能算法系统的偏见会导致的歧视(少数群体平等和不受歧视权、平等权)等等。概言之,人工智能不但挑战了世界人权组织和人权国际公约中提到的普遍人权中的多种权利,更严重的是,人工智能还挑战了人权的底层逻辑和立足之本。
(一)挑战基本人权
如前所述,作为应有权利的基本人权可以划分为人身人格权利、政治权利以及经社文权利三种类型外,或者被区分成个体人权和集体人权,即“个体自主的权利”和“集体自决的权利”。人工智能的发展和应用对人的这些权利构成了冲击和挑战,下文将对目前受人工智能影响较大的几种人权风险现象择要列举和诠释。
第一,隐私权、生命权、安全权等人身人格权利受到挑战。隐私权受到侵犯一直是人工智能备受诟病的问题。相较于现实空间,在数字公共空间保护个人隐私难度大得多。由于人工智能的基础技术之一是大数据技术,从大数据技术运作角度讲,数据采集、数据预处理、模型训练、模型部署、模型推理直到数据退役的数据全生命周期的各环节都存在数据泄露的可能,增加了侵犯隐私权的几率。换言之,从数据主体角度讲,人工智能挑战隐私权表现在个人信息的被收集、存储、处理、使用等各个环节,包括窃取、篡改、泄露个人数据和未经知情同意而非法搜集和利用个人数据,侵犯个人的数据权。而个人数据权被侵犯不仅意味着隐私权被侵犯,而且其他与个人数据相关的权利也面临极大风险。甚至可以说,我们的日常生活到处都存在数字画像泄露个人隐私的风险,对数字时代全民“裸奔”的调侃并非空穴来风。未来人工智能与行业相结合,合规的数据联合建模是发展的大方向,联邦学习将成为推动人工智能大规模产业化的重要驱动力。在这种背景下,数据安全和数据隐私保护将愈发面临巨大挑战。
生命权和安全权受到威胁是医疗人工智能、人工智能自动驾驶、人工智能武器系统等领域令人担忧的问题。智能机器人是否会危害人类的健康和生命一直是学界关注的一个焦点,其中医疗机器人和杀手机器人的应用尤为令人担忧。自动驾驶的安全性和其面临“电车难题”时如何编程的问题也曾一度成为热门话题,至今仍未解决。例如,在生命科学领域,手术机器人和人工智能医学影像分析是否可能出错?在军事领域,目前正被美、韩、俄、英、德、日等一些国家追逐的致命性自主武器系统(杀手机器人)是否会违背人类的命令,按照自己的思路去杀人?国际机器人武器控制国际委员会的联合创始人阿萨罗也强调,“有关生命和正当程序的人权以及克减上述人权的限制条件,意味着一系列与自动化和自主技术相关的具体义务。特别是,个人和国家在和平时期以及战斗员、军事组织和国家在武装冲突局势中都有义务在任何情况下,不赋予机器或自动化程序脱离人类基于道德与法律合法性的判断而使用致命武器的权力或能力”。这种担忧不无道理。因为自主武器系统不仅威胁到国际和平与安全,威胁到战争中平民的生命安全,也难以让人对该系统造成的不法伤害负责。
第二,平等权、自由权、公平审判权等政治权利受到挑战。人工智能发展和应用中挑战平等权、自由权和公平审判权的现象表现在以下几个方面。其一,造就数字鸿沟和数字弱势群体。由于人工智能使用有门槛,无形中造就了数字鸿沟和数字弱势群体。数字弱势群体上网权的不平等还进一步致使其政治权利、经济权利、社会权利和文化权利的不平等。例如在教育、医疗、就业、获得物资等方面的机会不平等。其二,制造信息茧房和算法歧视。人工智能在医疗保健、保险承保、招聘、假释决定中的算法歧视(包括性别歧视和种族歧视)也侵犯平等权。例如,谷歌高薪推荐只给男性公民,并将黑人标识为大猩猩等都是人工智能造成的典型歧视案例。其三,算法黑箱挑战了司法公正。人工智能应用于刑事司法领域时,机器学习和人工神经网络自带的“黑箱”效应,削弱乃至取消了司法过程的透明性。但是,“在司法环境中,裁判的解释性和司法的透明度具有重要的甚至是文明性的价值。缺乏透明度和可理解性的决策过程被认为是不合法和不民主的”。因此,人工智能在刑事司法中的使用可能与基本自由相悖。而且,这种半自动化的裁决导致责任分散和追责困难,可能导致审判不公,美国的卢米斯(EricLoomis)案就是典型。概言之,人工智能对公平审判权的冲击和挑战主要在于:预测警务中的不平等和歧视、影响被告有效参与诉讼的权利,以及刑事诉讼中被告随机挑选法官的权利、被告受独立公正法庭审判的权利、被告获得有效的救济措施的权利。在政务方面可能会利用人工智能进行网络舆情监控、制造信息茧房、自动禁言、自动隐藏相关发布内容,甚至深度伪造、操纵选举等等,这都有可能侵犯公民的言论自由、知情权、上网权。第三,工作权、财产权等经社文权利受到挑战。技术性失业是人工智能时代正在发生的现象。人们可以期许人工智能代替人类从事高危脏累的劳动,提高工作效率,最终解放人。然而,不得不承认,人工智能不但能代替人类的体力劳动,而且能代替人类的脑力劳动,导致技术性失业,挑战人的工作权。例如,在智能制造领域,部分工厂已经用机器人来制造机器人;在科学研究领域,我国“嫦娥三号”登月后,“玉兔号”月球车开始进行挖掘分析土壤样品、视频传输等工作。现在,ChatGPT(有人认为ChatGPT的出现就是通用人工智能的起点和强人工智能的拐点)甚至已经能写论文了。可以合理地预测,未来会有更多更智能的机器从事科研活动。
人工智能也可能被滥用而侵犯公民的财产权乃至人身权,资本主导的商业机构可能通过窃取用户数据或利用算法推荐对用户进行心理操控和诱导来赢利。例如,电商平台利用大数据技术宰熟、利用算法技术榨取快递员的剩余价值,赌场利用个性化推荐算法来操控设备并利用成瘾机制来赢利,犯罪分子利用人工智能来造假和欺骗(包括人脸深度伪造、语音造假、人脸识别欺骗、目标检测欺骗、自动驾驶欺骗等)来达到目的。
(二)挑战人权的底层逻辑和立足之本
基本人权,顾名思义,是自然人与生俱来应该享有的自然权利,它以人的感性自由为基础。这正是应有权利不同于法定权利和实有权利之处。但是人工智能的发展,尤其是生成式人工智能(AICG)的出现,挑战了“人”的定义。那么,生成式人工智能是“人”吗?能享受基本人权吗?即便生成式人工智能不享受基本人权,由于生成式人工智能具有自主性,由其带来的问题也正在挑战着传统的人权理念。
第一,“人”的本质和定义受到挑战。人权的主体是人。人是什么?传统定义的人是指自然人,是能发展出理性和自我意识的生命有机体。哲学上定义“人”都强调理性和自我意识。目前关于人工智能的技术争论和伦理争论的焦点之一也是人工智能是否可能具有理性和自我意识。那么,若有朝一日具有理性和自我意识的通用人工智能和超人工智能成为可能,是否可以说其就是一个“人”?心理学等学科强调“人”具有人类情感。目前有人认为通用人工智能和超人工智能即使可能具有理性和自我意识,也不具备人类情感。但是也有人认为人工智能也可能发展出人类情感。有人认为当前研究开发出来的人工智能已经具有意识和32种人类情感,尽管反对的一方认为那仍然是在执行程序和命令。那么,若有朝一日超人工智能发展出人类情感,是否可以说其是一个严格意义上的“人”?生物学等学科强调“人”的有机体和人的基因。但是有人认为,如果说自然人是碳基生命,机器人就是硅基生命,而在定义“人”时强调基质是无意义的。那么,硅基人是“人”吗?
第二,人权概念和人权理念受到挑战。“数字人权”的提出和相关讨论拓展了人权的内涵,同时也导致了关于第四代人权甚至第五代人权的争论。这一争论主要表现在以下三个方面:一是“数字人权”是否构成第四代人权?二是数字空间的人权和现实空间的人权相比具有哪些特殊性?三是通用人工智能和超人工智能是否应该享有人权?
首先,人们不禁要重新思考到底什么是人权?以前人们都同意人权的主体是自然人。现在有人却认为,人权不仅仅是自然人所独有。正如动物权利主义者主张应该放弃“人类中心主义”一样,后人类主义者也主张应该逐渐放弃“自然人类中心主义”,承认有意识的人工智能享有人权。换言之,新的人工思维机器、新的智能族群正在到来,这个新的“数字族群”应该得到尊严与权利。其次,自然人在数字时代会成为弱势群体吗?在数字时代应该如何平衡自然人的人权和人工智能机器人的“人权”?以前人们都同意机器人只是工具,是为人类服务的,现在有人却认为,应该有新的法则来规定人类应该如何对待有意识的机器人,有意识的机器人应该如何对待彼此。最后,正如动物和人类之间的相似性和连续性构成讨论动物权利的前提,一旦奇点到来,也就是说,一旦人工智能机器的智能超过人类的智能,似乎没有理由不赋予智能机器人以人权。若果真如此,那应该是第五代人权清单上的内容。当然如此这般地扩大人权主体,也存在隐忧。如果这样扩展权利主体的范围,使人权的主体被扩大到河流、山川、地球、生物和后人类,可能导致现有的人权货币严重贬值。由此可见,人工智能发展带来的围绕人权的这些观点就挑战了传统的人权概念和人权理念,也可能带来人权概念和人权理念的更新。随着人工智能的迅猛发展,其赋能和保障人权的力量会越来越大,同时其给人权带来的风险和挑战也越来越大。如果能在深入研究的基础上配备管理优化和伦理治理能力的提升,人工智能赋能和促进人权的积极作用会得到更加充分地发挥,其带来的人权风险和挑战会得到最大限度的控制。因此我们需要考察导致风险的原因,从而有针对性地提出治理路径。
二、人工智能引发人权伦理风险的原因
有的学者将人工智能对人权的挑战归因于技术的资本主义应用,并主张只要将技术由资本控制改为国家控制就能解决人工智能的人权风险。这种观点过于片面和乐观。《人工智能伦理治理标准化指南(2023版)》从数据、算法、系统(决策方式)和人为因素四个方面分析了人工智能的伦理风险来源,从人工智能的技术开发和应用方面对该技术的伦理风险进行了分类,但不足以导向全面和完善的人权风险的伦理治理。有人指出人工智能形成的数字社会和数字空间具有六个特点,这能为我们分析人工智能的人权风险产生的原因和提出治理方案提供一些有益的启示,但仍然有待进一步深究和完善。导致人工智能带来人权风险的原因是多层面和多样化的,主要集中在以下几个方面。
(一)对人工智能的本质和特点缺乏足够的认识
海德格尔深刻地揭示了技术的本质———现代技术不仅仅是工具和手段,技术的本质是一种解蔽方式。然而,人工智能这种技术的本质却异化了,“这种人工智能其实恰好成了一种非人的智能,它并不介意自己演化为一种恶魔的智能、反人类的智能,……人类越来越把握不住自己的作品了,他们将被自己的作品所支配、所奴役、所损害,下降为这个作品的工具或仆从,进而失去做人的资格”。面对技术的异化,不少人仍沉溺于工具理性的泥沼,对人工智能带来的高效和便利引以为傲,却对人工智能本质的这种异化缺乏足够清醒的认识和深刻的反省。
马克思在劳动异化学说中指出,异化是人类创造的物质或精神的产品成为异己的力量,反过来控制和奴役人类自身。有人用马克思的劳动异化学说分析人工智能,认为人工智能的异化是马克思异化理论的新呈现方式。在人工智能当中,异化体现为人工智能算法与算法设计者的分离、人工智能机器加深了人的自我异化危机、人的类本质异化以及人的交往危机。邓晓芒认为,马克思劳动异化理论的四个方面中最根本的是劳动活动本身的异化,它是其他各种异化现象的起源和本质。再往上追溯,则起源于“资本主义生产关系导致的劳动活动中的意识与生命活动的分离”。人被异化为机器的奴仆,失去了自主性和自由意志。虽然马克思的着眼点是政治经济学的异化,但是这种异化根源于人类发展的本质。因为人的本质是自否定。自否定激发出劳动活动本身的异化,以至于劳动产品的异化、人的类本质的异化和人际关系的异化。邓晓芒结合海德格尔对技术本质的追问和马克思的劳动异化学说以及他发现的人类起源之初所具有的携带工具的特点,对人工智能的本质做了哲学人类学的研究,认为人工智能的本质必须从技术的本质来理解,技术的本质又必须从劳动的本质来理解,而劳动的本质必须从人的本质即“有意识的生命活动”来理解,所有这些理解都存在异化的可能,而人性的丰富性就不断地被异化所遮蔽,只有坚守住人类的人文底蕴,才能解蔽,守护技术的本质和人的本质。
人工智能相较于传统技术的特点表现在人工智能的可计算性、快速迭代,同时具有自主性、不可解释性和不可控性,因而人工智能相较于传统技术而言具有更高风险,且其风险具有隐蔽性和弥散性。不了解人工智能的本质和特点,人就会安于人工智能的异化,被动服从人工智能本身的逻辑,沦为技术的工具和手段。如此一来,当人工智能侵犯人权时,人自己就成了帮凶,或者无意识地甘愿服从。
(二)关于“数字人权”的研究仍然聚讼纷纭
如果说对人工智能的本质、特点以及对社会影响认识不足,是导致其发展无度和应对失据并挑战人权的原因,那么对“数字人权”的研究迄今为止仍然聚讼纷纭,则可能是由于人权意识淡薄和相关制度和法规不健全,无法定位和解决人工智能的侵权行为的原因。
数字时代的基本人权与以往非数字时代的基本人权有什么不同吗?数字时代人权的表现形式发生了变化吗?所谓“数字人权”是“数字的人权化”还是“人权的数字化”?“数字人权”是“新型人权”还是“新兴人权”?只有从理论上对“数字人权”有了明确的定位,才能指导实践,才能采取正确的措施或制定预案来保护人权,减少人工智能带来的人权伦理风险。但是目前理论界对数字人权的研究还处于聚讼纷纭阶段。关于“数字人权”是否构成第四代人权存在赞成和反对两派。关于数字人权到底属于新兴权利、新型权利还是传统人权也存在争议。因此,甚至有人认为“数字人权”与人权的道德基础、人权规范体系、人权的社会实效均存在抵牾,而且这个概念还可能导致人的工具化、透明化和自主性丧失,因此“数字人权”这个概念是不必要的。相反,应该建构一种无须“数字人权”的数字社会“人权领域法”。事实上,这个问题不解决,将极大地影响到人工智能时代人权的保护。
(三)人工智能主体及从业人员道德责任感缺失
任何伦理问题归根到底都是人的问题,且常常表现为利益争端。技术的加持不过是或者把人的问题和利益问题以新的形式表现出来,或者使之合理化,又或者使之伪装得更隐蔽而不易觉察和追责罢了。由于人工智能的主体有开发人员及其资助者、生产者、所有权人、占有人、机器人操作员、政府机构和管理机构、用户和其他与人工智能交互的人员,人工智能的发展和人权伦理风险受以上一个或多个主体的影响。由此可见,人工智能时代道德责任主体和利益相关者不但包括个体,而且常常是群体,因此,问责常常非常困难甚至变得不可能。这也是人工智能引起人权伦理风险必须及早预警和防范的原因。
例如,即使人们知道智能武器系统(杀手机器人)挑战着平民生命权和安全权,但那些国家仍然因为军备竞赛需要而难以停下。即使有些政府机构和管理机构知道大量利用人工智能监控会侵犯公民的隐私权,但出于利益考量还是没有放弃。其他情况下,一些人工智能相关机构和从业人员由于道德责任感缺失,也会为了企业或个人私利罔顾人权,而大数据技术和算法技术在客观上为其提供了便利。例如,有些人工智能应用机构在资本驱动和利己主义价值观的指导下,会聘请技术人员开发人工智能系统和产品,并且故意将偏见和歧视性价值观编程进人工智能系统或输入进人工智能产品,或者利用人性的弱点来编程赢利。从事人工智能研发的程序员可能为了个人利益也甘愿听从公司命令,最终导致其客户的多种人权受到侵犯。还有一些技术狂人抱持技术至上主义和数据霸权主义,忽视技术风险,人权意识淡薄,无节制地研发通用人工智能和超级人工智能,直接挑战人权理念和人权的立足之本即人的本质。
(四)人工智能设计缺陷和算法黑箱效应
设计缺陷主要表现在数据处理方面。人工智能的基础是大数据和算法,在人工智能产品设计和开发过程中,一是数据的采集、预处理、使用和退役过程中设计不周密都有可能导致隐私泄露和不平等;二是系统开发过程如果存在数据集代表性差、规模不清晰、均衡性不足等问题就会导致不公平,由此进一步导致所谓算法偏见和歧视;三是如果存在系统漏洞,则可能存在更多的隐私泄露并加剧上述不平等和不公平。在设计缺陷的基础上,机器学习又进一步产生了数字空间的规则,而采用复杂神经网络技术则更进一步导致算法的不透明性和可解释性低,这也就是算法黑箱效应。此前提下的算法将一步一步固化以上不平等、偏见和歧视,并且导致人们对于侵权行为难以追责和维权。
(五)风险意识薄弱和相关制度法规不健全
风险管理研究领域通常的做法就是首先进行风险识别和风险评估,针对不同类型与程度的风险采取不同的措施来防范和治理。有些风险是已知的或显而易见的,有些则是隐而不显的,因此风险识别和风险预测十分重要。说到底,人工智能的人权伦理风险管理就是寻求技术发展和人权保护之间的平衡,过严的风险管控会阻碍科技发展,过宽则可能带来人权灾难。正如俄罗斯机器人学与人工智能管理问题研究中心在《机器人学与人工智能示范公约》开篇即表明的那样,“认识到科学技术进步的作用和其提供的机遇,以及其对世界秩序、国家、经济、社会和人类个体影响的风险评估是当前首要的任务之一”,“绝不能忽视机器人和人工智能等新技术的使用可能带来的潜在危险和威胁。绝不能排除大规模使用机器人和人工智能可能对现存的世界秩序或人类个体类种族造成灾难性后果”。
人工智能全生命周期的制度混合法规不健全主要表现在以下两个方面。一方面,国际间和某个国家的行业内部都缺乏统一的关于人工智能设计开发和应用的技术和伦理规范。即,既存在普适性的技术标准和伦理规范体系建设的不足,又存在针对各领域的各种人工智能的技术标准和伦理规范体系建设不足。另一方面,目前对于人工智能应用过程中引起的侵犯人权问题,缺乏有效监管机制和追责程序。由于人工智能产品的个人用户分散,而且个人用户与产品开发者和机构用户(服务提供者)的地位悬殊,因而个人用户不具备谈判机会和能力,也缺乏有效的维权和申诉渠道。由于各国人工智能发展不平衡以及各国不同的战略考虑,国际上对人工智能人权伦理风险及其治理方案还没有形成共识,国际法和大多数国家的法律制度没有提供有关人工智能人权伦理风险的治理的模式和路径。出于以上原因,迄今为止还未有关于人工智能的人权伦理风险的成体系的权威研究。虽然社会各界都有人对人工智能带来的人权伦理风险给予关注和担忧,但这种关注和担忧仍处于自发状态。目前国际组织、欧盟、美国、德国、英国、日本、新加坡等国家都颁布了一些相关技术规范、伦理指南、法律法规和监管措施的文件,大体可分为一般性的针对人工智能发展而颁布的保护人权的文件和针对人工智能在具体领域应用而颁布的保护人权的文件。我国也颁布了一系列人工智能相关的技术规范、伦理规范、法律法规。尽管如此,针对人工智能的不同类型和不同应用领域和应用场景的伦理和法律文件数量仍然较少且较粗略,有待进一步完善。总之,造成人工智能引发人权伦理风险的原因是多方面的。既有主观上人们对人工智能的本质研究不够、对数字人权的认识不足、对人权风险的重视不够、相关制度和法规不健全,也有客观上人工智能有门槛、资本逐利的本质、作为人工智能基础技术的大数据技术的特点、算法技术本身的缺陷将各种人权风险在人工智能产品的研发、运营和管理的各个环节合理化、普遍化,等等。而且人工智能的多主体性还导致维权困难,因此探讨人权风险的治理路径更为紧迫。
三、治理路径
鉴于人工智能引起的人权伦理风险及其成因的复杂性,其治理路径必须是综合治理。包括深入研究人工智能的本质和特点,加快研究人工智能时代人权的内容和特点,警惕公权力借助人工智能变相扩张以致侵犯人权,加强人工智能相关从业人员的伦理培训,增强其人权意识和负责任创新意识、以及对人工智能的全生命周期进行管理和制定法规等等。
第一,深入研究人工智能的本质和特点,为技术发展设定边界。人工智能作为数字技术的最前沿,由于其有了主体性,而且本质被异化,所以它对社会的影响是革命性的。人们已经认识到了研究人工智能的本质的重要性,最近几年国内外已经召开了多次人工智能哲学研讨会,有不少期刊也组织了专题,这是令人欣慰的。即使如此,由于人工智能发展的势头非常强劲,技术迭代的速度也非常迅猛,新问题和新挑战会不断出现,因此我们仍然需要对人工智能的本质进行持续的深入研究,尤其要重视人工智能的特点及其对社会的影响,为技术发展设定边界。
第二,加快研究数字人权的内容和特点,避免公权力借助人工智能变相扩张。社会各界对人工智能的人权伦理风险的认识和重视亟待加强,而对数字人权的研究结论是增强人工智能主体人权意识的基础,也是制定相关制度和法规的基础。研究数字人权的目的不仅是要保障传统的人权,更要防范和限制公权力借助数字技术变相扩张。适度限制公权力是保障基本人权的手段之一。首先,企业用户利用人工智能盈利的诉求是客观存在的,关键是如何保持效益和公正之间的平衡。企业用户利用人工智能来控制成本和提高效益应以不侵犯人权为底线。例如,人工智能的基础技术是大数据技术,而数据的易挖掘和可永久保存、可分析性强、可溯源等特性,导致其容易被资本青睐和操控以攫取暴利。而在资本驱动无序扩张的过程中,容易造成数据主体的数据权被侵犯,其隐私权乃至人格权被侵犯。其次,人工智能已经有别于仅仅作为工具的传统技术,它具有自主性和能动性,甚至技术能脱离人的控制反过来支配人,形成技术权力。因此,政府部门或其它组织机构很容易披着合法性外衣,借助人工智能将权力的触角伸向私人领域。再次,由于人工智能有应用门槛,个人用户之间的数字鸿沟是客观存在的,恰当的做法是采取措施尽量保证数字弱势群体的人权。如果公权力机构没有充分考虑这一点,而是一刀切地在涉及公民福利的各领域应用数字技术,就意味着弱势群体需要借助数字技术才能更好地实现的人身人格权利、政治权利以及经社文权利无法得到充分保障与实现。最后,在人工智能时代,不仅个体,甚至社会各种组织机构也形成了数据依赖,这就阻碍了人的发展或否定了人的发展,挑战了人的自由权和人格尊严。诸如此类,看似是数字技术霸权,其实质则是公权力借助数字技术挑战人权。这是应该警惕和避免的。
第三,成立人工智能伦理委员会,进行伦理审查和推行负责任的创新理念。在生命科技高速发展不断挑战人权和人的尊严时,该领域成立了各级生命伦理委员会,取得了良好的效果。如今我们可以借鉴这种方式成立人工智能伦理委员会。人工智能伦理委员会应由政府的科技管理部门人员、人工智能产品开发企业的领导和项目研发人员(PI)、机构用户、个人用户、人权组织、律师、伦理学家、社会学家等各类人员组成。伦理委员会负责制定出各类人工智能伦理原则和伦理指南,并根据这些原则和指南对各种机构拟开展的研究和机构用户的应用进行伦理审查。伦理委员会还定期或不定期对相关从业人员进行伦理教育和培训,其中包括人权教育和培训,并推行负责任创新理念。负责任创新理念基于风险社会的责任伦理理论,具有合理性和应用价值,也具有可操作性,已成为当代技术创新领域的共识。在人工智能领推行负责任创新理念旨在强化从业人员的道德自律。要让相关从业人员乃至公众认识人工智能的本质和特点,了解无节制地研发人工智能不但会侵犯人权,甚至挑战人权的底层逻辑和立足之本,威胁人类文明。
第四,进行价值敏感设计,大力发展可解释的人工智能。“解铃还须系铃人”,单单由于技术带来的问题还需发展技术来解决。针对上文原因分析中的人工智能产品设计缺陷和算法黑箱效应这一因素,除了需要不断完善数据全生命周期的各个环节的设计,并针对系统漏洞不断修补和更新系统外,还应尽量进行价值敏感设计和大力发展可解释的人工智能。首先,所谓价值敏感设计,就是在人工智能程序和产品设计过程中都应该尽量将人类普世价值观融入到人工智能的全生命周期中,即贯穿到从设计,到数据收集、产品开发、内部评估测试、上市前评估测试、上市后跟踪反馈评估整个链条,始终关注隐私和公平等人权问题,提升技术的安全性、鲁棒性和可解释性以便赋能和保障人权。如,针对隐私泄露问题,采取安全计算、联邦学习、同态加密等技术时可以在不直接访问用户数据隐私条件下分布式进行人工智能模型训练。采用同态加密隐私保护技术、差分隐私保护技术来保护机器学习和深度学习中用户的敏感数据。针对安全性和鲁棒性,
已经形成对抗测试、博弈模型、形式化验证等多种解决方案。针对透明性和可解释性,尝试在建模中融入人工经验。针对公平问题,采用公平测试数据集和公平的机器学习设计对相关偏差进行纠偏,等等。其次,发展“可解释的人工智能”来弥补目前人工智能算法的不透明性,解决算法黑箱带来的人权伦理风险,这也是当前世界共识。实现这一理想任重而道远。
第五,加快人工智能的风险评级,尽快健全相关法律法规。关于技术的风险评级,我们可以参考他国经验,同时积极探索一条适合我国的模式和路径。俄罗斯于2017年颁布的《机器人学与人工智能示范公约》规定,使用机器人的一般规则包括尊重人权和公认的道德以及伦理规范,尊重人的尊严。对于因为其构造和用途而会潜在地造成重大或致命损害的高度危险的机器人必须防止未经授权的第三方访问,应设置“黑匣子”和“红色按钮”。欧盟委员会于2021年发布的《人工智能法案》中将人工智能的风险分为最小风险、有限的风险、高风险和不可接受的风险,并分别列出了其具体应用领域和场景中的表现,以及给出了针对性的监管措施。我国应加快进行人工智能的人权风险识别、风险评估和风险分类,并随着技术的发展适时调整风险评级或重新识别和评估风险。
总的来讲,目前美国人工智能领先世界各国,其立法措施原来一直较为宽松。不过在今年的“人工智能洞察论坛”上,舒默试图推动囊括美国国家安全、就业、民众偏见等人工智能所涉及的多个层面的全方位立法,有文章认为这虽然值得称赞但并不现实。欧盟国家在人工智能相关伦理和法律规范上则颇有建树,一直走在世界前列。但是2021年4月21日欧盟颁布的《人工智能法案》也引起了许多质疑和争议,比如有人认为欧盟的这个法案“引入市场规制路径,责任机制存在缺陷”,“超前制定监管措施,引发妨碍产业发展的担忧”,“过于倚重企业自治,规制的有效性受到质疑”。其他国家对于人工智能带来的人权风险的案例和治理的经验和教训值得我们认真研究和审慎对待。我国应建立由政府机构、从业人员和公众共同参与的数字人权的监管机制,这也是保护数字人权的有效措施。有效的监管机制可以由政府有关部门外部监管、人工智能产品开发企业内部监管,以及公众对人工智能产品用户进行监管三个部分共同组成,用以动态评估人工智能对人权的影响。
四、结语
在人工智能的人权伦理风险治理方面,全球学术界和工业界目前的共识是,发展人工智能的目的是确保人工智能服务于人类福祉,而不是以“机器文明”来取代“人类文明”。当前人工智能界仍然有多数人希望建造可信赖的安全的强人工智能来实现复杂的信息交流、物理与人的融合交互。虽然如此,由于世界各国人工智能的发展速度、技术水平和应用领域存在较大不同,因而对人工智能的人权伦理治理路径存在差异。我国主张人工智能的发展与治理并重,积极促进国际治理合力。这体现了基于文明互鉴进行人工智能全球治理的中国智慧。鉴于目前研发和应用的人工智能绝大部分只是作为人类技术手段的弱人工智能,其带来的人权风险和挑战还是可控的,我们可以根据其轻重缓急,以点带面地完善伦理指南和政策法规。有专家预测通用人工智能最早可能于2040年出现,将来还可能研发出超人工智能,因此未来人工智能引发的人权伦理风险会更为严峻。如果通用人工智能有意识和自我意识,如果超人工智能超越人类成为后人类,那对人权将意味着什么?我们又将如何应对?我们认为,鉴于人工智能发展对赋能人权和保障人权的巨大利益与其带来的人权伦理风险和挑战之间的张力,过激反应因噎废食和放任自流坐以待毙两者都不可取,应当建立起一种人工智能的人权伦理风险的预警机制,并做到随时监测、评估和调整。附注:本文受到华中科技大学文科双一流建设项目基金(文科创新团队———科技伦理与“哲学+”前沿创新团队)资助;得到北京师范大学珠海校区揭榜挂帅重点科研平台人工智能伦理治理实验室的支持。
参考文献
1.陈芳 &刘思远.(2024).“人工智能时代的人权伦理问题研究."《法律与社会》
2.郑天明.(2024).“人工智能发展中的伦理风险及其治理对策”《现代哲学》
3.罗振东 &韩丽君.(2023).“人工智能与法律规制:人权视角下的分析.”
4.周建国.”人工智能时代人权保护的伦理挑战与对策研究
5.赵红兵 &朱梦莹.(2024)."信息技术背景下人权的伦理风险及治理路径探索.












