新奥门2023资料大全

大公报电子版
首页 > 评论 > 大公评论 > 正文

法政新思/善用普通法制度优势 建构人工智能监管框架\邓 凯

2024-08-10 05:01:58大公报
字号
放大
标准
分享

  就在刚刚过去的6月,香港个人资料私隐专员公署(以下简称“私隐公署”)发布了《人工智能(AI):个人资料保障模范框架》(以下简称《模范框架》)。而在更早前的2月,私隐公署则完成了历时近半年的人工智能合规检查,对相关机构在部署人工智能系统提高业务效率时的风险和影响进行评估。

  香港作为独特的法律管辖区,或许因其技术市场规模相对较小,而难以在人工智能法律监管模式上引发诸如欧盟法案那般的关注度,但不可否认,香港的人工智能治理体系颇具特色,笔者愿称之为“软法(soft law)治理示范”。结合系列专门性文件、核心思路以及底线义务等,本文将对香港的人工智能监管框架做出简要评述。

  香港的人工智能治理之所以是“软法”式的,原因首先在于,自2018年以来,香港发布的多份数据科技类指导文件均不具有法律意义上的刚性约束力。2018年10月,私隐公署发表《中国香港的(数据)道德问责框架》,建议业界在运用数据科技时,应恪守“尊重”、“互惠”以及“公平”这三项数据管理价值。据此进一步衍生,私隐公署于2021年9月专门针对人工智能行业发布《开发及使用人工智能道德标准指引》,目的是协助产业持份者在遵从《个人资料(私隐)条例》相关规定下建立合乎七项道德标准的人工智能,包括:问责、人为监督、透明度与可解释性、数据私隐、公平、有益,以及可靠、稳健及安全。该指引同时附设“自我评估核对清单”以辅助当事方自我判断上述道德标准的采纳情况。

  平衡新科技领域监管与发展

  除私隐公署之外,本港另一个重要的科技部门亦即合并为“数字政策办公室”前的“政府资讯科技总监办公室”,则在2023年8月制订了一套更为完整的《人工智能道德框架》,旨在把人工智能的技术要求、应用标准等规范再度化约为成体系的道德价值与伦理原则。这些要素被主张嵌入人工智能的管治架构并贯穿整个生命周期,以及透过“应用影响评估”的手段来增强该框架的指引性和实操性。在细分领域中,香港金管局则在2019年底提出《应用人工智能的高层次原则》,将相关道德原则拆解细化为能在金融场景中实操的九项具体规定。

  综观这一系列文件集合,多冠以“框架”、“指引”之名,从而首先示明其性质更接近于相对柔性的行政指导,政府的既定偏好与价值立场并非以强制干预及法定规限的方式做出。其次从表达上看,数据道德、合规伦理等宣言式美德或原则性道义构成了这些指导文件的主要叙述,“法化”(Juridification)规则及问责(Accountability)语言的弱化也是软法的典型特征所在。此外,企业、用户等利益攸关方的角色订明并不诉诸于“命令─控制”关系,而是平等合作者,例如《模范框架》中就设计了磋商交流、建立信任、形塑共识等措施。

  作为一种现代规制工具,采用软法治理的积极意义明显。例如,它通常被视作某种既自由但又不乏公共理性的制度形态,这种较为平衡的自由式家长主义路径自带先验的道德正当性。实施软法所需的开放、协商、沟通等程序性价值能够体现更多的“公共善”,进而有助于实现被规范对象的知情认同、自我约束,以及合作遵从。此外,软法本身可以无意间改变环境或背景,并突出行业最佳实践或惯例的显著性,由此保持监管秩序的前后一致和结果可预测。

  在普遍法理之外,软法构建之于香港人工智能发展更是另有深意。香港长久以来都在推动创科事业上踌躇满志,然而命运的齿轮却多次空转。从数码港计划开始,香港陆续错过了移动互联网、大数据、人工智能等产业风口,直至现如今迎来了新一轮由大语言模型引领的生成式人工智能技术浪潮。如何最大程度把握此次科技机遇,无疑也考验着特区政府及相关治理者的施政智慧,也正是如此,软法治理模式因其开放宽松与韧性包容而获得了行业监管青睐。诚如前述金管局在《应用人工智能高层次原则》中就明确表示,过分规限或硬性的规定,或会窒碍人工智能相关科技向前发展。

  务实地选择软法治理,充分说明监管者已然清醒地认识到,推动香港人工智能有所作为的非对称性优势,并不在于规模市场及其需求,而是如何发展出一系列更符合自身科技产业发展利益的“错位”监管思路与创新治理方法。更进一步,香港是否可利用其独有的普通法思维体系来创制规则也值得想像。譬如对数据处理的必要性原则进行适度扩张解释,以满足人工智能合理利用个人信息的客观技术需求;延伸至知识产权领域,相关的普通法法律续造也应包括承认生成式人工智能对著作权作品具有宽泛合理使用的正当性,亦或是在特定个案情境中探索豁免大模型训练使用的版权侵权责任,等等。总之,以普通法因应技术和产业发展可视作香港向其他法域示范治理创新的有效选项。

  为人工智能治理起示范作用

  人是目的,而科技仅仅是手段,发展人工智能要始终坚持以人为本。尽管软法治理意味着公共政策试图以某种对产业包容,对技术“忍让”的审慎、谦抑的姿态亮相,但绝不应偏废、让渡人本关照,根植人对机器的控制以及技术造福人类始终是人工智能治理的底线义务,也是应对人工智能信任危机的朴素方法。对此,《模范框架》借鉴了欧盟人工智能法中的风险分级分类模式,采取“风险为本”的管理方式,即视乎系统风险程度高低而采取相应的规制措施,其中也包括决定人为介入监督的程度。例如,针对那些可能对个体或群体造成严重及长期伤害并影响人类基本权利和自由(财务损失、身体伤害、歧视、信息自主权丧失等)的高风险系统,应适用“人在环中”(human-in-the-loop)的监管法则,旨在确保人类在决策中保留必要控制与主导,以防止自动化技术的出错或不当决定。

  科技发展在指数级加速,要不要等一等人类社会文明的发展?答案是肯定的,我们显然已无法对人工智能加剧失业、挑战社会公平和利益分配等未解难题假装视而不见。就在本文撰写之时,“港版ChatGPT”悄然而至,并计划在年内推广至特区政府所有部门,既展现了香港创科实力,也是因地制宜发展新质生产力好例证。相信在人机关系的规则维度上,面对全球性的人工智能治理赤字,香港亦能继续完善软法框架并创造示范,再次彰显符合自身禀赋的制度竞争力。

  香港城市大学法律学院公法与人权论坛研究员、法学博士

点击排行