6月11日,香港个人资料私隐专员公署发布《人工智能 (AI): 个人资料保障模范框架》(下称《模范框架》)。
《模范框架》涵盖4大范畴,具体包括:制订AI策略及管治架构;进行风险评估及人为监督;实行AI模型的定制与AI系统的实施及管理;以及促进与持份者的沟通及交流。
个人资料私隐专员钟丽玲12日向媒体表示,香港企业使用AI呈现上升的趋势,希望《框架》为机构使用人工智能系统时提供指引,持续监督AI系统,降低个人资料外泄的风险,特别是风险高的环节,应加强人为监督。
据悉,《模范框架》是亚太区首个在人工智能领域针对保障个人资料隐私制定的指引性框架。
2021年9月26日,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称“《规范》”),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。其中,数据与隐私安全内容贯穿了人工智能管理、研发、供应等特定活动的具体伦理要求。
相比于《规范》,《模范框架》给出的建议更加细化。其中对机构提供包括制定、进行、实行和促进四个阶段的调整反馈机制,在四个阶段中,又分别提出了细化的步骤和考虑项目。
比如,在第一部分《AI策略及管治》中,《模范框架》指出,AI策略可包含:界定AI系统在机构的科技生态系统中提供的功能、参考AI道德原则,制定特定适用于机构在采购、实施及使用AI方案方面的道德原则、列明AI系统在机构中不可接受的用途等等。
而在“列明AI系统在机构中不可接受的用途”一条中,《模范框架》特别指出,机构应识别潜在风险高至应禁止采用的AI用例,这些用例应随着AI技术的发展、新风险的出现及/或新风险缓解措施的采用而增加、删除或调整用例。
《模范框架》作为指引性框架,也对打算投资购入AI方案的机构提出了可供参考的建议,其中包括方案使用AI的目的、预计使用AI的用例,AI供应商应遵循的有关隐私和保安的主要责任和道德规定、技术性和管治方面的国际标准等等。
针对风险因素,《模范框架》也给出了较为细化的指导。其中包括识别和评估AI系统可能带来的各种风险,采取措施减少AI系统带来的隐私风险。此外《模范框架》指出,对于AI方案需要以风险为本的方式进行人工监督。
《模范框架》建议,在决定人工监督的程度时,需要考虑AI系统的风险程度,若是高风险AI系统,即可能对个人或群体造成严重及长期的损害、输出结果可能影响到个体的基本权利和自由,包括财务损失、身体伤害、歧视、个人资料控制权的丧失、自主权的缺乏、心理伤害等的系统,则应采用“人在环中”(human-in-the-loop)模式,在此模式中,人类在决策过程中保留控制权,以防止或减少AI出错或作出不当的决定。
高风险AI系统包括用于医疗诊断、信用评估、工作或求职评估等对个人或社会有重大影响的领域。
若是低风险AI系统,则可以采用“人在环外”(human-out-of-the-loop)模式,在此模式中,AI系统在没有人为介入的情况下作出决定,以实现完全自动化的决策过程。
若这两者都不适用,则可以使用适中风险AI系统,例如当风险程度不可忽视或“人在环中”方式不符合成本效益或不可行时,可以采用“人为管控”(human-in-command)模式。在此模式中,人类决策者利用AI系统的输出结果监控其运作,并在需要时介入。