第307章 风险与控制:论生成式人工智能应用的个人信息保护

与告知同意规则着力于事前保护不同,最小必要原则主要强调信息主体合法权益的事中和事后保护,其通过相关性、最小化、合比例性三方面的要求来规制信息处理行为,在个人信息保护体系中发挥了不可或缺的重要作用。然而,最小必要原则的要求与生成式人工智能实现其主要处理目的之间存在巨大张力:生成式人工智能的运行机制决定了其需要大量数据驱动的模型训练,而这一过程容易导致超出必要范畴收集个人信息、信息处理期限不明、信息用途不清晰等问题,与最小必要原则要求产生冲突,使最小必要原则的应用在实践中受到限制。为化解这一困境,可以采用风险化转型的方式重新解释最小必要原则,即以场景分析下的风险控制为基准,推动最小必要原则向“合理必要”的转变。通过这种方式,可以在保留和承认最小必要原则的前提下,避免其僵化应用对生成式人工智能技术的发展造成限制。

此时,最小必要原则将被视为一种风险预防和预警机制,要求生成式人工智能技术服务提供者在处理个人信息时,必须将潜在风险控制在合理水平内。这将促使最小必要原则的灵活使用,使其得以更好地适应生成式人工智能的实际应用场景。与我国形成鲜明对比,欧盟法律体系下相关原则更加灵活。例如,欧盟GDPR规定了平衡测试的机制,要求数据处理者在权衡个人信息保护和处理的必要性和合法性时,需要考虑利益平衡和风险评估等因素,以确保个人信息合理利用和保护的动态平衡。实际上,最小必要原则在我国实践中的僵化适用已受到众多学者质疑。有学者认为,应将“禁止过度损害”作为最小必要原则适用的一个重要考虑因素。也有学者提出,在特定情形下应当以“有限性原则”替代最小化原则,这些主张实际上都蕴含着风险控制的思维。可见,在生成式人工智能应用中,有必要将最小必要原则的风险化解释视为一项应时而生的必要措施。

与此同时,还需要明确一些具体情形作为限制以平衡最小必要原则被风险化解释带来的不确定性。具体来看,包括以下方面:首先,个人信息的收集仍需以实现生成式人工智能运行目的为限,非实现该目的所必须的个人信息不应收集。例如,搜索记录、设备信息和通信信息等个人信息与实现生成式人工智能运行目的无关,收集此类信息无法构成“合理必要”,反而增加安全风险。其次,个人信息处理的时限亦须符合最小必要原则。根据《个人信息保护法》第47条,当生成式人工智能所存储的信息过期或不再与其训练和应用有关时,存储机构有义务在合理时间内删除或进行去标识化处理。删除机制是最小必要原则和目的限制原则的具体体现,在生成式人工智能信息储存时间难以确定的情形下,这一机制应当得到切实落实,以降低信息累积带来的风险。最后,应严格控制敏感个人信息的收集和处理。敏感个人信息使得“基本权利面临高风险损害”,全球个人信息保护体系均特别关注敏感个人信息的收集和处理,尤其是欧盟GDPR直接确立了敏感个人信息处理的“一般禁止、例外允许”的原则性规定。因此,生成式人工智能技术服务提供者必须严格控制敏感个人信息的收集和处理。即使在特定情况下难以避免收集敏感个人信息,也应尽可能避免将其用于模型训练,以降低敏感个人信息泄露的风险。

(三)建立虚假信息生成风险的全过程应对机制

在《生成式人工智能服务管理暂行办法》总则第四条第一款中,明确阐述了生成式人工智能的生成内容限制,尤其是不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、等虚假有害信息。因此,为了有效防控生成式人工智能带来的虚假信息生成风险,首先需明确风险来源,并清晰界定规制的对象范围。生成式人工智能核心技术基于算法模型和庞大的数据集,这是导致虚假信息生成的主要风险源头,应着重对这两方面规范,并坚持从预防到识别再到控制这一风险控制思路,建立虚假信息生成风险的全过程应对机制。具体说,该应对机制应包括以下方面:

其一,建立可信的数据来源和算法模型。数据来源和算法模型分别是生成式人工智能的基础和核心技术,直接影响了生成式模型的质量和可信度,建立可信的数据来源和算法模型可以减少误差和漏洞的产生,从源头防范生成式人工智能生成虚假信息。根据《互联网信息服务深度合成管理规定》等相关规定,可以从以下方面来建立可信的数据来源和算法模型。一方面,应当确保所使用的数据来源的合法性和合规性,符合数据保护法、隐私保护法和知识产权法等相关法律和规定。并且应当通过数据清洗、数据归一化和数据转换等措施,以减少数据中的误差,确保数据来源的质量和准确性。当前,以ChatGPT未代表的生成式人工智能既未公开其数据获取方式,也未标明语料库数据获取来源,致使语料库中数据和信息来源的合法性和真实性无从判别。为确保生成内容的真实、可信,应当根据上述规定强化这方面的合规要求。另一方面,应当使用正则化和交叉验证等技术减少算法模型过拟合,以确保模型在面对各种攻击和恶意操作时也能保持其准确性和可靠性。同时生成式人工智能技术服务提供者应当定期对其产品进行合规审查,识别和解决潜在的技术安全隐患,以保障生成文本的真实性和避免潜在的风险。

其二,建立透明、可解释的算法模型。为保证生成式人工智能生成内容客观、真实、可信,建立透明、可解释的算法模型尤为重要。与其他语言模型一样,生成式人工智能并非完全客观、中立的工具。其对世界的“认识”取决于算法和设计者所做的决定,如使用哪类数据进行文本训练或使用何种生成方式进行内容回复。生成式人工智能算法的难以理解和非直觉性特点为其价值判断和意识形态安全风险带来了挑战。为此,算法透明原则应运而生,旨在揭开算法生成内容的真实面貌,从而增强其可解释性和可问责性。遵循该原则,通过公开和披露算法设计原理、数据输入输出等要素,可保障算法公正性和可信性,确保生成内容的真实性和客观性。在此基础上,为用户赋予获取算法解释的权利,将用户协议转化为实质上的平等,进而形成用户对虚假信息生成风险的主动防御。为了更好地实现算法透明和可解释的原则,一些国家和组织也发布了相应的指导方针。例如,英国信息专员办公室在2020年发布了《人工智能决策说明指南》,其中涵盖了AI决策说明的六种类型,为生成式人工智能技术服务提供者提供参考和指导。我国可以此为参照构建完善生成式人工智能算法解释相关规则。

其三,进行深度合成标识。深度合成标识是控制生成式人工智能虚假信息传播的重要手段之一,可以帮助监管部门有效追踪虚假信息的来源,提高虚假信息的识别率,促进生成式人工智能的透明化。《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等相关规定反复提到对深度合成内容进行标识。生成式人工智能技术服务提供者应当对生成内容中可能导致公众混淆或者误认的,在生成内容合理位置、区域进行显着标识,向公众提示深度合成情况。尤其是在涉及医疗、金融、教育等问答的时候,应进行更加显着的风险提示。然而,现有规定只是概括性的,并未对深度合成标识的技术标准和规范进行明确规定。未来还应建立成式人工智能技术行业深度合成标识的技术标准和规范,明确该行业深度合成标识的要求和实现方法,提高深度合成标识的可行性和普适性,以促进深度合成标识规定在生成式人工智能应用中的切实落实。

其四,建立虚假信息鉴别与处置机制。在部分虚假信息已经生成的既定事实下,为了及时发现和处置生成式人工智能产生的虚假信息,减少其对社会、经济和个人造成的负面影响,还应当构建虚假信息鉴别与处置机制。通过建立用于识别违法和不良信息的特征库、建立健全虚假信息质疑和辟谣机制、对接信息发布平台实施暂停服务等措施及时识别和控制虚假信息,并防止其进一步扩散。此外,还应建立严格的责任制度。生成式人工智能研发人员、所有者、运营者和发布平台根据其过错在各自责任范围内承担虚假信息生成的法律责任。在责任分配时应遵循支配原则,即风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责。

(四)健全基于风险的个人信息保护合规制度体系

随着《个人信息保护法》的正式实施,越来越多的企业开始建立个人信息保护合规管理体系,以规范企业内部的个人信息处理行为,预防个人信息泄漏等安全事件的发生。尤其对于大型个人信息处理者来说,建立个人信息保护合规管理体系是实现个人信息安全保障的必要之举。《个人信息保护法》第58条明确规定对“超大互联网平台”课以“建立健全个人信息保护合规制度体系”的义务。因此,生成式人工智能服务提供者作为大型个人信息处理者,同样应承担起健全个人信息保护合规制度体系的义务。今后应努力在生成式人工智能信息安全保障体系中嵌入个人信息保护合规内容,并着重从以下两方面入手:

其一,建立生成式人工智能个人信息保护影响评估制度。风险评估是所有领域中风险控制的核心组成部分,它迫使信息处理者“识别、评估并最终管理个人信息处理给权利和自由带来的高风险”,有助于从源头上减少个人信息泄漏风险的发生。在生成式人工智能应用中,涉及敏感个人信息处理、利用个人信息进行自动化决策、委托处理个人信息等多项信息处理高风险情形,更容易造成个人信息泄露,应当将个人信息保护影响评估作为信息保护合规的一项核心任务。英国信息专员办公室(ICO)在2022年发布的《如何恰当且合法地使用AI及个人信息》中明确指出,数据控制者在使用AI系统之前应进行个人信息保护影响评估,并根据实际情况采取与其风险相适应的措施降低可能的损害。我国国家互联网信息办公室等部门于2023年7月13日公布的《生成式人工智能服务管理办法》暂未涉及生成式人工智能个人信息保护影响评估,相关内容尚需参照《个人信息保护法》第55条和第56条的规定。

但总体看,我国《个人信息保护法》中的个人信息保护影响评估制度仍较粗疏,在生成式人工智能应用方面需进一步完善。其中最关键的是缺乏向公众强制披露的机制,公共监督缺位将导致难以确保个人信息保护影响评估风险预防工具朝着公共利益的方向发展。对于该问题,《信息安全技术个人信息安全影响评估指南》已明确规定一系列措施。在生成式人工智能的个人信息保护影响评估中,可以该指南为参照,公开个人信息保护影响评估报告或组建公众代表委员会,确保评估过程接受外部监督。

其二,设置生成式人工智能个人信息保护独立监督机构。根据《个人信息保护法》第58条的规定,大型互联网平台企业需承担设立独立监督机构的特别义务,以确保其个人信息处理符合合规要求。此项义务的适用标准包括三个方面:提供重要互联网平台服务、用户数量众多、业务类型复杂的个人信息处理者。基于此标准,《互联网平台分类分级指南(征求意见稿)》和《互联网平台落实主体责任指南(征求意见稿)》对其进行了进一步详细阐述。以ChatGPT为代表的生成式人工智能作为一种新型的人工智能技术,仅用两个月时间便获得了一亿的用户量。其个人信息处理量与大型互联网平台企业相似,并且广泛应用于推动经济发展、保障民生、维护国家安全等重要领域,属于“提供重要互联网平台服务”的信息处理者。因此,生成式人工智能应设立独立监督机构以监督个人信息保护情况,充分履行社会责任。

鉴于生成式人工智能应用中的个人信息处理往往伴随高度复杂的算法和技术,独立监督机构人员应当包括具备相应专业知识和技术能力的专业人员。在职责范围上,独立监督机构应当从制度合规、技术合规和组织合规三方面着手,对生成式人工智能应用中的个人信息安全事前防范、事中规制和事后处置的合规情况进行监督。包括个人信息保护负责人的设立、个人信息跨境安全评估、个人信息安全事件应急预案、合规审计、发布个人信息保护社会责任报告等。总体来看,对生成式人工智能技术服务提供者施加个人信息保护特别义务,是风险控制的重要措施。

结语

生成式人工智能既有为人类生产生活与社会变革带来诸多便利的一面,也存在对人格尊严侵害的一面。近来ChatGPT用户个人信息泄漏及虚构法学教授性骚扰事件接连发生,深刻揭示了生成式人工智能的威胁范围和对社会稳定的潜在危害,也让个人信息保护及其风险防范机制的脆弱性暴露无遗。

尽管个人信息保护制度存在被技术侵蚀的风险,但我们不能放弃这些制度,而应该在风险控制的基础上进一步转型,以更好地保护个人信息权益和尊严。未来,我们需要加强对人工智能伦理和隐私保护问题的研究,推动更加完善的个人信息保护制度的建立,以保障人类尊严与科技进步的平衡发展。