南方财经全媒体记者 冯恋阁 广州报道

今日(4月11日),国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《征求意见稿》”)对生成式人工智能服务提供者及其产品提出了多项规制。


(资料图片)

一天前,中国支付清算协会发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称“《倡议》”),倡议相关单位不上传关键敏感信息,包括国家及金融行业涉密文件及数据、公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

此前,全球范围内发生了多起因使用ChatGPT导致的数据泄露事件。意大利、加拿大等国监管机构先后宣布将关注ChatGPT及其背后公司OpenAI带来的数据安全风险,并将开启监管调查。

对于近期生成式人工智能引发的数据安全问题,受访专家建议,应关注人工智能领域的新兴监管工具;同时,可以考虑将代表性人工智能公司纳入治理体系,同监管机关合作开发与技术发展和市场竞争相适应的监管框架。

监管号角吹响

生成式人工智能监管治理的提上日程。

“生成式人工智能服务提供者应对用户的输入信息和使用记录承担保护义务。”在今天发布的《征求意见稿》中,服务提供者的数据保护责任得到了明确。

事实上,在《征求意见稿》发布前,近期已有多国监管部门表示密切关注 ChatGPT 的引发的数据安全问题。

加拿大隐私专员办公室(Office of the Privacy Commissioner of Canada,OPC)近日宣布开始调查ChatGPT背后的公司OpenAI,目的是回应一项针对该公司“未经同意收集、使用和披露个人信息”的投诉。根据公告,由于相关调查仍在进行中,所以目前无法公开更多信息。

在ChatGPT被接连发现意外泄露用户聊天记录后,意大利数据保护局(Garante per la Protezione dei Dati Personali)于3月底宣布将暂时禁用ChatGPT并对该工具涉嫌违反隐私规则展开调查。

随后,法国和爱尔兰的隐私监管机构表示已经与意大利取得联系,以了解更多有关该禁令的依据。德国数据保护专员则指出,考虑到数据保护,原则上不排除暂停ChatGPT在德国的使用。西班牙的监管机构也宣称,虽然暂未收到任何关于ChatGPT的投诉,但不排除未来会进行调查。不过,瑞典的隐私监管机构则表示,没有计划禁止ChatGPT,也没有与意大利的监管机构联络。

在对外经济贸易大学数字经济与法律创新研究中心执行主任张欣看来,各国不同的监管状态反映出的是人们对ChatGPT为代表的生成式人工智能,以及未来可能出现的通用人工智能技术伴随风险的担忧和关注。“风险与潜力并存于人工智能技术之中,虽然技术已经展现出多种强大能力,但其阴暗面的仍有诸多安全难题待解。”她直言。

3月,有ChatGPT用户宣称在自己的历史对话中看到了他人与ChatGPT的聊天内容。OpenAI在几天后发表声明向ChatGPT漏洞致部分用户信息泄露道歉,并短暂下线了应用进行漏洞修复。

而近日,据媒体报道,三星公司内部发生了多起ChatGPT引发的数据安全事件。

该公司一名员工将要求ChatGPT帮助自己完成会议记录,还有员工直接将代码输入ChatGPT要求优化,甚至将软件源代码粘贴到ChatGPT中,并要求其找到问题的解决方案。这些行为都有可能导致源代码和相关敏感信息进入ChatGPT的训练数据库。

据悉,三星已将 ChatGPT 上传容量限制为每人1024 字节,并正在调查涉及泄密事件的人员。它还在考虑构建自己的内部人工智能聊天机器人,以防止未来出现类似的数据安全事故。

张欣提醒道,除了不当使用导致的数据泄露,类ChatGPT应用还面临着提示语注入攻击等数据安全风险。简单来说,就是通过向ChatGPT输入特定的内容,诱导其输出本不应该出现的违法或恶意内容,甚至如果能够找到特定的提示语,还可能回溯大型语言模型训练集中的数据,进而得到敏感信息。“坦率说,目前业内也还在研究和探索如何通过技术手段上防止出现这类数据安全风险。”她说。

如何走好安全之路?

“当前,类ChatGPT产品自身缺乏可信技术的支撑,整体的治理框架也还需一段时间的调整才能够匹配技术的发展和范式的变化。”张欣指出,目前的当务之急是顺应变化,加快研究更新的脚步。

我国《征求意见稿》中明确提到,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

“像任何技术一样,这些工具也带来了真正的风险,因此我们致力于确保安全措施在我们的系统中得到充分应用。”4月6日,OpenAI发布《我们迈向人工智能安全的路径》,回应这些日子以来的种种质疑。文章详细阐述了他们在安全工作付出的努力,并从建立日益安全的人工智能系统、从实际应用中学习,以改进保障措施、保护儿童、尊重隐私、改善事实准确性、持续研究和合作七个方面做出了保证。

对于隐私安全的质疑,OpenAI表示,收集的数据将不会用以营利,只会用于训练模型。不过,公司也将从训练数据集中删除个人信息,并逐步调整模型以拒绝私人个体的个人信息请求,以减小ChatGPT回复中出现个人信息的可能性。4月7日,OpenAI对隐私协议进行了更新。

在人工智能技术的发展、落地和应用场景扩散的趋势不断扩大的当下,各方应如何协作维护数据安全?

张欣指出,人工智能领域的新兴监管工具值得关注。在监管层面,可以灵活运用算法风险分级、算法影响评估、算法审计、算法认证等治理方法和监管沙箱等制度工具,在产品落地阶段,则可以考虑灰度测试和A/B test,通过小范围、渐进的测试逐渐优化产品的数据安全保护机制。

“未来,也可以考虑将以Open AI为代表的人工智能公司纳入治理体系,同监管机关合作开发与技术发展和市场竞争相适应的监管框架。”她表示。

“我们认为,强大的人工智能系统应该接受严格的安全评估。”OpenAI在官网公告中明确,愿意配合政府的监管行动,并共同确定监管的最佳形式。

推荐内容