21世纪经济报道记者 冯恋阁 实习生汤雨昕 广州报道

8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。


(资料图)

研讨会上,商汤科技合规高级经理苏萱从AIGC三大主流领域出发,结合人工智能行业的三驾马车(包括算力、数据和算法)发展,分享了自己对于AIGC行业如何发展与监管的看法并对未来监管给出建议。

“要谈人工智能监管治理,首先要明确治理的对象。”苏萱介绍道,AIGC(AI Generated Content)是人工智能领域一个重要的分支,这一领域的应用通过机器学习算法,使用大规模的训练数据,通过强大的计算模型在基础设施上实现文本、图像和视频的生成。

而计算机科学领域的计算机视觉、自然语言处理和语音识别这三大方向与AIGC交汇,共同构成了当前展现在人们面前的各类产品。

具体来看,计算机视觉是使计算机或机器能够“看”和理解图像或视频中的内容的技术。这种技术涵盖了从图像采集和处理到图像分析和理解的各个方面;自然语言处理是使计算机能够理解和生成人类语言(如英语、中文等)的技术。在AIGC中,自然语言处理主要用于生成文本内容;语音识别是一种允许机器或计算机听到并理解人类的语音的技术。这种技术的典型应用是将人类的语音转化为文本,或者使计算机能够对语音命令做出反应。

“计算机视觉、自然语言处理和语音识别都是AIGC的重要组成部分,它们使得AI不仅能够生成各种类型的内容,而且还能理解和分析这些内容。”苏萱介绍道。

大模型(例如GPT-4、BERT等)则是使用大量的数据进行训练,理解和模拟人类的语言、视觉、听觉等多种模式,从而生成各种类型的内容的工具。在文本生成方面,大模型(如GPT-4)可以生成连贯、有深度的文章或对话;图像生成方面,大模型(如DALL-E)可以生成具有特定属性和特点的新图像,应用于产品设计等场景;音频生成方面,大模型可以生成逼真的人声、音乐等,用于语音合成、音乐创作等场景。

“大模型通过理解和生成复杂的内容,推动了AIGC的发展,使得AI生成的内容更丰富、更多样,也更接近人类的表达和创造水平,进一步拓宽了AIGC的应用范围和可能性。”他直言。

不过,AIGC潮起的另一面,是不可忽视的伴生风险。在新一轮AI变革下,我国的治理体系有怎样的新变化?

8月15日,由网信办等七部门发布的《生成式人工智能服务管理暂行办法》(下文简称“《办法》”)正式施行,为生成式人工智能服务的实践落地指明了方向。苏萱认为,《办法》提供了覆盖人工智能“三驾马车”——算法、算力和数据的法律监管框架。

针对算法,《办法》强调非歧视的原则,在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,需要采取有效措施防止产生民族、信仰、国别、地域等歧视;要求不得利用算法优势,实施垄断和不正当竞争行为。

对于数据,《办法》要求生成式人工智能服务提供者依法开展预训练、优化训练等训练数据处理活动;使用具有合法来源的数据;涉及个人信息的,服务提供者应依法承担相关责任并履行义务。

而对于算力,《办法》鼓励生成式人工智能技术在各行业、各领域的创新应用,推动生成式人工智能基础设施和公共训练数据资源平台建设,提升算力资源利用效能。

“《办法》旨在保护个人和社会的权益,促进生成式人工智能的健康发展,同时防止滥用和歧视行为,确保公平和公正。”苏萱指出。

不过,在苏萱看来,由于人工智能技术的复杂性和快速发展,目前的监管治理体系可能存在一定局限性。

他认为,人工智能的发展速度极快,新的技术、应用和问题不断出现。而法律法规的制定和修改过程通常较慢,可能难以及时适应技术的快速变化。

在应用落地后的监管实践中,他指出,人工智能算法的复杂性和不透明性可能使监管变得困难。算法在设计、训练和应用过程中可能产生的歧视、数据来源的合法性和数据使用的合规性等问题都亟待解决。

总体来看,作为颠覆性的新技术人工智能可能引发伦理和社会问题,就业问题、隐私问题、社会公正问题等。这类问题看法和观点正不断受到挑战、发生变化,需要通过法律法规和社会广泛讨论形成一个共识。“未来的人工智能发展中,我们面临挑战远不止提到的这三类问题,但同时也充满了无限的机遇。只有各方共同努力,才能推动人工智能行业的健康发展。”苏萱表示。

推荐内容