如何对 AI 进行监管?专家建议健全法律保障和标准体系

2023-05-17 20:24:19 来源:ZAKER科技

打印 放大 缩小

财联社 5 月 17 日讯(记者 徐赐豪)由 OpenAI 引发的 AI 热潮正在持续,但 AIGC 相关应用在提升生产效率的同时,也被不法分子用于生成虚假内容,扰乱社会正常运行。


(资料图片仅供参考)

国信证券研报指出,国内 AI 应用逐步扩大,AI 相关应用也会逐步起量。针对 AI 滥用风险,数据安全、密码、AI 监管均是重要的技术发展方向。

日前,美亚柏科发布了新产品,可以对 AI 生成的视频、图像、文本进行检测识别。实际上,我国相关部门一直在探索对 AIGC 产品和应用的法律监管。相关专家也建议,只有建立健全相关法律制度,才能从根本上推动我国 AIGC 产业健康可持续发展。

美亚柏科发布 AI 监管产品

5 月 15 日,美亚柏科发布了一则投资者关系活动记录表。

记录表显示,在 AI 监管产品方面,公司已经发布了 AI-3300" 慧眼 " 视频图像鉴真工作站,可以对深度合成伪造的视频图像、AIGC 生成视频图像进行监测鉴定。公司推出的 AIGC 检测平台支持 AIGC 生成文本的检测识别。

同时美亚柏科表示,后续公司将持续围绕包括反生成式 AI 在内的 AI 安全及监管领域进行研究,并根据业务需要适时布局相关产品。

元宇宙 NEWS 记者致电美亚柏科方面,该公司接线人士表示,从商业模式来看,目前公司的 AI 安全产品主要服务的还是像公安、网信等监管部门,针对网络上利用生成式技术进行不良信息的传播行为识别和鉴定;此外可以针对提供生成式服务的生产商提供安全性以及合规性的评测服务。

上述接线人士坦言,目前国内大模型厂商还处在发布以及市场适用的阶段,从 B 端这个角度来看,目前业务领域的合作还在探讨中。

" 随着深度伪造技术和 AIGC 技术的日渐成熟,伪造相关视频、音频、图像等技术门槛大幅降低,AI 技术滥用风险进一步扩大,监管迫切需要加强。" 天使投资人、资深人工智能专家郭涛向元宇宙 NEWS 记者表示,AI 监管工具在监测识别利用深度伪造技术和 AIGC 技术制作的图片、视频、视频等方面有比较好的效果,可以减少技术滥用风险。

戴尔科技中国研发集团高级主管科学家李三平博士向元宇宙 NEWS 记者表示,从技术角度讲,目前 AI 生成图片、视频已经有一些尝试,例如谷歌将标记由其工具创建的每一个 AI 生成图像。

" 技术上便于识别,使用上不影响用户。但是文字类的内容还在探索中。" 李三平说道。

AI 监管一直在路上

国信证券认为,随着国内百度、360、阿里、华为、腾讯等互联网公司发布或者计划发布大模型,AI 相关应用也会逐步起量。针对 AI 滥用风险,数据安全、密码、AI 监管均是重要的技术发展方向。

实际上我国一直以来十分重视 AI 的监管。

2023 年 1 月 10 日,《互联网信息服务深度合成管理规定》(以下简称《规定》)正式施行。《规定》明确,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。

4 月 11 日,网信办发布关于《生成式人工智能服务管理办法(征求意见稿)》(简称 "《办法》"),首次聚焦生成式 AI,进一步明确法律边界和责任主体。《办法》提出利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等的组织和个人,应当承担该产品生成内容生产者的责任。提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

"AI 产业监管方面存在相关法律法规与标准体系不健全、缺乏多部门协同的自上而下的监管体系、监管技术手段落后等突出问题。" 郭涛指出,政府有关部门需要尽快建立健全 AIGC 研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动 AIGC 产业健康可持续发展。

关键词:

责任编辑:ERM523

相关阅读