生成式AI要按下“暂停键”?监管措施要到位

时间:2023-05-30
    今年以来,ChatGPT引领AI技术率先“出圈”, OpenAI、Google、微软、英伟达、百度、华为、阿里巴巴等纷纷入局推出相关AIGC产品,在科技界卷起“惊涛骇浪”。而今年3月底,意大利个人数据保护局宣布禁止使用ChatGPT,此后,德国、加大拿、法国等也相继表达相似态度,一度让AIGC在欧洲陷入僵局。5月初,谷歌、微软、OpenAI等高管与美国政府官员会面讨论AI立法等问题。
    以上种种,症结在于人工智能可能面临的数据安全、隐私保护、伦理规范等方面的风险和挑战无法预测,业界甚至有声音提出要“按下暂停键”。
    “人工智能教父”杰弗里·辛顿今年年初曾经警告,人工智能对人类构成的威胁将比气候变化更加紧迫。如果有人用它来制作虚假图像、视频,传递错误信息,其破坏力远大于单纯的文字形式。
    当前,人工智能诈骗案件频发应验了这一警告。业内人士指出,要更好地发展和应用AI大模型及相关产品,就必须积极应对其可能带来的知识产权、安全、伦理、环境等方面挑战,实现科学有效坚持监管与创新发展的平衡。
    “目前,我国人工智能的监管是着重于内容安全。”北京理工大学法学院教授、外交部国际法咨询委员会委员洪延青在2023中关村论坛院士专家企业一席谈平行论坛上指出。
    记者了解到,今年4月,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),明确了生成式人工智能的定义,以及相关产品和服务提供者的合规义务,对生成式人工智能进行专项监管,预计这个管理办法即将生效。
    洪延青表示,《办法》着重强调生成式AI所产生的文本、图片、声音、视频、代码的真实性、准确性、客观性。对于生成式AI的开发者,应承担内容生产者责任和个人信息处理责任;对于下游使用生成式AI的应用者,应当向国家网信部门申报安全评估,并履行算法备案和变更手续等。在洪延青看来,主要防范的是技术背后的想象,比如合成人脸、合成声音来诈骗等。
    在国外,欧盟和美国走出的AI监管路径各不相同。洪延青介绍道,欧盟AI法案从人的基本权利保护出发,起初划分为低风险、高风险AI和禁止性AI,并在通用性AI监管和基础模型层面分别规定了开发者的尽责义务。当技术进展到生成式AI阶段,监管则主要聚焦两项内容:一是能够规避内容问题,例如虚假信息和诽谤,二是在生成式AI训练中使用到数据的版权问题。
    洪延青也指出,美国的AI政策相对宽松,基本上是鼓励发展的态度。国会4部法律宗旨是要提升全国AI能力,白宫行政令也是以AI能力建设为导向,政府使用AI是需要严格监管,但对于社会消费者而言监管相对宽松,只是整体上对于社会平等性等问题比较关注。
    洪延青总结道:“总的来说,我国AI监管现阶段关注内容安全,欧盟关注对人的基本权利的保护,美国到现在为止是一个推进AI能力建设的路径,所以三个不同的国家和地区走了三个不同的方向,但是我相信等欧盟人工智能法案在年底或者明年通过之后,会对全球产生比较大的影响,可能到时候监管格局会发生比较大的变化。”
    洪延青对AI企业提出建议,要高度关注这些法律的变化,以及不同国家和地区法律变化所产生的联动效应。
上一篇:开源三周年,openGauss即将迎来生态拐点
下一篇:半导体行业的焦虑与等待

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。