《人工智能法案》概述及我国人工智能法律发展

《人工智能法案》概述及我国人工智能法律发展

  • Aug 02,2024
  • 16
  • 0

欧盟《人工智能法案》于2024年5月21日由欧盟理事会正式批准通过,于昨天8月1日正式生效。《人工智能法案》(Artificial Intelligence Act,简称“AI法案”)是全球首部全面监管人工智能的专门性法律。 该法案旨在确保在欧盟开发和使用的人工智能系统值得信赖,并为保护人们的基本权利提供保障。

欧盟《人工智能法案》的主要内容与特点

1、风险分类:根据人工智能系统的复杂性和对数据的依赖性等因素,将人工智能系统分为四个风险等级:不可接受风险、高风险、有限风险和低或极小风险。    

2、监管要求:对于不同风险等级的人工智能系统,提出了不同的监管要求。 例如,高风险系统需要经过严格的评估和认证程序,而低风险系统则相对宽松。

3、责任和惩处:法案明确了人工智能系统提供者、部署者和分销者的责任,并规定了违规行为的处罚措施,最高罚款可达企业全球年营业额的7%或3500万欧元,以较高者为准。

4、分阶段实施:相关规则将分阶段实施,某些规则将在法案通过后的6个月或12个月后生效,大部分规则将于2026年8月2日开始生效。

在欧盟《人工智能法案》中强调了在人工智能系统的开发和应用中保护个人隐私的重要性,并与现有的《通用数据保护条例》(GDPR)等法律相互补充。在《人工智能法案》中要求生成式人工智能服务提供者建立语料来源黑名单、评估来源的安全性,并确保语料的广泛性和可验证性。在《人工智能法案》中特别强调透明度义务,例如要求AI生成的内容必须做到能立即可识别。《人工智能法案》中提出了设立人工智能监管沙盒的机制,允许在受控环境中测试和验证人工智能系统,为中小企业提供更多支持。

截至目前,我国尚未出台一部全面的人工智能法,但已经发布了一些相关的管理办法和指导意见。 例如,《生成式人工智能服务管理暂行办法》于2023年7月正式发布,旨在促进生成式人工智能健康发展和规范应用。 此外,最高人民法院也发布了《关于规范和加强人工智能司法应用的意见》,以规范人工智能在司法领域的应用。

中国的人工智能法律框架尚在发展中。国家网信办等部门发布的《生成式人工智能服务管理暂行办法》,着重于语料安全和个人信息保护等领域。我国已开始采用“分级分类”的风险治理理念,但尚未详细展开具体的分类标准和监管措施。目前更多的是强调合规和伦理指导。

欧盟《人工智能法案》在监管框架、风险分类、责任与惩处等方面具有较为系统和详细的规范,而中国的相关法律和管理办法则更侧重于具体领域的指导和规范。 未来,随着中国在人工智能立法方面的进一步推进,有望逐步形成更加全面和系统的监管体系。

评论 (0 条)

我要点评

您还未登录,无法发表评论!
上一篇:企业数据资源相关会计处理暂行规定 下一篇:数字互联网监管政策汇总