生成式AI发展与监管白皮书④:新的"iPhone时刻",欧美治理如何"各显神通"?
时间:2023-07-26 17:14:32来自:21世纪经济报道字号:T  T

编者按:自1956年“人工智能”的概念首次被提出已过60余年,此间,人工智能从虚化的代码逐渐转化成实践应用,催生出一批批商业故事。不过,人工智能规模化商用并非坦途,概念的火热一直以来未能助推技术突破与商业应用。

时间来到2022年,生成式AI发展为人工智能发展再注入一针强心剂。ChatGPT横空出世,被视为通用人工智能的起点和强人工智能的拐点,引发新一轮人工智能革命。人工智能发展似乎找到了自己的主流叙事。

不过,技术创新的同时也带来了监管难题。如何平衡发展与安全,中国正在摸索自己的AI治理路径。南财合规科技研究院与观韬中茂律师事务所推出《中国AI治理的独立思考——生成式人工智能发展与监管白皮书》,通过分析生成式AI的发展现状、政策导向、实操中面临的风险,以及各国的监管路径,以期为未来的AI治理提供有益思路。

2022年年底,OpenAI推出的ChatGPT爆火,将人工智能推向了“iPhone时刻”。

以ChatGPT等大语言模型为标志的生成式人工智能技术无疑为这一产业带来了新的范式革命和广阔的商业前景,资本市场持续高涨的热情也足以彰显它的价值。

生成式AI技术在给人类带来惊喜,也引发了人们对未知风险的恐慌。其在被使用过程中暴露的虚假信息传播、个人信息权益侵害、数据安全、偏见和歧视等问题,逐渐引发了诸多舆论争议。

事实上,面对日新月异的人工智能技术,各国政府和监管机构已开始采取措施加强监管,以确保公众利益和安全。作为数字立法监管大国,欧盟已早早布局,逐步建构基于风险的人工智能治理体系。而大洋彼岸的科技强国——美国则在由发展转向治理的过程中,探索出了以引导行业健康实践为目的风险治理框架。

欧盟:构建基于风险的人工智能治理体系在生成式AI为世界所知之前,人工智能一直是欧盟数字立法计划关注的主题之一。

2018年4月,欧盟发布政策文件《欧盟人工智能战略》(EuropeanStrategyforArtificialIntelligence),提出要增加对人工智能的公共和私人投资,逐步建立适当的伦理和法律框架。同年12月,欧盟委员会(EuropeanCommission)发布《人工智能协调计划》(CoordinatedplanonAI),意在协调各成员国合作落实《欧洲人工智能战略》。

此后的2019、2020年,欧盟在人工智能算法治理、伦理规制及产业发展等方向上皆有发力,发布了《可信赖人工智能伦理准则》(EthicsguidelinesfortrustworthyAI)、《人工智能白皮书》(WhitepaperonAI:aEuropeanapproachtoexcellenceandtrust)等多项政策。

2021年,欧盟委员会发布《2030数字指南针:欧洲数字十年之路》(2030DigitalCompass:theEuropeanwayfortheDigitalDecade),其中指出到2030年,数据公平共享将成为数据经济的重要基础,人工智能、增强现实等数字技术将成为新产品、新制造流程、新商业模式的核心(而非手段)。在这年4月,欧盟委员会正式提出了《人工智能法案》提案,世界范围内第一部针对人工智能进行规制的法律迈开脚步。

2021年至今,该提案历经多次更改。随着ChatGPT影响力逐渐扩大,人工智能产业格局迎来变动,法案亦有新增和变更。今年6月14日,欧洲议会以499票赞成、28票反对和93票弃权的高票通过了《人工智能法案》谈判授权草案(以下简称“《法案》”)。根据欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会将开始“三方谈判”,以确定最终条款。

《法案》针对欧盟范围内人工智能驱动的产品、服务及系统,法案对其开发、贸易和使用制定了核心规则。该法案的目标是创建可信的人工智能产品和服务,让用户最终能够相信人工智能技术将被安全和合规地使用。

其落地后,将与《通用数据保护条例》(GDPR)、《数字市场法》、《数字服务法》共同为欧盟构筑起一道数字立法“长城”。《法案》指出,除了设立欧洲人工智能委员会外,每个欧盟成员国还须设立一个单独的监督机构监督法案具体内容的实施。此外,这部法案也将在世界范围内产生影响:无论企业实体位于何处,只要该企业在欧盟市场开放服务或部署人工智能系统,都必须接受法案监管。

作为世界上第一部关于人工智能治理和监管的综合性全面立法,《法案》的诸多观点和思路值得关注。

首先是《法案》的“立足之本”——风险分类系统。《法案》依据可能对人类健康、安全或基本权利造成的潜在风险将人工智能系统的风险分出4个等级:不可接受的风险、高风险、有限风险和最小风险。针对不同等级的风险,法案将实施不同程度的控制措施。

对人身安全、个人权利有明显威胁的人工智能系统被认为是具有不可接受的风险;根据《法案》,具有不可接受风险的人工智能系统在欧盟内部被禁止部署。这类系统及使用目的包括:用于生物识别监控系统、情绪识别系统、预测性警务系统、从互联网或监控中无针对性地抓取面部图像创建的面部识别数据库等。

高风险人工智能系统则属于法案的重点限制对象,具体包括决定公民就业机会的系统(如用于招聘程序的简历排序软件)、产品的安全组件(例如,人工智能在机器人辅助手术中的应用)

  • 浏览记录
  • 我的关注
  • 涨幅
  • 跌幅
  • 振幅
  • 换手率
loading...
  • 涨幅
  • 跌幅
  • 振幅
  • 换手率
loading...
本站郑重声明:所载数据、文章仅供参考,使用前请核实,风险自负。
© 2008 北京济安金信科技有限公司 北京合富永道财经文化传媒有限公司
京ICP备12044478号 版权所有 复制必究
本站由 北京济安金信科技有限公司 提供技术支持