财联社10月30日讯(编辑 周子意)目前,各国政府正在寻求降低人工智能(AI)技术的风险和潜在滥用,根据媒体援引的七国集团(G7)的一份文件显示,G7将于本周一(10月30日)就企业开发先进人工智能系统的行为准则达成统一。
这份文件显示,在隐私担忧和安全风险的情况下,自发的行为准则将为这些主要经济体如何管理人工智能树立一个里程碑。
今年5月,由加拿大、法国、德国、意大利、日本、英国和美国组成的G7领导人在一次部长级论坛上启动了这项与人工智能相关的进程,论坛被称为“广岛人工智能进程”。
行为准则
G7的最新文件称,这项11点行为准则“旨在帮助把握这些技术带来的好处,并应对这些技术带来的风险和挑战”。
文件还写道,该准则将促进全球范围内安全、可靠和值得信赖的人工智能,并将为开发最先进的人工智能系统(包括先进基础模型和生成式人工智能系统)的组织的行动提供自愿指导。
据了解,企业将在该准则的规定之下采取适当措施,包括识别、评估和减轻人工智能生命周期中的风险,并在人工智能产品投放市场后解决滥用事件和模式。
此外,公司还应该发布关于人工智能系统的功能、限制、使用和滥用的公开报告,并投资于强大的安全控制措施。
欧盟委员会数字事务负责人Vera Jourova本月早些时候在日本京都举行的互联网治理论坛上表示,行为准则是确保安全的坚实基础,在监管到位之前,它将起到桥梁作用。
目前,欧盟已通过严厉的人工智能法案,一直走在监管新兴技术的最前沿。这是世界上第一部全面的AI法律,并有望成为发达经济体相关立法进程的重要参照。
相比之下,美国在监管AI方面采取了相对谨慎的做法,认为人工智能的威胁还有待观察;而日本对于人工智能的态度更为宽松,该国已经承诺支持公共事业部门和工业领域采用人工智能技术,同时监测其风险。
未经允许不得转载:CYQY-生活与科技 » G7即将开启AI“防护栏”:为AI开发制定统一行为准则