作者 | 周愚
编辑 | 邓咏仪
当监管的目光开始频频投向AI,科技巨头们正在用自愿倡议的方式占据主动权。
【资料图】
美国时间7月26日,OpenAI、微软、谷歌和Anthropic等四家AI领域巨头宣布成立行业组织“前沿模型论坛”(Frontier Model Forum),目的是“确保前沿AI开发的安全和负责任”。
7月初,OpenAI曾就“前沿AI监管”发文,将“前沿AI”模型定义为:具有造成严重公共安全风险能力的高性能基础模型。
来源:OpenAI推特
声明指出,论坛的核心目标包括如下四点:
推动人工智能安全研究,促进前沿模型负责任的发展,最大限度降低风险,实现对AI能力与安全的独立、标准化评估。
确定负责任前沿模型开发和部署的最佳做法,向公众普及AI技术的性质、能力、限制与影响。
与政策制定者、学者、民间社会和公司合作,并分享有关AI信任和安全风险的知识。
针对解决当前社会最大挑战,如气候变化减缓和适应、早期癌症检测和预防,以及网络威胁应对,支持开发相关应用。
这些目标与四家公司上周五在白宫作出的自愿承诺基本一致,当时共同作出承诺的公司还有Meta、亚马逊和Inflection。
“开发人工智能技术的公司有责任确保其安全、可靠,并处于人类控制之下。”微软总裁布拉德·史密斯在声明中强调。
论坛的成立体现了行业巨头在AI安全方面的积极态度,但这些公司也希望借此换取更大的主动空间——用主动合规避免被动监管,甚至在一定程度上参与规则的制定。
四家公司发布的声明中表示,“前沿模型论坛”希望支持和推动现有政府和多边倡议在人工智能方面的工作,包括七国集团(G7)广岛AI进程,经合组织(OCED)关于AI风险、标准与社会影响的工作,以及美欧贸易和技术理事会(TTC)的相关工作。
在接下来的数月内,该论坛将首先建立起一个顾问委员会,以帮助指导论坛的战略和优先事项。声明称,该委员会将“代表不同的背景和观点”。在未来几周内,还将与民间社会和各国政府,就论坛的设计与合作方式展开磋商。
未来一年,前沿模型论坛将重点关注确定最佳做法、推动AI安全研究、促进企业与政府间信息共享等三个关键领域,并欢迎其他前沿AI模型开发者加入论坛。
标签:
作者|周愚编辑|邓咏仪当监管的目光开始频频投向AI,科技巨头们正在用自
新疆阿克苏地区沙雅县发生3 1级地震速报参数:据中国地震台网正式测定
再见篮网!西蒙斯5换1交易曝光,2 07亿双能卫有望加盟,老鹰,哈登,篮网
龙虎榜净买入额榜前三为金科股份、北方长龙、国创高新
适用多种场地361°七号篮球29元大促