OpenAI、谷歌、微软和 Anthropic联合成立机构监督“前沿人工智能”模型开发
发布时间:2023-07-27 浏览量:197
为了响应日益增长的监管呼声,OpenAI、微软、谷歌和 Anthropic 成立了前沿模型论坛,旨在确保 “前沿人工智能” 模型的安全和负责任的开发。该联盟将利用成员公司的专业知识来开发技术评估和基准,并推广最佳实践和标准。
他们认为这类模型对公共安全构成严重风险,具有独特的监管挑战。论坛的目标包括推进人工智能安全研究、确定最佳实践、与政策制定者合作,并支持应对社会挑战的应用程序。具体如下:
新论坛的自定目标包括:
i) 推进人工智能安全研究,以促进负责任的前沿模型开发,最大限度地降低风险,并实现对能力和安全性的独立、标准化评估。
ii) 确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。
iii) 与政策制定者、学术界、民间社会和公司合作,分享有关信任和安全风险的知识。
iiii) 支持开发有助于应对社会最大挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。
尽管目前只有四名成员,但该团体表示欢迎新成员加入。这一举措旨在向外界展示 AI 行业对安全问题的重视,并试图通过自愿举措来规避即将到来的监管,也许可以为制定规则做一些努力。
欧洲正在推进第一个具体的人工智能法规,旨在将安全、隐私、透明度和反歧视纳入公司的人工智能开发理念。上周,拜登总统在白宫与七家人工智能公司会面,其中包括前沿模型论坛的四个创始成员,以达成自愿保障措施来应对蓬勃发展的人工智能革命。
拜登也表示,未来可能会出现监管监督。拜登当时表示:“通过管理风险来实现人工智能的承诺将需要一些新的法律、法规和监督。” “在未来几周内,我将继续采取行政行动,帮助美国引领负责任的创新之路。我们将与双方合作制定适当的立法和监管。”
最新热文 7天