周二. 3 月 10th, 2026

近来频频呼吁对AI技术加强监管的OpenAI CEO Sam Altman再次强力发声,呼吁成立类似联合国系统下国际原子能机构的监管机构来监管AI技术。

6月6日周二,Altman在访问阿拉伯联合酋长国期间警告说,AI对人类构成“生存风险”,并建议成立类似国际原子能机构的政府间监管机构监督这项突破性技术的发展。

Altman说:

世界面临的挑战是我们如何管理这些风险并确保我们仍能享受到这些巨大的好处。没有人想毁灭世界。

OpenAI研发的ChatGPT的成功让人们得以一窥AI如何改变人类工作和学习的方式,这也引发了人们的担忧。包括Altman在内的数百名行业领袖在5月份签署了一封公开信,警告说“减轻AI灭绝人类的风险应该与疫情和核战争等风险一起被列为全球优先事项。”

Altman特别提到了联合国旗下的核能监督机构国际原子能机构(IAEA),该组织是二战结束前夕美国向日本投下两颗原子弹后的几年内成立的,旨在确保全球核能安全。

Altman说:

让我们确保我们能够团结一致,成立一个全球性的组织——我希望这个组织能够在监管AI方面发挥真正的作用。

我们将国际原子能机构视为一个典范,全世界都在说‘好吧,非常危险的技术,让我们设置一些护栏吧。’我认为我们可以兼顾AI技术的发展和监管。

我认为当前我们处在一个非常微妙的时间点,因为AI技术今天并没有那么危险,但它会很快变得危险。但我们可以提前做好准备。

5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

整个声明只有一句话,22个单词:

减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与疫情及核战争等其他影响社会的大规模风险处于同等级别。

更早些时候,在一次出席美国国会听证会时,Altman基本上同意议员们的观点,即有必要对他的公司以及谷歌和微软等公司正在开发的日益强大的AI技术进行监管。不过,在对话早期阶段,他们和立法者都无法明确告诉公众,这种监管应该是什么样子。

随后,Altman在一篇博客文章中称,未来十年内,AI系统有望超过专家水平,在大多数领域展现出与当今最大企业相当的生产能力。然而,超级智能技术带来的潜在利益和风险将比过去任何其他技术更加巨大。为了实现更加繁荣的未来,我们必须管理好超级智能的风险,并确保其与社会的顺利融合。

为了实现这一目标,Altman等人指出:

我们有很多事情可做。首先,我们需要在领先的开发努力之间进行协调,确保超级智能的发展安全可控。我们还需要建立类似于国际原子能机构的国际机构来监督超级智能的研究和应用,确保其符合安全标准,并限制其部署和安全级别。此外,我们需要致力于研发使超级智能安全可控的技术能力。

举报/反馈

Avatar photo

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

服务平台
跨境人脉通
专利检索
U选Market
选品平台
展会&沙龙
群通天下