周二. 9 月 30th, 2025

随着AI的快速发展,人工智能系统会不会渐渐超出它的设计目的,开始自我增强和自我复制,最终失去人类控制并进一步威胁到人类的安全呢?这是一个值得深思的问题。

近日,OpenAI在其官网上发布了一篇题为“我们的AI安全方法”的文章,旨在介绍其保障人工智能安全的方法。

内容如下:OpenAI 致力于确保强大的 AI安全并广泛受益。我们知道我们的人工智能工具为当今的人们带来了许多好处。我们在世界各地的用户告诉我们,ChatGPT 有助于提高他们的工作效率,增强他们的创造力,并提供量身定制的学习体验。我们还认识到,与任何技术一样,这些工具会带来真正的风险——因此我们努力确保在所有级别的系统中都内置安全性。构建越来越安全的人工智能系统在发布任何新系统之前,我们会进行严格的测试,聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建广泛的安全和监控系统。例如,在我们的最新模型 GPT-4完成培训后,我们花了6 个多月的时间在整个组织内开展工作,以使其在公开发布之前更安全、更一致。我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,我们积极与政府合作,以制定此类监管的最佳形式。从实际使用中学习以改进保障措施我们努力在部署前预防可预见的风险,但是,我们在实验室中可以学到的东西是有限的。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用技术的所有方式。这就是为什么我们认为,从现实世界的使用中学习是随着时间的推移创建和发布越来越安全的 AI 系统的关键组成部分。我们谨慎地逐步向稳步扩大的人群发布新的 AI 系统,并根据我们吸取的教训不断改进。我们通过自己的服务和 API 提供最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这使我们能够监控滥用行为并采取行动,并不断构建缓解措施以响应人们滥用我们系统的真实方式——而不仅仅是关于滥用行为可能是什么样子的理论。现实世界的使用也促使我们制定了越来越细致的政策来应对对人们构成真正风险的行为,同时仍然允许我们技术的许多有益用途。至关重要的是,我们认为社会必须有时间来更新和适应能力越来越强的人工智能,并且每个受到这项技术影响的人都应该对人工智能如何进一步发展有重要的发言权。与没有使用这些工具的第一手经验相比,迭代部署帮助我们更有效地将各种利益相关者带入有关采用 AI 技术的对话中。保护儿童我们安全工作的重点之一是保护儿童。我们要求人们必须年满18岁,或者在父母同意的情况下年满13岁,才能使用我们的 AI 工具,并且正在研究验证选项。我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人内容等类别。与 GPT-3.5相比,我们最新的模型 GPT-4响应禁止内容请求的可能性降低了82%,并且我们已经建立了一个强大的系统来监控滥用情况。GPT-4现在可供 ChatGPT Plus 订阅者使用,我们希望随着时间的推移让更多人可以使用它。我们已作出重大努力,以尽量减少我们的模型生成伤害儿童内容的可能性。例如,当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会阻止并将其报告给国家失踪与受虐儿童中心。除了我们的默认安全护栏外,我们还与非营利性可汗学院等开发人员合作——该学院开发了一个人工智能助手,既是学生的虚拟导师,又是教师的课堂助手——为他们量身定制安全缓解措施。用例。我们还在研究允许开发人员为模型输出设置更严格标准的功能,以更好地支持需要此类功能的开发人员和用户。尊重隐私我们的大型语言模型在广泛的文本语料库上进行训练,其中包括公开可用的内容、许可内容和人工审阅者生成的内容。我们不使用数据来销售我们的服务、做或建立人们的档案——我们使用数据来使我们的模型对人们更有帮助。例如,ChatGPT 通过对人们与之进行的对话进行进一步培训来改进。虽然我们的一些训练数据包括可在公共互联网上获得的个人信息,但我们希望我们的模型了解世界,而不是了解个人。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并对个人提出的从我们的系统中删除其个人信息的请求做出响应。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的响应的可能性。提高事实准确性今天的大型语言模型根据他们之前看到的模式预测下一系列单词,包括用户提供的文本输入。在某些情况下,下一个最有可能的词实际上可能不准确。提高事实准确性是 OpenAI 和许多其他 AI 开发人员的重点,我们正在取得进展。通过利用用户对被标记为不正确的主要数据源的 ChatGPT 输出的反馈,我们提高了 GPT-4的事实准确性。GPT-4产生事实内容的可能性比 GPT-3.5高 40%。当用户注册使用该工具时,我们努力做到尽可能透明,因为 ChatGPT 可能并不总是准确的。然而,我们认识到,要进一步降低产生幻觉的可能性并让公众了解这些人工智能工具的当前局限性,还有很多工作要做。持续的研究和参与我们认为,解决 AI 安全问题的实用方法是投入更多时间和资源来研究有效的缓解和对齐技术,并测试它们在现实世界中的滥用情况。重要的是,我们还认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作来自于我们最强大的模型,因为它们更善于遵循用户的指示,更容易操纵或“引导”。我们将越来越谨慎地创建和部署功能更强大的模型,并将随着我们的人工智能系统的发展继续加强安全预防措施。虽然我们等了6 个多月才部署 GPT-4以更好地了解其功能、优势和风险,但有时可能需要比这更长的时间来提高 AI 系统的安全性。因此,政策制定者和 AI 供应商需要确保 AI 的开发和部署在全球范围内得到有效管理,这样就没有人会为了取得成功而偷工减料。这是一项艰巨的挑战,需要技术和制度创新,但我们渴望为之做出贡献。解决安全问题还需要广泛的辩论、实验和参与,包括人工智能系统行为的界限。我们已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。总之,凭借这些安全保障方法,我们可以更加自信地应用人工智能技术,以实现更多创新和发展。当然,即使如此,我们也需要不断地思考和加强人工智能的安全性,以避免可能产生的潜在风险。

Avatar photo

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

服务平台
跨境人脉通
选品平台
U选Market
展会&沙龙
群通天下