350AI巨头联名公开信:AI威胁生存?行业紧急暂停超GPT研发!

AI与情感7mos agoupdate lida
118 0 0

文章主题:人工智能, AI威胁, ChatGPT,监管

666ChatGPT办公新姿势,助力做AI时代先行者!

AI不断狂飙,但相关的监管、审计手段却迟迟没有跟上。
350AI巨头联名公开信:AI威胁生存?行业紧急暂停超GPT研发!

打开凤凰新闻,查看更多高清图片

就在刚刚,AI 领域传出一封重要的公开信。

🌟🚀 惊动全球!AI领域巨头350强联合发声,ChatGPT之父Sam Altman领衔!他们正面临一个严峻挑战——先进AI技术可能带来的生存危机。🔥💥 一封公开信,直面未来人工智能可能带来的潜在风险,引发全球深度关注与探讨。👩‍💻👨‍💼 随着科技的飞速发展,我们必须警惕并寻求解决方案,以确保人类智慧的安全与延续。🌍🛡️ #AI威胁 #生存危机 #智慧安全”

这封信只有一句声明:

降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。

签署人包括三个领先的 AI 公司高管:

OpenAI 首席执行官 Sam Altman;

Google DeepMind 首席执行官 Demis Hassabis;

Anthropic 的首席执行官 Dario Amodei;

🌟两位AI领域的巨擘, Geoffrey Hinton和Yoshua Bengio,无疑是人工智能界的「圣贤」🌟他们对深度学习的贡献,无人能及,引领了行业的发展潮流。他们的智慧与经验,无疑为全球技术进步提供了强大的引擎🔍

🌟💡签署者众多!超过350位AI领域的领军人物联名呼吁——🌍🔥 人工智能,已不只是科技挑战,它正潜在威胁着全人类的生存!就像传染病与核武器一样,我们必须严肃对待这一潜在社会灾难。.AI安全中心的非营利公开信,以专业视角揭示了这一风险的存在,唤起全球对AI安全的深度关注。让我们共同努力,为智慧与和平护航!🌍🛡️

极简版

350AI巨头联名公开信:AI威胁生存?行业紧急暂停超GPT研发!

🚀AI的发展日新月异,然而其背后的监管与审计滞后问题犹如暗流,让人忧虑。无人能确保AI工具的绝对安全,或是AI操作过程中的每一步都滴水不漏。我们需要加速建立健全的规制,以应对这场技术革命带来的挑战。🛡️

🌟提案升级!💡Sam Altman及OpenAI团队倡议,为AI安全发展创建全球性守护者,类似IAEA。🌍行业领军者需携手,共同为AI领域的稳健前行铺设基石。👩‍💼政府应积极引导,对高精尖AI企业进行更严格的监管,确保技术造福全人类而非潜在威胁。🌱让我们共同努力,为智慧的未来保驾护航!🌐#AI安全 #国际合作 #智能监管

其实早在 3 月,就一篇有关叫停 6 个月 AI 研究的公开信火遍了全网。

该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。

350AI巨头联名公开信:AI威胁生存?行业紧急暂停超GPT研发!

该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,联名人数超过千人。

公开信的原文如下:

人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究得到证实,并得到了顶级AI实验室的认可。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理

不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。

现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力,我们必须问自己:

我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?

我们应该将所有工作都自动化,包括那些令人满足的工作吗?

我们应该发展可能最终超过、取代我们的非人类思维吗?

我们应该冒失控文明的风险吗?

这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信AI系统的影响是积极的,风险是可控的,我们才应该开发强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI 最近关于人工智能的声明指出:「在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。」我们同意。现在就是那个时刻。

因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。

AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。

这些协议应确保遵守它们的系统在合理怀疑范围之外是安全的。这并不意味着暂停 AI 发展,而只是从不断迈向更大、不可预测的黑箱模型及其突现能力的危险竞赛中退一步。

AI 研究和开发应该重点放在提高现有强大、先进系统的准确性、安全性、可解释性、透明度、鲁棒性、对齐、可信度和忠诚度。

与此同时,AI 开发者必须与政策制定者合作,大力加速 AI 治理体系的发展。这些至少应包括:

专门负责 AI 的新的、有能力的监管机构;

对高能力 AI 系统和大型计算能力池的监督和跟踪;

用于区分真实与合成内容、跟踪模型泄漏的溯源和水印系统;

健全的审计和认证生态系统;对 AI 造成的损害承担责任;

技术AI安全研究的充足公共资金;

应对 AI 引起的巨大经济和政治变革(特别是对民主制度的影响)的资深机构。

人类可以在 AI 的帮助下享受繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个「AI 盛夏」,在其中我们收获回报,将这些系统明确地用于造福所有人,并让社会有机会适应。

在面临可能对社会造成灾难性影响的其他技术上,社会已经按下了暂停键。在这里,我们也可以这样做。让我们享受一个漫长的 AI 盛夏,而不是毫无准备地冲向秋天。

350AI巨头联名公开信:AI威胁生存?行业紧急暂停超GPT研发!

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

© Copyright notes

Related posts

No comments

No comments...