查看原文
其他

人工智能失控?马斯克带头紧急叫停AI训练,数千名科技大佬响应...

极果网 2023-05-05

作者|ff
来源|极果编辑部

当全社会都在为AI的进化而欢呼雀跃,全新的、意想不到的风险可能也正在悄悄酝酿。

3月29日,未来生命研究所公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

截至目前,这封信已有1079名科技领袖和研究人员签名,其中包含马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克等1000多名人工智能专家和科技界领袖人物。

这次突然叫停的理由是,这种系统对社会和人类构成潜在危险。换而言之,担心AI有了自我意识后超越人类,淘汰人类。

信中写道:“只有在我们确信它们的效果是积极的、风险是可控的情况下,才应该开发强大的人工智能系统。”此前马斯克也多次表达过对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事等。

只能说所有事物都有多面性,AI的强大是人类技术的进步,但如果AI有一天具备意识的话,那确实要警惕,万一不能控制它就麻烦了。而对于此次叫停的呼吁,也有人认为,目前GPT的前景和革命性诱惑太大了,会是第四次工业革命,会彻底改变人类的生活。而风险只是预估,在无限大的利益面前,没人会停止训练GPT。

以下为公开信内容:
大量研究[1]表明:具有人类水平智能的AI系统可能对社会和人类带来极大的风险,这一点已经得到顶级AI实验室[2]的认同。正如广泛认可的Asilomar AI原则中所述,高级AI可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。
当代人工智能系统现在在一般任务[3]上表现与人类相当,我们必须扪心自问:
  • 我们是否应该让机器用宣传(尤指褊狭、误导的)和谎言充斥我们的信息渠道?
  • 我们应该自动化所有的工作,包括令人满意的工作吗?
  • 我们是否应该发展最终可能超越我们并取代我们的非人类思维?
  • 我们应该冒险失去对我们文明的控制吗?
我们不应该将此类决定交给未经选举产生的技术领导者。只有当我们确信AI大模型的影响是积极的并且风险是可控的时,我们才能开发强大的人工智能系统。而且,这种判断必须有充分的理由,并随着系统潜在影响的大小而跟进。OpenAI最近关于人工智能的声明指出:「在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。」我们认为,现在已经到了这个时间点。
因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月。这种暂停应该是公开的和可验证的,并且所有关键参与者也应该暂停相关工作。如果不能迅速实施这种暂停计划,政府机构应介入并暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑的[4]。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。
人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。
同时,人工智能开发者必须与政策制定者合作,大幅加快强大的人工智能治理系统的开发。这些工作至少应该包括:
  • 专门针对人工智能的新的、有能力的监管机构;
  • 对高能力的人工智能系统和大型计算能力池的监督和跟踪;
  • 帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;
  • 强大的审计和认证生态系统;
  • 对人工智能造成的伤害的责任认定;
  • 对人工智能安全技术研究的强大公共资金;
  • 资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。
人类可以通过人工智能享受一个繁荣的未来。在成功创造出强大的人工智能系统之后,我们现在可以享受一个「人工智能之夏」。在这个夏天,我们收获了回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。社会已经暂停了对自身有潜在灾难性影响的其他技术[5]。我们在这个领域也可以这样做。让我们享受一个漫长的人工智能之夏,而不是在毫无准备的情况下冲进秋天(Let's enjoy a long AI summer, not rush unprepared into a fall)。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存