AGI尚远风险已近:AI末日论者究竟在担忧什金年会- 金年会体育- 官方网站么?

2026-01-12

  金年会,金年会官网,金年会平台,金年会登录,金年会网址,金年会网站,金年会官方网站,金年会体育,金年会数字站,金年会app,金年会电子娱乐,金年会体育赛事,今年会体育,金年会最新网址入口,金年会靠谱吗与此同时,他们似乎也在面对一种近乎矛盾的处境。一方面,近期发展暗示 AGI 可能比他们此前认为的更遥远一些,他们为此多少感到松了一口气。“感谢上帝,我们有更多时间了。”AI 研究者杰弗里·拉迪什(Jeffrey Ladish)说。另一方面,他们也对一些掌权者推动与自己主张相反的政策感到沮丧。《AI 2027》这份警示性预测的主笔丹尼尔·科科塔伊洛(Daniel Kokotajlo)说,“AI 政策似乎在变得更糟”,并称萨克斯与克里希南的推文“精神失常”且“不诚实”。

  总体而言,这些专家把“AI 泡沫”的讨论视为不过是一个小小的减速带,把对 GPT-5 的失望视为更具干扰性而非启发性。他们整体上仍支持更强有力的监管,并担心政策层面的进展正在变得脆弱。这里的进展包括《欧盟人工智能法案》(EU AI Act)的落实、美国首部重要 AI 安全法案加州 SB 53 的通过,以及部分国会议员对 AGI 风险的新关注。在他们看来,华盛顿可能会对那些“短期内未能兑现炒作”的表现反应过度,从而让这些进展受到冲击。

  有些人也急于纠正外界对“末日派”最根深蒂固的误解。尽管批评者常嘲笑他们“总说 AGI 就在眼前”,他们却表示这从来不是论证的关键部分。加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell)说,这件事“并不在于是否迫在眉睫”。拉塞尔著有《Human Compatible: Artificial Intelligence and the Problem of Control》。我采访的大多数人都说,在过去一年里,他们对“出现危险系统”的时间预估其实略微延后了。这是一个重要变化,因为政策与技术格局可能在很短时间内发生剧烈转向。

  事实上,他们中的许多人强调,更新时间表本身非常重要。托纳告诉我,即便现在的时间表只是稍微拉长,ChatGPT 时代的一条宏观主线仍然是,全行业对 AGI 的到来预期出现了显著“压缩”。她说,很长一段时间里,人们预计 AGI 还要几十年才会出现。如今,大多数预测把它的到来放在未来几年到 20 年之间。因此,即便我们多了一点时间,她和许多同行仍然认为 AI 安全极其紧迫,而且事关重大。她对我说,如果 AGI 在未来 30 年内的任何时候都有可能出现,“这就是一件天大的事。我们应该让很多人投入到这件事上。”

  我一直关注的是更长期的威胁:当 AI 变得比我们更聪明时,我们还能指望人类继续保持控制权,甚至继续与它相关吗?但我不认为任何事情是注定的。几乎每一件事都存在巨大的不确定性,我们从未走到过这里。那些很自信地说自己知道会发生什么的人,在我看来反而显得可笑。我觉得这种情况很不可能,但也许最终会证明,那些说 AI 被严重高估的人是对的。也许我们无法在当前的聊天机器人之上再走多远,因为数据有限而撞上墙。我不相信会这样,我认为不太可能,但并非不可能!

  但综合现有证据来看,我认为可以合理地说,大多数非常了解 AI 的专家都相信,在未来 20 年内出现超级智能的概率很高。谷歌 DeepMind CEO 戴密斯·哈萨比斯(Demis Hassabis)说可能只要 10 年。甚至连知名 AI 怀疑论者加里·马库斯(Gary Marcus)大概也会说:“如果你们做出一个混合系统,把传统的符号逻辑加进去,也许就能达到超级智能。”(编者注:马库斯在 9 月预测 AGI 将在 2033 年到 2040 年之间到来。)

  我担心,一些 AI 安全人士给出的激进 AGI 时间表估计,正在把自己推向一种“狼来了”的处境。当“2027 年出现 AGI”的预测没有成真时,人们会说:“看看这些人,把自己搞成了笑话,你们以后再也不该听他们的。”如果他们后来改变了想法,或者他们的立场其实是“我只认为有 20% 的可能性,但这仍值得关注”,这种反应并不诚实。我认为这不该成为人们未来不再倾听的理由,但我确实担心这会造成严重的信誉打击,而且会波及那些非常担忧 AI 安全、却从未宣称过极短时间表的人。

  与此同时,他们似乎也在面对一种近乎矛盾的处境。一方面,近期发展暗示 AGI 可能比他们此前认为的更遥远一些,他们为此多少感到松了一口气。“感谢上帝,我们有更多时间了。”AI 研究者杰弗里·拉迪什(Jeffrey Ladish)说。另一方面,他们也对一些掌权者推动与自己主张相反的政策感到沮丧。《AI 2027》这份警示性预测的主笔丹尼尔·科科塔伊洛(Daniel Kokotajlo)说,“AI 政策似乎在变得更糟”,并称萨克斯与克里希南的推文“精神失常”且“不诚实”。

  总体而言,这些专家把“AI 泡沫”的讨论视为不过是一个小小的减速带,把对 GPT-5 的失望视为更具干扰性而非启发性。他们整体上仍支持更强有力的监管,并担心政策层面的进展正在变得脆弱。这里的进展包括《欧盟人工智能法案》(EU AI Act)的落实、美国首部重要 AI 安全法案加州 SB 53 的通过,以及部分国会议员对 AGI 风险的新关注。在他们看来,华盛顿可能会对那些“短期内未能兑现炒作”的表现反应过度,从而让这些进展受到冲击。

  有些人也急于纠正外界对“末日派”最根深蒂固的误解。尽管批评者常嘲笑他们“总说 AGI 就在眼前”,他们却表示这从来不是论证的关键部分。加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell)说,这件事“并不在于是否迫在眉睫”。拉塞尔著有《Human Compatible: Artificial Intelligence and the Problem of Control》。我采访的大多数人都说,在过去一年里,他们对“出现危险系统”的时间预估其实略微延后了。这是一个重要变化,因为政策与技术格局可能在很短时间内发生剧烈转向。

  事实上,他们中的许多人强调,更新时间表本身非常重要。托纳告诉我,即便现在的时间表只是稍微拉长,ChatGPT 时代的一条宏观主线仍然是,全行业对 AGI 的到来预期出现了显著“压缩”。她说,很长一段时间里,人们预计 AGI 还要几十年才会出现。如今,大多数预测把它的到来放在未来几年到 20 年之间。因此,即便我们多了一点时间,她和许多同行仍然认为 AI 安全极其紧迫,而且事关重大。她对我说,如果 AGI 在未来 30 年内的任何时候都有可能出现,“这就是一件天大的事。我们应该让很多人投入到这件事上。”

  我一直关注的是更长期的威胁:当 AI 变得比我们更聪明时,我们还能指望人类继续保持控制权,甚至继续与它相关吗?但我不认为任何事情是注定的。几乎每一件事都存在巨大的不确定性,我们从未走到过这里。那些很自信地说自己知道会发生什么的人,在我看来反而显得可笑。我觉得这种情况很不可能,但也许最终会证明,那些说 AI 被严重高估的人是对的。也许我们无法在当前的聊天机器人之上再走多远,因为数据有限而撞上墙。我不相信会这样,我认为不太可能,但并非不可能。

  但综合现有证据来看,我认为可以合理地说,大多数非常了解 AI 的专家都相信,在未来 20 年内出现超级智能的概率很高。谷歌 DeepMind CEO 戴密斯·哈萨比斯(Demis Hassabis)说可能只要 10 年。甚至连知名 AI 怀疑论者加里·马库斯(Gary Marcus)大概也会说:“如果你们做出一个混合系统,把传统的符号逻辑加进去,也许就能达到超级智能。”(编者注:马库斯在 9 月预测 AGI 将在 2033 年到 2040 年之间到来。)

  我担心,一些 AI 安全人士给出的激进 AGI 时间表估计,正在把自己推向一种“狼来了”的处境。当“2027 年出现 AGI”的预测没有成真时,人们会说:“看看这些人,把自己搞成了笑话,你们以后再也不该听他们的。”如果他们后来改变了想法,或者他们的立场其实是“我只认为有 20% 的可能性,但这仍值得关注”,这种反应并不诚实。我认为这不该成为人们未来不再倾听的理由,但我确实担心这会造成严重的信誉打击,而且会波及那些非常担忧 AI 安全、却从未宣称过极短时间表的人。

  与此同时,他们似乎也在面对一种近乎矛盾的处境。一方面,近期发展暗示 AGI 可能比他们此前认为的更遥远一些,他们为此多少感到松了一口气。“感谢上帝,我们有更多时间了。”AI 研究者杰弗里·拉迪什(Jeffrey Ladish)说。另一方面,他们也对一些掌权者推动与自己主张相反的政策感到沮丧。《AI 2027》这份警示性预测的主笔丹尼尔·科科塔伊洛(Daniel Kokotajlo)说,“AI 政策似乎在变得更糟”,并称萨克斯与克里希南的推文“精神失常”且“不诚实”。

  总体而言,这些专家把“AI 泡沫”的讨论视为不过是一个小小的减速带,把对 GPT-5 的失望视为更具干扰性而非启发性。他们整体上仍支持更强有力的监管,并担心政策层面的进展正在变得脆弱。这里的进展包括《欧盟人工智能法案》(EU AI Act)的落实、美国首部重要 AI 安全法案加州 SB 53 的通过,以及部分国会议员对 AGI 风险的新关注。在他们看来,华盛顿可能会对那些“短期内未能兑现炒作”的表现反应过度,从而让这些进展受到冲击。

  有些人也急于纠正外界对“末日派”最根深蒂固的误解。尽管批评者常嘲笑他们“总说 AGI 就在眼前”,他们却表示这从来不是论证的关键部分。加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell)说,这件事“并不在于是否迫在眉睫”。拉塞尔著有《Human Compatible: Artificial Intelligence and the Problem of Control》。我采访的大多数人都说,在过去一年里,他们对“出现危险系统”的时间预估其实略微延后了。这是一个重要变化,因为政策与技术格局可能在很短时间内发生剧烈转向。

  事实上,他们中的许多人强调,更新时间表本身非常重要。托纳告诉我,即便现在的时间表只是稍微拉长,ChatGPT 时代的一条宏观主线仍然是,全行业对 AGI 的到来预期出现了显著“压缩”。她说,很长一段时间里,人们预计 AGI 还要几十年才会出现。如今,大多数预测把它的到来放在未来几年到 20 年之间。因此,即便我们多了一点时间,她和许多同行仍然认为 AI 安全极其紧迫,而且事关重大。她对我说,如果 AGI 在未来 30 年内的任何时候都有可能出现,“这就是一件天大的事。我们应该让很多人投入到这件事上。”

  我一直关注的是更长期的威胁:当 AI 变得比我们更聪明时,我们还能指望人类继续保持控制权,甚至继续与它相关吗?但我不认为任何事情是注定的。几乎每一件事都存在巨大的不确定性,我们从未走到过这里。那些很自信地说自己知道会发生什么的人,在我看来反而显得可笑。我觉得这种情况很不可能,但也许最终会证明,那些说 AI 被严重高估的人是对的。也许我们无法在当前的聊天机器人之上再走多远,因为数据有限而撞上墙。我不相信会这样,我认为不太可能,但并非不可能。

  但综合现有证据来看,我认为可以合理地说,大多数非常了解 AI 的专家都相信,在未来 20 年内出现超级智能的概率很高。谷歌 DeepMind CEO 戴密斯·哈萨比斯(Demis Hassabis)说可能只要 10 年。甚至连知名 AI 怀疑论者加里·马库斯(Gary Marcus)大概也会说:“如果你们做出一个混合系统,把传统的符号逻辑加进去,也许就能达到超级智能。”(编者注:马库斯在 9 月预测 AGI 将在 2033 年到 2040 年之间到来。)

  我担心,一些 AI 安全人士给出的激进 AGI 时间表估计,正在把自己推向一种“狼来了”的处境。当“2027 年出现 AGI”的预测没有成真时,人们会说:“看看这些人,把自己搞成了笑话,你们以后再也不该听他们的。”如果他们后来改变了想法,或者他们的立场其实是“我只认为有 20% 的可能性,但这仍值得关注”,这种反应并不诚实。我认为这不该成为人们未来不再倾听的理由,但我确实担心这会造成严重的信誉打击,而且会波及那些非常担忧 AI 安全、却从未宣称过极短时间表的人。

地址:广东省广州市天河区88号 客服热线:400-123-4567 传真:+86-123-4567 QQ:1234567890

Copyright © 2018-2025 金年会- 金年会体育- 金年会官方网站 版权所有 非商用版本