V神相信的正确 AI 发展:成为人类思维的「机械装甲」而不是独立智慧生命”/> <body class="post-template-default single single-post postid-392515 single-format-standard wp-embed-responsive jeg_toggle_light jeg_single_tpl_1 jeg_single_fullwidth jnews jsc_normal elementor-default elementor-kit-49429

以太坊共同创办人 Vitalik Buterin 今日针对 AI 的发展发表评论,他认为错误的 AI 发展可能带来独立且能自我复制的智能生命体,而正确方向是成为人类智慧的「机械装甲」,以实现繁荣的超智慧人类文明。
(前情提要:V神对AI发展感到恐惧:人类应打造便利工具,而非创造智慧生命)
(背景补充:Vitalik 开骂币圈现况:加密货币已悖离密码学、资安领域,这很失败)

本文目录

本周,辉达执行长黄仁勳在 2025 年 CES 的主题演讲中提到:「AI agent 有潜力成为一个数兆美元的产业。」助长了加密社群对 AI Agents 的热情,据 Kaito 数据,AI 在本周的关注度首次达到接近 70% 的水平。

Source: @sandraaleow

V 神:正确的 AI 发展为人类智慧配备「机械装甲」

而在今日,以太坊共同创办人 Vitalik Buterin 也对 AI 的发展发表评论表示:

错误的 AI 发展可能会创造出独立且能自我复制的智慧生命体。

而正确的 AI 发展是成为人类思维的「机械装甲」。

如果我们只做到了前者而忽略後者,人类可能面临永久失去权力的风险;但若做到了後者,我们有望实现繁荣的超智慧人类文明。

在实现後者的方法上,Vitalik 进一步解释:

提炼(distill)人类判断力是集体层面实现後者的一种方法。

现今的许多 AI 影片生成工具已展示了这种趋势的端倪:不是简单地「输入指令後等待结果」,而是即时进行精准控制与调整的过程。

Vitalik 还附上了自己去年 11 月撰写的文章截图,阐述了一种通过「资讯金融」来提炼人类判断的方法,目的是让复杂、昂贵且高效的人类判断机制能以低成本、快速且高效的方式运作。他引用 Robin Hanson 的想法,表示可以借助「预测市场」。

透过市场机制,我们能够以可信中立且快速廉价的方式获得原本昂贵机制的「提炼版本」(这里使用「提炼」这个词,类似於 LLM 的蒸馏过程)。

随着时间的推移,这种提炼机制会大致模仿原始机制的行为,因为只有那些帮助达到正确结果的参与者能赚钱,而其他人则会亏损。

从他分享这段内容来看,他可能想探索 「如何让人类价值观和智慧高效融入到 AI 系统的决策中」,并且强调经济激励在这其中的重要性。

AI done wrong is making new forms of independent self-replicating intelligent life

AI done right is mecha suits for the human mind

If we do the former without the latter, we risk permanent human disempowerment. If we do the latter, flourishing superinteligent human civilization

— vitalik.eth (@VitalikButerin) January 10, 2025

应打造 AI 代理人吗?

另一方面,在回答网友关於「设计选择应该是代理型 AI 还是以提升人类能力为核心?」的提问时,Vitalik 表示:

「代理(Agents)」是一个有趣的词。有时它指的是「可以自行运行并制定复杂计划,持续数天且无需人类干预的 AI」,但更多时候它仅仅指「聊天机器人取代 GUI(图形用户界面),成为应用的主要交互方式。

Vitalik 直言,後者非常棒。这与他去年 12 月发表的一篇关於理想钱包的文章不谋而合。在那篇文章中,他探讨了 AI 的进步可能带来交互方式的深刻革命,并指出未来有可能从传统的点击操作和输入模式,转变为「说出你的需求,机器人帮你完成」的全新模式。他提到:

通过自然语言输入、眼球追踪,甚至未来更直接的脑机接口(BCI),以及对用户历史的深入掌握(如简讯记录,前提是所有数据仅在本地处理),「钱包」能更直观地理解用户的意图。

AI 可将这些意图转化为具体的「行动计划」,即一系列链上和链下的操作来实现用户需求。这样一来,对第三方用户界面的需求将大幅减少。

如果用户需要与第三方应用或其他用户互动,AI 应该以用户利益为出发点,提前检测潜在风险,并提供解决方案建议。

Vitalik 补充道,理想情况下,这些 AI 应由不同团队开发,形成一个多样化的开放生态系统,满足不同的偏好与需求。

主张开发能增强人类智慧的工具

去年 12 月底,Vitalik 在讨论 AGI(人工通用智慧)与 ASI(人工超级智慧)时,提出了他对 AGI 的定义:AGI 是一种足够强大的人工智慧,假如某天所有人类突然消失,而这个 AI 被上传到机器人的躯壳中,它能够独立维持文明的运作。

他也坦言,这是一个极其难以量化的定义,但这正是许多人心中「我们习惯的 AI」与「AGI」之间的潜在直觉差异。从一个不断依赖人类输入的工具,进化成为一种自给自足的生命形式,便是这种差异的核心所在。

至於 ASI,Vitalik 将其视为一个更高层次的概念:当人类的参与(human-in-the-loop)不再为系统带来任何价值时,便达到了 ASI 的标准。他举例指出,国际象棋中的 AI 也只是最近十年间才达到这一水准。

他坦率地表示,ASI 令他感到恐惧,甚至他自己定义的 AGI 也让他不安,因为这些技术可能带来人类失去控制的重大风险。

因此,Vitalik 更倾向於专注於开发能增强人类智慧的工具,而不是构建某种形式的超级智慧生命。他的这一立场,与他今天提到的观点一致:正确的 AI 发展应该为人类智慧装上「机械装甲」,而非创造新的独立智慧生命体。

AGI:指具备类似人类智能的人工智慧,能够在多种不同领域中执行任务,而不仅限於特定的应用。
ASI :指超越人类所有智能层次的人工智慧,不仅在特定领域具有卓越的能力,还能全面性在每个方面超越人类。📍相关报导📍

Vitalik:AI时代Deepfake泛滥,如何保证资讯安全、验证身份?

Vitalik 理想的加密钱包:跨L2交易体验、帐户隐私安全、成为数据钱包..

Vitalik 新文:去中心化加速主义(d/acc) 的重要性、未来发展机遇与挑战

Leave a Reply

Your email address will not be published. Required fields are marked *