以太坊联合创始人维塔利克·布特林 (Vitalik Buterin) 表示,如果不加以控制,超级先进的人工智能 (AI) 有“很大的机会”超越人类,成为地球下一个**物种。
但他表示,这将归结为人类如何干预人工智能的发展。
在 11 月 27 日的一篇博文中,被一些人视为加密货币领域思想**的 Buterin认为 人工智能与其他近期发明“根本不同”——例如社交媒体、避孕、飞机、*支、轮子和汽车。印刷机——因为人工智能可以创造一种新型的思”,可以违背人类的利益。
Buterin 认为,与气候变化、人为流行病或核战争不同,超级智能人工智能有可能终结人类并且不留任何幸存者,特别是如果它认为人类对其生存构成威胁的话。
Buterin引用了2022 年 8 月对 4,270 多名机器学习研究人员进行的一项调查,他们估计人工智能有 5-10% 的可能性杀死人类。然而,尽管 Buterin 强调这种性质的主张有些极端,但人类也有办法获胜。

Buterin 建议整合脑机接口(BCI),让人类能够更好地控制基于人工智能的强大计算和认知形式。BCI 是大脑电活动与外部设备(例如计算机或机器人肢体)之间的通信路径。
Buterin 表示,这将把人与机器之间的双向通信循环从几秒缩短到几毫秒,更重要的是,确保人类在世界上保留某种程度的有意义的**权。
Buterin 认为这条路线会更安全,因为人类可以参与人工智能机器做出的每个决定。
我们可以减少将高层规划责任交给人工智能本身的动机,从而减少人工智能自行做出完全不符合人类价值观的事情的机会。
这位以太坊联合创始人还建议积极的人类意图将人工智能引向造福人类的方向,因为利润最大化并不总是引导人类走上最理想的道路。
Buterin 的结论是,我们人类是宇宙中最明亮的星星,因为我们已经开发了数千年的技术来扩展人类的潜力,并希望未来能有更多的发展。