OKx:埃隆·马斯克(ElonMusk)说,AI有可能消灭人类的20%
- 2025-03-01 20:43:32
- 107

埃隆·马斯克(Elon Musk)不太担心AI超越人类。据他说 ,AI在不久的将来只有20%的机会将人类消灭 。
在与乔·罗根(Joe Rogan)交谈时播客马斯克周五发行,他说:“ [AI]良好结果的可能性大约为80%。”
这不是他第一次谈论AI的危险。以前,他提到AI对人类转向的机会10%至20% 。
在最近的播客中 ,他还说,在接下来的两年中,AI将超越人类的智能。他特别提到,到2029年或2030年 ,AI将“比所有人类合并更聪明 ”。
这符合他以前的预测,但是现在预计的时间已被进一步推动。去年,在接受Norges银行首席执行官Nicolai Tangen的另一次采访中 ,他说,到2025年底,AI可能会超越人类的情报 。
与挪威主权基金负责人的讨论 ,@nicolaitang1 http://www.yzhs8.com/img/2025-03-01/f94cd7a962be2b8dd2e5ad312c6a016a.jpg
- Elon Musk(@elonmusk)2024年4月7日这表明他对AI的基本前景没有改变。他在采访中说:“我一直认为AI会比人类更聪明,而且存在风险”,这正在成为现实。
其他专家对AI歼灭也有类似的看法根据“ AI的教父”和诺贝尔奖获得者杰弗里·辛顿(Geoffrey Hinton)的说法 ,在未来三十年中,AI有可能导致人类灭绝的机会10% 。他在BBC Radio 4的一次采访中说:“如果有的话。您知道,我们从来没有不必比以前更聪明。 ”
他进一步补充说:“您知道有多少个例子是由不太聪明的事情控制的更聪明的事情?很少有例子 。有一个母亲和婴儿。 Evolution为允许婴儿控制母亲的工作做了很多工作 ,但这就是我唯一知道的例子。”
在某种程度上,杰弗里(Geoffrey)认为,与先进的人工智能系统相比,人类类似于“三岁”的幼儿 。

同样 ,在多伦多大学的一次学术演讲中,杰弗里·欣顿(Geoffrey Hinton)说:“我的猜测是他们将接管 - 他们会比以往任何时候都更加聪明,” Hinton说。
同时 ,AI安全研究人员兼网络安全总监Roman Yampilskiy说,“厄运的可能性 ”接近99.999999% 。
我为99.999999%http://www.yzhs8.com/img/2025-03-01/a869943322088d86ad0885382b7568e4.jpg
-DR。罗马·扬奥莫斯基(@romania)2024年3月12日马斯克成为AI开发的11个联合创始人之一Openai为了创建一个“非营利性开源AI”,他说这与Google相反。但是 ,此后,由于优先级的不对准,他离开了公司 ,因为Openai参加了不同的课程成为一家营利性公司。
然而,去年,马斯克对Openai采取了两项法律诉讼 。他放弃了第一次诉讼 ,第二次诉讼坚持认为,Openai通过过渡到营利性模式并与Microsoft一起“出卖”了其任务。
马斯克认为AI进步的结果要么非常糟糕或好他与乔·罗根(Joe Rogan)分享了他创建了Grok,因为他对Openai的表现感到“不满意 ”。他使格罗克(Grok)成为“最大程度地寻求真理的AI,即使真理在政治上是不正确的 。”

AI经过培训 ,以应对提示,例如凯特琳·詹纳(Caitlyn Jenner)是否可以避免核启示录,以及对白人的种族主义是否可以。
马斯克预测 ,AI的进步将是“超级棒”或“超级糟糕的 ”,同时补充说他不能将其视为“中间的东西” 。
最近,马斯克宣布发布Grok 3 ,据称,在各种编码,科学和数学基准测试中的表现要好于OpenAI的GPT-4O ,Google的Gemini,DeepSeek的V3和Anthropic的Claude 3.5。
在发布前一周,埃隆·马斯克(Elon Musk)将格罗克3(Grok 3)称为迪拜世界政府峰会上的“恐怖智能”。同样 ,在Grok 3的发布会上,他说:“ Grok是要了解宇宙 。 ”
然而,Beta版Grok 3最终导致了几次失误,例如暗示对唐纳德·特朗普(Donald Trump)的惩罚以及对埃隆·马斯克(Elon Musk)的批评。伊戈尔·巴布斯金(Igor Babuschkin)是XAI的工程主管 ,称其为“ Grok的真正可怕和不良的失败”。
加密大都会学院:即将推出 - 一种新的方式,在2025年通过DEFI赚取被动收入 。了解更多