eNewsTree.com

 找回密码
 立即注册
查看: 939|回复: 0
打印 上一主题 下一主题

DeepSeek将冲击美股,刺破英伟达市值泡沫?

[复制链接]
跳转到指定楼层
楼主
发表于 2025-1-27 05:08:04 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
来源:观察者网

“DeepSeek以极低成本和少量芯片实现了与OpenAI等巨头可以媲美的性能,引发国际AI界关注。如果算力不再决定AI性能,那么之前无脑买英伟达芯片的投资逻辑很可能发生变化,其它业态也将改变。”周日(1月26日),一位首席经济学家在微博上写道。

周一,“东方神秘力量”DeepSeek带来的冲击率先在亚洲市场显现。早盘,A股DeepSeek概念暴涨超11%,同时算力概念暴跌,AI算力、GPU、液冷服务器和ASIC芯片等板块均大跌超3%,光芯片、高速铜互联、光通信和光模块等板块均暴跌5%以上;日本半导体ETF也大跌超3%。

但实际上,DeepSeek带来的焦虑甚至恐慌更多是在大洋彼岸,周一纳指期货跌近3%;要为美国AI投资千亿美元的软银暴跌6%。悬念是,DeepSeek会刺破美股七巨头的泡沫吗?

美国市场担心的,不只是被中国AI追平甚至超越,他们更对DeepSeek的训练效率感到惊愕。由此产生的关键质疑是,美国科技巨头们花重金囤GPU的意义何在,英伟达3.5万亿美元市值的真正价值何在,美国政府处心积虑管制先进AI芯片对华出口的作用又何在。

没人会想到,在中国获取先进AI芯片被严密管制的情况下,一家刚成立一年半、去年才推出首款大模型的年轻公司,会给全球市场带来如此震撼。这是因为他们并没有迷信“大力出奇迹”的尺度定律(Scaling law),而是专注训练方法的创新,减少对计算资源的需求。

去年12月,DeepSeek发布新一代开源大模型DeepSeek-v3,能力与闭源的GPT-4o相近,但训练仅需要2048张英伟达H800 AI芯片,训练成本仅为557.6万美元。OpenAI创始团队成员Andrej Karpathy在社交媒体上发文对比称,类似DeepSeek-v3能力的模型在业界一般需要1.6万张GPU的集群训练,例如Meta发布的Llama-3-405B在类似的集群上花费了3080万GPU小时,而DeepSeek仅使用了280万左右的GPU小时。

https://www.guancha.cn/economy/2025_01_27_763425.shtml
收藏收藏 分享分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|小黑屋|手机版|消息树

GMT-8, 2025-9-26 12:16 , Processed in 0.055345 second(s), 15 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表