eNewsTree.com
标题:
DeepSeek将冲击美股,刺破英伟达市值泡沫?
[打印本页]
作者:
pengngychita
时间:
2025-1-27 05:08
标题:
DeepSeek将冲击美股,刺破英伟达市值泡沫?
来源:观察者网
“DeepSeek以极低成本和少量芯片实现了与OpenAI等巨头可以媲美的性能,引发国际AI界关注。如果算力不再决定AI性能,那么之前无脑买英伟达芯片的投资逻辑很可能发生变化,其它业态也将改变。”周日(1月26日),一位首席经济学家在微博上写道。
周一,“东方神秘力量”DeepSeek带来的冲击率先在亚洲市场显现。早盘,A股DeepSeek概念暴涨超11%,同时算力概念暴跌,AI算力、GPU、液冷服务器和ASIC芯片等板块均大跌超3%,光芯片、高速铜互联、光通信和光模块等板块均暴跌5%以上;日本半导体ETF也大跌超3%。
但实际上,DeepSeek带来的焦虑甚至恐慌更多是在大洋彼岸,周一纳指期货跌近3%;要为美国AI投资千亿美元的软银暴跌6%。悬念是,DeepSeek会刺破美股七巨头的泡沫吗?
美国市场担心的,不只是被中国AI追平甚至超越,他们更对DeepSeek的训练效率感到惊愕。由此产生的关键质疑是,美国科技巨头们花重金囤GPU的意义何在,英伟达3.5万亿美元市值的真正价值何在,美国政府处心积虑管制先进AI芯片对华出口的作用又何在。
没人会想到,在中国获取先进AI芯片被严密管制的情况下,一家刚成立一年半、去年才推出首款大模型的年轻公司,会给全球市场带来如此震撼。这是因为他们并没有迷信“大力出奇迹”的尺度定律(Scaling law),而是专注训练方法的创新,减少对计算资源的需求。
去年12月,DeepSeek发布新一代开源大模型DeepSeek-v3,能力与闭源的GPT-4o相近,但训练仅需要2048张英伟达H800 AI芯片,训练成本仅为557.6万美元。OpenAI创始团队成员Andrej Karpathy在社交媒体上发文对比称,类似DeepSeek-v3能力的模型在业界一般需要1.6万张GPU的集群训练,例如Meta发布的Llama-3-405B在类似的集群上花费了3080万GPU小时,而DeepSeek仅使用了280万左右的GPU小时。
https://www.guancha.cn/economy/2025_01_27_763425.shtml
欢迎光临 eNewsTree.com (http://enewstree.com/discuz/)
Powered by Discuz! X3.2