1. 首页
  2. 新闻

外部创新与内生困境:Crypto 在迷雾中航行

作者: YBB Capital Researcher Zeke

一、AI是必然,但Crypto x AI?

2025年伊始,幻方量化所打造的DeepSeek就给AI圈投下了一枚“核弹”。一个仅使用2048块英伟达H800 GPU,训练成本558万美元(约为Meta的十分之一)的中国AI模型在MMLU、GPQA等基准测试中直接做到了跟GPT-4o、Llama 3.1掰手腕的程度,甚至在复杂推理、中文语义理解等纬度上略微超越了这些来自硅谷的顶尖大模型。美国对于中国进行了长达多年的芯片封锁,却在DeepSeek的算力沙盘上遭遇了戏剧性解构,围城之下的中式AI终于发展出了符合国情却又匹敌尖端的技术路径,一套开源、低价、同质的组合拳直接击穿了美国的算力护城河。

在性能上永远略逊美国一筹的中国科技产品总是给我一种廉价、抄袭的刻板印象,我相信这同样也是大多数人对于中国互联网企业产品的直觉认知。但这次的DeepSeek确实不一样,我暂且不聊使用体验是否高于ChatGPT这种主观性较强的感受。仅从美国政坛与科技巨头频繁提及此事的紧张反应来看,中国这次扮演的已经不再是技术跟随者的角色,而由此引发的全球性震动也十分强烈。

虽然首先遭到波及的是我的钱包,从某种程度上来说这确实是对传统AI发展的误判所致,但我还是想谈谈我的看法,也就是关于DeepSeek对Crypto的冲击。

1.英伟达在这次事件中受伤最重,一是AI算力需求遭到质疑,二是英伟达的软硬体统一计算架构“CUDA”被绕过,熟知AI领域的朋友,应该对CUDA并不陌生,这是推动现代AI发展的重要基石之一。大模型开发商在使用英伟达GPU时,一般是基于CUDA做研发。使用CUDA对开发者的要求较低,因为CUDA里已经封装好一些函数,使用时完全无需理会太多细节,但肯定会损失执行效率。

由于CUDA是通用型编程框架,因此会导致训练模型时损失一些灵活性。 DeepSeek的做法是直接使用PTX(英伟达为GPU设计的中间指令集框架),以绕开硬件对训练速度的限制,可缩短训练时长。其他模型训练时长要10天,DeepSeek 5天就能完成。这同时也意味着,倘若DeepSeek未来有意去适配中国国产的GPU,在硬体适配方面将更得心应手,那么英伟达的AI芯片宝座也将产生动摇。(本段源自韩国未来资产证劵对DeepSeek训练环节分析的报道)

除了股价下跌会对与美股有强关联的币圈产生强烈冲击外,我个人认为长期来看对去中心化算力项目反而是一件好事。首先是更多的个人GPU在未来也能发挥余热,其次DeepSeek小而美的开源模型路径如果能够成功,将会倒逼大量AI公司被迫开源,未来本地部署与二次开发所需的算力需求会越来越旺盛,以DeepSeek R1最小参数1.5B至最大参数70B的硬件需求来看,从最低NVIDIA GeForce GTX 1660 Super到40系、50系,再到专业级的A100、H800 GPU 都有再次贡献多余算力的机会。对于目前存在感比较透明,算力供应又有些鸡肋的去中心化算力项目来说或许是一次翻身的机会(当然,前提是延迟能足够低的话)。

分享链接: - 区块链日报

免责声明:本站所有内容不构成投资建议,币市有风险、投资请慎重。

相关推荐