首页 > 防务新观察 > 正文

美自断筋骨,中国撬动万亿霸权,AI殖民就此终结

那么,DeepSeek牛在哪呢?首先,DeepSeek把Open AI的四环节模型直接减少为三环节,传统依赖人进行的“有监督微调”环节被DeepSeek放弃了,因为DeepSeek认为,机器学习不用依赖人类标注数据也能进行纯强化的学习,在放弃了“有监督微调”这个环节后,就突破了依赖人类标注数据,模型性能受限于标注者的认知水平和数据质量这个问题。

DeepSeek-R1-Zero通过纯强化学习训练,无需人工标注数据,直接通过环境反馈优化模型。这种方式允许模型通过自我探索和迭代,在数学推理、编程等任务中展现出超越人类标注数据的潜力。

说白了,Open AI的模型是需要人类这个“老师”,它做一道题人类老师“批改”一道,结果还不知道批改的对不对,可想而知这学习效率肯定不高。但是,DeepSeek不同,DeepSeek就像拿到了答案的机器,用远远高于人类批改的速度自己做题自己对答案,可想而知效率会提高多少,成本会降低多少。

而且,相比其它AI平台研发者使用英伟达提供的CUDA架构而言,DeepSeek是直接使用了PTX汇编语言绕过了英伟达提供的CUDA结构,所以它的程序执行效率也比其它AI平台高很多。为啥PTX汇编语言比CUDA架构更高?答案很简单,PTX汇编语言相当于你自己做计算,譬如我们自己会背乘法口诀,九九八十一立刻就得到了答案。但是,通过CUDA就是你只需要说九乘九,八十一这个答案需要CUDA给你计算,那效率当然就低了。那为啥PTX语言效率高大家还要用CUDA架构呢?因为PTX语言难学,开发困难,而CUDA都是封装模型,不用自己实际计算,只需要发个指令就行了。

大家都在看