那么,DeepSeek牛在哪呢?首先,DeepSeek把Open AI的四环节模型直接减少为三环节,传统依赖人进行的“有监督微调”环节被DeepSeek放弃了,因为DeepSeek认为,机器学习不用依赖人类标注数据也能进行纯强化的学习,在放弃了“有监督微调”这个环节后,就突破了依赖人类标注数据,模型性能受限于标注者的认知水平和数据质量这个问题。
DeepSeek-R1-Zero通过纯强化学习训练,无需人工标注数据,直接通过环境反馈优化模型。这种方式允许模型通过自我探索和迭代,在数学推理、编程等任务中展现出超越人类标注数据的潜力。
说白了,Open AI的模型是需要人类这个“老师”,它做一道题人类老师“批改”一道,结果还不知道批改的对不对,可想而知这学习效率肯定不高。但是,DeepSeek不同,DeepSeek就像拿到了答案的机器,用远远高于人类批改的速度自己做题自己对答案,可想而知效率会提高多少,成本会降低多少。
而且,相比其它AI平台研发者使用英伟达提供的CUDA架构而言,DeepSeek是直接使用了PTX汇编语言绕过了英伟达提供的CUDA结构,所以它的程序执行效率也比其它AI平台高很多。为啥PTX汇编语言比CUDA架构更高?答案很简单,PTX汇编语言相当于你自己做计算,譬如我们自己会背乘法口诀,九九八十一立刻就得到了答案。但是,通过CUDA就是你只需要说九乘九,八十一这个答案需要CUDA给你计算,那效率当然就低了。那为啥PTX语言效率高大家还要用CUDA架构呢?因为PTX语言难学,开发困难,而CUDA都是封装模型,不用自己实际计算,只需要发个指令就行了。
2025-12-15 11:43:34
2025-12-15 12:35:56
2025-12-15 11:38:45
2025-12-15 11:20:30
2025-12-15 12:45:44
2025-12-15 11:25:07
2025-12-15 12:16:41
2025-12-15 12:02:54
2025-12-15 12:25:50
2025-12-15 12:09:52
2025-12-15 12:20:45
2025-12-14 20:48:00
2025-12-14 22:22:27
2025-12-14 22:11:03
2025-12-14 22:16:56
2025-12-14 20:56:49
2025-12-13 21:57:47
2025-12-13 23:49:21
2025-12-13 23:58:33
2025-12-13 21:48:53
2025-12-12 23:25:17
2025-12-12 23:32:31
2025-12-12 22:56:32
2025-12-12 23:37:50
2025-12-12 23:10:06