那么,DeepSeek牛在哪呢?首先,DeepSeek把Open AI的四环节模型直接减少为三环节,传统依赖人进行的“有监督微调”环节被DeepSeek放弃了,因为DeepSeek认为,机器学习不用依赖人类标注数据也能进行纯强化的学习,在放弃了“有监督微调”这个环节后,就突破了依赖人类标注数据,模型性能受限于标注者的认知水平和数据质量这个问题。
DeepSeek-R1-Zero通过纯强化学习训练,无需人工标注数据,直接通过环境反馈优化模型。这种方式允许模型通过自我探索和迭代,在数学推理、编程等任务中展现出超越人类标注数据的潜力。
说白了,Open AI的模型是需要人类这个“老师”,它做一道题人类老师“批改”一道,结果还不知道批改的对不对,可想而知这学习效率肯定不高。但是,DeepSeek不同,DeepSeek就像拿到了答案的机器,用远远高于人类批改的速度自己做题自己对答案,可想而知效率会提高多少,成本会降低多少。
而且,相比其它AI平台研发者使用英伟达提供的CUDA架构而言,DeepSeek是直接使用了PTX汇编语言绕过了英伟达提供的CUDA结构,所以它的程序执行效率也比其它AI平台高很多。为啥PTX汇编语言比CUDA架构更高?答案很简单,PTX汇编语言相当于你自己做计算,譬如我们自己会背乘法口诀,九九八十一立刻就得到了答案。但是,通过CUDA就是你只需要说九乘九,八十一这个答案需要CUDA给你计算,那效率当然就低了。那为啥PTX语言效率高大家还要用CUDA架构呢?因为PTX语言难学,开发困难,而CUDA都是封装模型,不用自己实际计算,只需要发个指令就行了。
2025-12-07 20:59:57
2025-12-07 21:13:28
2025-12-07 21:22:03
2025-12-07 21:29:46
2025-12-07 21:39:09
2025-12-07 21:50:01
2025-12-06 23:45:40
2025-12-06 23:55:32
2025-12-06 23:52:03
2025-12-05 20:31:38
2025-12-05 23:44:58
2025-12-05 23:34:01
2025-12-05 22:14:17
2025-12-05 22:25:18
2025-12-05 22:30:37
2025-12-05 21:17:10
2025-12-05 20:48:56
2025-12-05 20:40:10
2025-12-05 12:49:53
2025-12-05 11:56:37
2025-12-05 12:27:31
2025-12-05 12:10:03
2025-12-05 12:15:01
2025-12-05 12:02:29
2025-12-05 11:46:51