“DeepSeek成本比OpenAI的o1模型低20到50倍”消息火爆全网,成为这个假期最热门的跨年话题。外国网友的震惊质疑,中国网友的自豪兴奋。
DeepSeek利用GPT4o和o1进行“知识蒸馏”,也就是进行模型压缩,减少计算复杂度和资源利用范围,从而降低成本,可以说是“站在巨人的肩膀上”进行改进。
DeepSeek把成本降下来,是林毅夫所说的”后发优势“,利用开源的模型以及别人已经做出成绩的模型进行改进升级。但是有些人会看到”后发劣势“,后发展的国家会在各个方面受到限制。
互联网本就以平等开放著称,特别是开源的代码,模型,更是方便所有人交流,促进技术进步。可以说,“后发优势”在互联网中更适用。但是一旦涉及政治经济利益,就只能变成“后发劣势”。比如原研药由于研发成本高会有一定时间的专利保护期,仿制药无法进入市场,这是对知识研发的保护,否则没人去投资研发新产品。
此次DeepSeek-R1的发布,动摇了投资者对人工智能行业对高科技晶片巨大需求的信心,让美国很多科技公司股价下跌,已经涉及政治利益和经济利益,想必发达国家下一步一定会加强对自己技术的管控,不能让别人拿着自己的成果把自己再干趴下。
从0到1的过程很艰难,从1到2会相对简单,因为有前期的成果作为基础。只会做从1-2,就如沙滩之塔,这也是容易让人“卡脖子”的重要原因。