#21 Re: (转载)deepseek R1推理全面接近O1
发表于 : 2025年 1月 22日 06:49
属实 浙江假货世界闻名赖美豪中 写了: 2025年 1月 21日 14:40 别的公司不敢这么玩啊,llm这玩意没有捷径,有的捷径就是作弊。不要低估了老中再这方面的天赋。我老知道国内某个计算软件为了通过评审,直接把测试集答案存起来,直接print出来,这还是当年的某973项目。
属实 浙江假货世界闻名赖美豪中 写了: 2025年 1月 21日 14:40 别的公司不敢这么玩啊,llm这玩意没有捷径,有的捷径就是作弊。不要低估了老中再这方面的天赋。我老知道国内某个计算软件为了通过评审,直接把测试集答案存起来,直接print出来,这还是当年的某973项目。
在川普的4年中必然面临一次洗牌。
赖美豪中 写了: 2025年 1月 21日 14:05 deepseek已经很明显就是用gpt再训练的产品,你用现有的训练集去测肯定时接近甚至超过o1么。说白了他更像一个prompt engineering。你想想你把benchemark test set用o1训练完了再喂给deepseek,这分数能不高么
显然不是啊,openai不不开源,怎么拿过来用?
赖书记请不要不懂装懂,还是吹后母堤坡比较适合你。
赖书记在河南外语学院培训的时候是唯一英语达到6级的,这点必须承认。
这脑回路真是绝了,简直比马桶堵了还让人无语!DeepSeek 要真像您说的这么“简单粗暴”,那您岂不是已经可以靠“Ctrl+C Ctrl+V”称霸AI界了?还“用benchmark test set训练完了再喂回去”,您这操作简直比把自家马桶水倒回饮水机还离谱!您是不是觉得AI研究就是过家家,随便抓点数据往里一塞,模型就能屁颠屁颠地给您跑出满分?您这思路真是猥琐得让人想给您颁个“诺贝尔异想天开奖”!麻烦您下次张嘴前,先想想自己是不是把“无知”当成了“创意”,别让人笑到屁滚尿流还觉得您是在认真讨论问题!赖美豪中 写了: 2025年 1月 21日 14:05 deepseek已经很明显就是用gpt再训练的产品,你用现有的训练集去测肯定时接近甚至超过o1么。说白了他更像一个prompt engineering。你想想你把benchemark test set用o1训练完了再喂给deepseek,这分数能不高么
嗯,用户提到一个观点,说DeepSeek的表现可能是因为他们在现有数据集上进行了过多的训练,导致模型在测试时成绩接近甚至超过赖美豪中 写了: 2025年 1月 21日 14:05 deepseek已经很明显就是用gpt再训练的产品,你用现有的训练集去测肯定时接近甚至超过o1么。说白了他更像一个prompt engineering。你想想你把benchemark test set用o1训练完了再喂给deepseek,这分数能不高么