搜索找到 197 个匹配

maxthon
2025年 6月 4日 11:07
版面: 股海弄潮(Stock)
主题: APLD终于翻两倍了
回复总数: 5
阅读次数: 753

APLD终于翻两倍了

四月份把我吓坏了,几乎颤抖着双手又加了一倍的仓位,今天终于翻了两倍。
要不要跑掉成本呢?
maxthon
2025年 2月 21日 12:09
版面: 股海弄潮(Stock)
主题: 看到市场和股版的综合意见,决定明天加仓
回复总数: 17
阅读次数: 1905

Re: 看到市场和股版的综合意见,决定明天加仓

不错,一个月不到,加仓的apld真的就翻倍了。
maxthon
2025年 2月 4日 09:53
版面: 股海弄潮(Stock)
主题: 天呐,剩余的pltr一举拉爆了账户,仓位比重又增加了
回复总数: 0
阅读次数: 285

天呐,剩余的pltr一举拉爆了账户,仓位比重又增加了

后悔前面的一半不该出啊,完全没想到它这么疯狂。
maxthon
2025年 2月 1日 13:37
版面: 股海弄潮(Stock)
主题: 蒸馏技术在22年之后,很多APP都在用了,现在出Deepseek很稀奇吗?
回复总数: 16
阅读次数: 760

Re: 蒸馏技术在22年之后,很多APP都在用了,现在出Deepseek很稀奇吗?

偷取并蒸馏别人的大模型,是别人没想到的。这个在西方社会确实很稀奇,没人想到底线会这么低。
cmrhm2008 写了: 2025年 2月 1日 12:56 比如这篇文章:
https://labelbox.com/blog/a-pragmatic-i ... evelopers/

类似例子很多。我怀疑MM把这个Deepseek炒这么大,因为他们事先有布置了大量的PUT了。
maxthon
2025年 2月 1日 13:33
版面: 股海弄潮(Stock)
主题: deepseek 成开源老大了。META 还玩什么
回复总数: 7
阅读次数: 597

Re: deepseek 成开源老大了。META 还玩什么

其他的不说,deepseek在英语,法语,西班牙语的综合表现都不如llama,这正是因为它的模型是通过增强中文学习,数学等知识更新慢的领域学习,获得对其他大模型的优势,所以deepseek现在不是开源的老大。
如果deepseek还是采取这种投机取巧的方法,将来也不可能成为老大。
Iamhappy 写了: 2025年 2月 1日 12:45 deepseek 成开源老大了。META 还玩什么。 大家说说。 META 的 存在感在哪里。
maxthon
2025年 2月 1日 10:26
版面: 股海弄潮(Stock)
主题: 不需要deepshit女大也是走在自由落体的路上
回复总数: 14
阅读次数: 914

Re: 不需要deepshit女大也是走在自由落体的路上

不是单指time series数据,各国的利率政策,经济政策,新的法律,领导人讲话和动向等等都是影响市场的数据。
这些都是新数据。
赖美豪中 写了: 2025年 2月 1日 10:01 time series数据不是organic数据,对LLM没有用啊
maxthon
2025年 2月 1日 09:52
版面: 股海弄潮(Stock)
主题: 不需要deepshit女大也是走在自由落体的路上
回复总数: 14
阅读次数: 914

Re: 不需要deepshit女大也是走在自由落体的路上

未必,要看大模型的使用方向,在某些方向上,新数据还是每天不断产生的,比如金融市场。从目前的算法上讲,大模型还是要不定期的重新训练才能保持最好的结果。如果将来算法有所突破,可以完美控制大模型局部增强训练。那才会像你说得那样,对算力的要求大大降低。

maxthon
2025年 2月 1日 09:36
版面: 股海弄潮(Stock)
主题: deepseek 把GPU需求倒退会A100时代
回复总数: 143
阅读次数: 6824

Re: deepseek 把GPU需求倒退会A100时代

你一定是误解了deepseek只做了蒸馏,对算力的要求才低。如果没有openAI的大模型,deepseek就没法蒸馏。
而得到openAI的大模型,如果不靠偷,即使知道算法,没有nvda的GPU也是不行的。
nvda的股价不振是因为商务部估计会严格控制它的GPU出口,彻底封死中国市场,不是deepseek有什么划时代的突破。

maxthon
2025年 1月 31日 11:17
版面: 股海弄潮(Stock)
主题: 看到市场和股版的综合意见,决定明天加仓
回复总数: 17
阅读次数: 1905

Re: 看到市场和股版的综合意见,决定明天加仓

不错,这周账号涨幅竟然大概10%,果然要果断加仓啊。
maxthon
2025年 1月 30日 09:48
版面: 股海弄潮(Stock)
主题: deepseek可能让低成本的GPU和asci获得广大的市场份额
回复总数: 8
阅读次数: 978

Re: deepseek可能让低成本的GPU和asci获得广大的市场份额

不是这样,我觉得市场会分化,有人就会专注于大模型的训练,然后出售给各个初创小公司在细分领域进行深耕,这样能够让AI在各行各业快速铺开,长期来看是好事。

foxbat 写了: 2025年 1月 30日 09:41 前提是可以摸着别人过河
maxthon
2025年 1月 30日 09:38
版面: 股海弄潮(Stock)
主题: deepseek可能让低成本的GPU和asci获得广大的市场份额
回复总数: 8
阅读次数: 978

Re: deepseek可能让低成本的GPU和asci获得广大的市场份额

从股市这两天的表现来看,难道真被我的乌鸦嘴说中了?
mrvl > amd >> nvda啊
maxthon
2025年 1月 30日 09:27
版面: 股海弄潮(Stock)
主题: 我们还是太善良了
回复总数: 19
阅读次数: 1492

Re: 我们还是太善良了

其实蒸馏技术高也是一个技术活,DS没有它吹得那么厉害,但是还是有点核心东西的。
这对初创企业和码农是好事,否则大企业建立起GPU算力壁垒,直接就垄断了。
maxthon
2025年 1月 30日 08:04
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

这是不可能的,如果这样做就可以提升10倍,那meta的自研芯片也可以做到,nvda的业务就黄了。
deepseek的给出的数据不能完全相信。

maxthon
2025年 1月 29日 18:51
版面: 股海弄潮(Stock)
主题: AI变便宜了, 开发的就比卖工具的强了是吧
回复总数: 7
阅读次数: 731

Re: AI变便宜了, 开发的就比卖工具的强了是吧

如果这是真的,码农的春天又来了,只不过这次只是AI码农。
maxthon
2025年 1月 29日 17:36
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

并不是这样,蒸馏的小模型在训练上是用大模型的概率分布为目标的,但是验证时用真实标签为目标,在特定情况下可以做到结果比大模型要好。
所以,蒸馏的小模型上限并不是大模型。
Hilfiger 写了: 2025年 1月 29日 17:17 有点像统计上的meta analysis,只不过是对model来做的。按道理不应该效果超过最好的model,除非用了什么新的信息让DS的model能根据不同情况改变权重来选最合适的模型。
maxthon
2025年 1月 29日 13:55
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

这是错误的,没有从零开始能力,大模型持续更新下去就会过拟合,泛化能力变差。
只有在某一些更新慢的领域,它才有生存价值。
drifter 写了: 2025年 1月 29日 13:50 问题核心是潘多拉盒子已经打开了 大家都可以根据ds的数据再加工
没人关心从零开始的成本了
maxthon
2025年 1月 29日 13:52
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

其实测试这个挺简单的,只要看它后续更新如何,问他与实时信息相关的东西,如果deepseek只敢做微调,而不是持续训练的话,说明它的数据来源是有问题的。
ShuiNi 写了: 2025年 1月 29日 13:47 问题的核心不是“openai的算法,即使用同样蒸馏后的数据,能否达到目前的水平”,而是DeepSeek的算法如果不用别的大语言模型的数据,训练达到现有的水平需要的成本到底是多少。
maxthon
2025年 1月 29日 13:47
版面: 股海弄潮(Stock)
主题: (转载)完了,“DeepSeek甚至绕过CUDA”论文细节再引热议
回复总数: 12
阅读次数: 1070

Re: (转载)完了,“DeepSeek甚至绕过CUDA”论文细节再引热议

如果这是真的,美国商务部要检讨了,制定的规范被轻易绕过去。

maxthon
2025年 1月 29日 13:44
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

这和DL有什么关系?而且你说话能不能说清楚一点,可以指出我哪一点说的不对,才能继续讨论。
ElonMusk 写了: 2025年 1月 29日 13:23 你明显不懂DL,你根本没看明白我的帖子就反驳
maxthon
2025年 1月 29日 13:24
版面: 股海弄潮(Stock)
主题: DeepSeek 训练成本低的真相
回复总数: 60
阅读次数: 9965

Re: DeepSeek 训练成本低的真相

理由很简单,deepseek对全世界构成安全风险,除了中国以外,全部被屏蔽,想用也不能用。
hahan 写了: 2025年 1月 29日 13:18 讲这些话p用也没有
Deepseek api定价不到openai的20分之一
效果差不多
给一个要用openai的理由

去高级搜索