那就对了,你会用Windows Server运行你的LLM training/inference吗
deepseek 把GPU需求倒退会A100时代
版主: 牛河梁, alexwlt1024
#121 Re: deepseek 把GPU需求倒退会A100时代
Devil doesn't need an advocate
标签/Tags:
#123 Re: deepseek 把GPU需求倒退会A100时代
Linux Server和Windows Sever的workloads完全不一樣嗎?就完全沒有重疊麼?搞企業數據庫的只能用Linux麼?當微軟不存在嗎?biggestballs 写了: 2025年 2月 1日 16:24 运行的software/workloads不同,举个例子,如果你是HPC/AI workloads,你会用Windows Server运行吗,至少我帮OpenAI搭的cluster没有Windows的,无论cloud的还是baremetal的都是Linux
#126 Re: deepseek 把GPU需求倒退会A100时代
按workloads的类别来分,有少量重叠比如你说的数据库,但客户的偏好性/粘性很重,用Linux的客户是不会轻易转去Windows的(反之亦然),因为代价很高magagop 写了: 2025年 2月 1日 16:30 Linux Server和Windows Sever的workloads完全不一樣嗎?就完全沒有重疊麼?搞企業數據庫的只能用Linux麼?當微軟不存在嗎?
Devil doesn't need an advocate
#127 Re: deepseek 把GPU需求倒退会A100时代
微软很早就开始拥抱Linux拥抱开源了,至于内部软件在哪个OS上实现,这是微软自己的选择,自然有代码效率和代码移植的考量,跟我们讨论的话题无关
Devil doesn't need an advocate
#128 Re: deepseek 把GPU需求倒退会A100时代
你搞什么的? Hci是开ai公司的。
在美国谁都可以告谁。openai 告啊。不告你打算怎么说?
一大堆的人排队准备搞 Openai 侵犯版权。
这会是有史以来最大的 Class action lawsuit.
Openai 打官司把自己暴露,那真是自投罗网。
x1

#130 Re: deepseek 把GPU需求倒退会A100时代
你是来搞笑的吧。。。openai就是在azure ai platform跑出来的,整个azure就是跑在windows server上的,软软自己的esxibiggestballs 写了: 2025年 2月 1日 16:24 运行的software/workloads不同,举个例子,如果你是HPC/AI workloads,你会用Windows Server运行吗,至少我帮OpenAI搭的cluster没有Windows的,无论cloud的还是baremetal的都是Linux
#131 Re: deepseek 把GPU需求倒退会A100时代
现在的windows server用的nt kernel 其实是软软魔改的Linux kernel, 差球不多。。。这得多谢当年亚洲研究院那帮马共magagop 写了: 2025年 2月 1日 16:30 Linux Server和Windows Sever的workloads完全不一樣嗎?就完全沒有重疊麼?搞企業數據庫的只能用Linux麼?當微軟不存在嗎?
#132 Re: deepseek 把GPU需求倒退会A100时代
我就是Azure OpenAI团队的,你懂Azure的架构吗,我们virtualization layer的host OS是Windows (Hyper-V),上面跑的VM全部是Linux,如果是baremetal的cluster,那就更没Windows什么事了,别来班门弄斧了anesthetic 写了: 2025年 2月 1日 21:19 你是来搞笑的吧。。。openai就是在azure ai platform跑出来的,整个azure就是跑在windows server上的,软软自己的esxi
你知道OpenAI training和inference分别用的是什么platform吗,这些公司内部信息就不多讲了,不是我喷你,你这是刚好撞到枪口上
上次由 biggestballs 在 2025年 2月 1日 21:30 修改。
Devil doesn't need an advocate
#133 Re: deepseek 把GPU需求倒退会A100时代
我就是你的饮食父母啊,难道我说错了吗???底层就是windows server, 也只有软软做这种脱了裤子放屁的事biggestballs 写了: 2025年 2月 1日 21:28 我就是Azure OpenAI团队的,你懂Azure的架构吗,我们virtualization layer的host OS是Windows (HyperV),上面跑的VM全部是Linux,别来班门弄斧了
你知道OpenAI training和inference分别用的是什么platform吗,这些公司内部信息就不多讲了,不是我喷你,你这是刚好撞到枪口上
#134 Re: deepseek 把GPU需求倒退会A100时代
我们讨论的好像是LLM workloads是不是跑在Windows上的,尼玛没有virtualization怎么跑
Devil doesn't need an advocate
#135 Re: deepseek 把GPU需求倒退会A100时代
所以你的workloads最后还是由windows server的nt kervel来handle啊。os 101知识啊,你咋混进的软软。。。不过ops也不需要了解这些吧
#136 Re: deepseek 把GPU需求倒退会A100时代
大兄弟,hypervisor layer只做一件事就是virtualization support,至于你是Windows魔改还是AWS的KVM,主要功能都一样,就是把不同的VM跑起来,你LLM workloads对于hypervisor是透明的,完全不是你理解的直接跑在hypervisor上的,而是在Linux VM的kernel运行的,virtualization 101啊anesthetic 写了: 2025年 2月 1日 21:36 所以你的workloads最后还是由windows server的nt kervel来handle啊。os 101知识啊,你咋混进的软软。。。不过ops也不需要了解这些吧
还有一点你好像搞错了,不管从哪个角度讲,微软才是你们的衣食父母
Devil doesn't need an advocate
#138 Re: deepseek 把GPU需求倒退会A100时代
err。。。你就说你的linux vm上的kernel的指令最后是不是还是wimdows server 的nt kernel来run吧。。。biggestballs 写了: 2025年 2月 1日 21:43 大兄弟,hypervisor layer只做一件事就是virtualization support,至于你是Windows魔改还是AWS的KVM,主要功能都一样,就是把不同的VM跑起来,你LLM workloads对于hypervisor是透明的,完全不是你理解的直接跑在hypervisor上的,而是在Linux VM的kernel运行的,virtualization 101啊
还有一点你好像搞错了,不管从哪个角度讲,微软才是你们的衣食父母
大家用linux client跑ai纯粹就是习惯,或者ecosystem,跟性能/workloads没啥关系,windows server 并不比linux 慢。软软自己research lab里的hpc就是跑的原生windows server。
#140 Re: deepseek 把GPU需求倒退会A100时代
看不了,能贴过来吗?biggestballs 写了: 2025年 2月 1日 10:00 你们这些老帮菜们看看真正做LLM一线开发的MLE是怎么评价DeepSeek的吧,不要觉得自己能牛b到一语道破玄机,实则外行评内行,贻笑大方
https://www.1point3acres.com/bbs/thread ... 3-1-1.html
放浪形骸