有趣 ,减少一些文绉绉,就可以像原mitbbs的Stephen King (屎地粪坑)一样发小黄文了。
oxo 写了: 2025年 8月 23日 02:54逼它露骨一些。
《醉月记》
李白拎着酒坛撞进酒馆时,李清照正用绢帕擦拭案上残羹。他醉眼一扫,忽然盯着她脚踝上那抹红丝:“好个绛纱袜,倒比蜀锦还艳三分!”
清照挑眉,将半盏冷酒泼向他:“你这浪荡子,连人家袜子都敢评头论足?”李白踉跄后退,却一把扣住她手腕:“易安易安,莫非怕我醉眼朦胧,认不清你的‘帘卷西风’?”
有趣 ,减少一些文绉绉,就可以像原mitbbs的Stephen King (屎地粪坑)一样发小黄文了。
oxo 写了: 2025年 8月 23日 02:54逼它露骨一些。
《醉月记》
李白拎着酒坛撞进酒馆时,李清照正用绢帕擦拭案上残羹。他醉眼一扫,忽然盯着她脚踝上那抹红丝:“好个绛纱袜,倒比蜀锦还艳三分!”
清照挑眉,将半盏冷酒泼向他:“你这浪荡子,连人家袜子都敢评头论足?”李白踉跄后退,却一把扣住她手腕:“易安易安,莫非怕我醉眼朦胧,认不清你的‘帘卷西风’?”
楼主估计没有了解当前LLM的基础模型Transformer。简单地说基于前面的若干个token t-1,...t-n(n是context的长度)找到可能性最大的几个token,然后再从这几个token中,按照一定的分布率(由temperature参数控制,取值越大随机性越强)选一个当作输出token t。这个token t 和以前的n-1个合并一起,再次调用Transformer模型,得到token t+1。反复如此,得到一个完全的输出。
所以LLM的结果每次都是实时生成的。
CPU是desktop version,GPU是mobile version。
这个AMD 395配上128G内存,跑本地的100B大小之内的LLM方便又便宜, 如果使用GPU的话,得4个做cluster才行。
特别现在的一些开源模型如deepseek, qwen3, gpt-oss, gml4.5。几十个B的模型水平都可以。
非常对。现在石油的主要用处是燃料,但是重油提炼汽油柴油煤油比较费劲,所以认为价值低。但是以后能源转向各种可再生能源,轻油就失去价值了,反而重油含大分子有机成分多,对于有机化工非常重要。价值会上升。
嗯,你真聪明。俄罗斯可以单方面宣布拥有全世界,然后打哪个国家都没毛病了。
Pta 写了: 2025年 5月 2日 08:20 赞,我早就指出,如果以环保理由禁止本国工厂生产,就应该同样禁止进口外国同类商品。否则,从道德上讲是牺牲别人的健康为代价,而且还剥夺了本国劳动人民的工作机会,更广义的,地球环境是一家,因环保理由限制自己却进口别国,最终对地球的环境损害和本国生产是一样的。
环保教气候教都是反人类邪教,理应取缔,法办克里!