大语言模型就是一个高维条件概率分布
人脑虽然具体实现机理不一样 但是结果是一样的
也是条件概率
所谓学习,就是对齐条件概率
看到书上一个推导看不懂
说明你的条件概率根据条件得到了A,或者B,书上却是C
这时候很痛苦 怎么回事 不能理解
这时候 不用担心 继续念书
和念经一样
等你的条件概率跟书本对齐了
你就懂了
这就是醍醐灌顶顿悟了
从大语言模型的角度谈学习是怎么回事
此博文来自论坛版块:军事天地(Military)
大模型发展出逻辑,用了不到10年
比如你做一道题做不出来,于是接下来的几天每天看黄片,让大脑神经元连接发生改变,也有一定概率导致你会做题了。
但是大方向就是这样
llm这样学习出来的 就是那种打吊针上大学的刷题家
而人的大脑可以在变长周期,甚至无限长的区间上产生相关性的直觉。