(转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

聚焦科技前沿,荟萃顶刊文章,学习、思考、进步!

版主: none

回复
头像
redot(红薯林)楼主
论坛元老
论坛元老
帖子互动: 534
帖子: 17188
注册时间: 2024年 7月 4日 23:40

#1 (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

帖子 redot(红薯林)楼主 »

此帖转自 redot 在 军事天地(Military) 的帖子:屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

这是 Alexandr Wang跳脚的关键

其实,真正ai或者DL 的重要判决之一是训练集
不是越大越强,显然在同样结果的前提下,训练集越小才越智能

人类本身的学习和训练都是非常有限的集合,人工智能的方向不同吗?

人类的智能和学习过程是什么?举一反三,触类旁通

我老多年前就指出这一点,但业界还是比训练数据 我老一气之下 决定走人,不给钱,只能如此
头像
牛河梁(别问我是谁)
论坛元老
论坛元老
2023年度十大优秀网友
2024年度优秀版主
牛河梁 的博客
帖子互动: 1496
帖子: 26872
注册时间: 2022年 11月 17日 21:21
联系:

#2 Re: (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

帖子 牛河梁(别问我是谁) »

你这观点当然是错误的。没有足够数据,就是盲人摸象。瞎猫抓死耗子。
头像
redot(红薯林)楼主
论坛元老
论坛元老
帖子互动: 534
帖子: 17188
注册时间: 2024年 7月 4日 23:40

#3 Re: (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

帖子 redot(红薯林)楼主 »

牛河梁 写了: 2025年 1月 29日 09:51 你这观点当然是错误的。没有足够数据,就是盲人摸象。瞎猫抓死耗子。
同样结果的资源使用量 - 逻辑?
头像
牛河梁(别问我是谁)
论坛元老
论坛元老
2023年度十大优秀网友
2024年度优秀版主
牛河梁 的博客
帖子互动: 1496
帖子: 26872
注册时间: 2022年 11月 17日 21:21
联系:

#4 Re: (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

帖子 牛河梁(别问我是谁) »

redot 写了: 2025年 1月 29日 21:26 同样结果的资源使用量 - 逻辑?
谁证明了R1有同样的结果?
头像
redot(红薯林)楼主
论坛元老
论坛元老
帖子互动: 534
帖子: 17188
注册时间: 2024年 7月 4日 23:40

#5 Re: (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误

帖子 redot(红薯林)楼主 »

R1,有更好的结果,微软介绍是一个证据

数据量多少,和算法优化
不是一个问题,不可单向绝对,所谓的量,质的关系
一个天才一生能接触到的数据有多大
80/90年代的算法,模型,当时无法执行,后来算力,存储够了,酒大进展,是事实
堆数据,拼算力,有用,但不是最优解
有时候,突破就是一层窗户纸,如果钻牛角就可能出不来,或者事倍功半
回复

回到 “前沿科技(Frontier)”