此帖转自 redot 在 军事天地(Military) 的帖子:屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误
这是 Alexandr Wang跳脚的关键
其实,真正ai或者DL 的重要判决之一是训练集
不是越大越强,显然在同样结果的前提下,训练集越小才越智能
人类本身的学习和训练都是非常有限的集合,人工智能的方向不同吗?
人类的智能和学习过程是什么?举一反三,触类旁通
我老多年前就指出这一点,但业界还是比训练数据 我老一气之下 决定走人,不给钱,只能如此
(转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误
版主: none
#5 Re: (转载)屌丝揭开了一个被刻意掩盖的真相:AI模型训练方向错误
R1,有更好的结果,微软介绍是一个证据
数据量多少,和算法优化
不是一个问题,不可单向绝对,所谓的量,质的关系
一个天才一生能接触到的数据有多大
80/90年代的算法,模型,当时无法执行,后来算力,存储够了,酒大进展,是事实
堆数据,拼算力,有用,但不是最优解
有时候,突破就是一层窗户纸,如果钻牛角就可能出不来,或者事倍功半
数据量多少,和算法优化
不是一个问题,不可单向绝对,所谓的量,质的关系
一个天才一生能接触到的数据有多大
80/90年代的算法,模型,当时无法执行,后来算力,存储够了,酒大进展,是事实
堆数据,拼算力,有用,但不是最优解
有时候,突破就是一层窗户纸,如果钻牛角就可能出不来,或者事倍功半