幼儿实验发现,大模型(LLM)也许不对,效率不高

聚焦科技前沿,荟萃顶刊文章,学习、思考、进步!

版主: none

回复
头像
萧武达(shiaovd)楼主
论坛元老
论坛元老
帖子互动: 277
帖子: 19292
注册时间: 2022年 12月 28日 22:39

#1 幼儿实验发现,大模型(LLM)也许不对,效率不高

帖子 萧武达(shiaovd)楼主 »

https://www.science.org/doi/10.1126/science.adi1374

Meta训Llama 3直接用了15万亿个token
11个月里,每周让女儿戴一个小时的相机
用了61小时的视频片段训出一个神经网络,纪录一个幼儿的经历,模型竟然能够概括出未训练的图像中的对象名称,它只有60小时左右的带标注的演讲,这仅仅是一个儿童在两年内所习得经验的百分之一
新的思路是,让AI模型从有限的输入中学习,然后从我们看到的数据中推广出来 (这不正是我老的思路吗 - 本网过去帖子可见)
mmking
见习点评
见习点评
帖子互动: 153
帖子: 1554
注册时间: 2023年 1月 25日 05:10

#2 Re: 幼儿实验发现,大模型(LLM)也许不对,效率不高

帖子 mmking »

这年头思路不重要,有生产资料执行很重要
萧武达 写了: 2024年 5月 13日 04:13 https://www.science.org/doi/10.1126/science.adi1374

Meta训Llama 3直接用了15万亿个token
11个月里,每周让女儿戴一个小时的相机
用了61小时的视频片段训出一个神经网络,纪录一个幼儿的经历,模型竟然能够概括出未训练的图像中的对象名称,它只有60小时左右的带标注的演讲,这仅仅是一个儿童在两年内所习得经验的百分之一
新的思路是,让AI模型从有限的输入中学习,然后从我们看到的数据中推广出来 (这不正是我老的思路吗 - 本网过去帖子可见)
回复

回到 “前沿科技(Frontier)”