https://www.science.org/doi/10.1126/science.adi1374
Meta训Llama 3直接用了15万亿个token
11个月里,每周让女儿戴一个小时的相机
用了61小时的视频片段训出一个神经网络,纪录一个幼儿的经历,模型竟然能够概括出未训练的图像中的对象名称,它只有60小时左右的带标注的演讲,这仅仅是一个儿童在两年内所习得经验的百分之一
新的思路是,让AI模型从有限的输入中学习,然后从我们看到的数据中推广出来 (这不正是我老的思路吗 - 本网过去帖子可见)
幼儿实验发现,大模型(LLM)也许不对,效率不高
版主: none
#2 Re: 幼儿实验发现,大模型(LLM)也许不对,效率不高
这年头思路不重要,有生产资料执行很重要
萧武达 写了: 2024年 5月 13日 04:13 https://www.science.org/doi/10.1126/science.adi1374
Meta训Llama 3直接用了15万亿个token
11个月里,每周让女儿戴一个小时的相机
用了61小时的视频片段训出一个神经网络,纪录一个幼儿的经历,模型竟然能够概括出未训练的图像中的对象名称,它只有60小时左右的带标注的演讲,这仅仅是一个儿童在两年内所习得经验的百分之一
新的思路是,让AI模型从有限的输入中学习,然后从我们看到的数据中推广出来 (这不正是我老的思路吗 - 本网过去帖子可见)