Hinton在80年代就提出BP了,咋现在才深度学习?

对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。


版主: Softfist

头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#1 Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

不就是反向传播对多层结构进行训练?感觉简单得很,不值得一个图灵奖。

学术上而论,Shor用算力践踏NP世界才是最应该图灵的。
上次由 DonnieTrump 在 2024年 8月 9日 07:24 修改。
头像
hci(海螺子)
论坛支柱
论坛支柱
帖子互动: 506
帖子: 10250
注册时间: 2022年 7月 22日 15:29

#2 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 hci(海螺子) »

因为不受待见,没有房顶,没有学生。
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#3 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

BP没有卵用,MLP最多3层就优化不动了。真正的突破是CNN的小卷积核。
DonnieTrump 写了: 2024年 8月 9日 06:35 不就是反向传播对多层结构进行训练?感觉简单得很,不值得一个图灵奖。

学术上而论,Shor、Grover用算力践踏NP世界才是最应该图灵的。
futureLL
见习写手
见习写手
帖子互动: 16
帖子: 109
注册时间: 2023年 9月 23日 08:18

#4 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 futureLL »

1. 1957 年,Frank Rosenblat 发明感知机(Perceptron), 奠定了之后深度学习的基本结构。
2. 1974 年,Paul Werbos 在博士论文“Beyond regression : new tools for prediction and analysis in the behavioral sciences” 中提出了用误差反向传播来训练人工神经网络的算法,使得训练多层神经网络成为可能,有效解决了异或回路问题。这个工作奠定了之后深度学习的训练方式,深度学习训练系统中最为重要的执行步骤就是通过迭代不断进行反向传播训练模型。
3. BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland为首的科研小组提出,参见他们发表在Nature上的论文 Learning representations by back-propagating errors 值得一提的是,该文的第三作者Geoffrey E. Hinton。
3. 1989 年,Yann LeCun 在论文“Backpropagation Applied to Handwritten Zip Code Recognition”[9]提出了一种用反向传播进行更新的卷积神经网络,称为 LeNet 。启发了后续卷积神经网络的研究与发展。卷积神经网络为深度学习系统的重要算子,大多数的计算机视觉领域的深度学习系统都需要在卷积神经网络上验证性能。
4. 1982年,美国John Hopfield发明了一种单层反馈神经网络Hopfield Network。 1990年,美国Jeffrey L.Elman对Jordan Network进行了简化,并采用BP算法进行训练,便有了如今最简单的包含单个自连接节点的RNN模型。但此时RNN由于梯度消失(Gradient Vanishing)及梯度爆炸(Gradient Exploding)的问题,训练非常困难,应用非常受限。直到1997年,瑞士人工智能研究所的主任Jurgen Schmidhuber提出长短期记忆(LSTM),LSTM使用门控单元及记忆机制大大缓解了早期RNN训练的问题。同样在1997年,Mike Schuster提出双向RNN模型(Bidirectional RNN)。
5. 2006 年,Geoff Hinton、Ruslan Salakhutdinov、Osindero 的论文“Reducing the Dimensionality of Data with Neural Networks”[10]表明,多层前馈神经网络可以一次有效地预训练一层,依次将每一层视为无监督受限的玻尔兹曼(Boltzmann)机,然后使用监督反向传播对其进行微调,其论文主要研究深度信念网络(Deep Belief Nets)的学习。
6. 2009 年,李飞飞开发 ImageNet数据库,之后大量计算机视觉领域的经典模型在此数据库上进行验证,评测并演进, 使得深度学习算法的效果得到验证,也使得人工智能界意识到深度学习模型的重要性,AI进入深度学习时代。
7. 2017年Transformer架构提出,取代RNN,基于Transformer后出现GPT和BERT, 在之后大模型如雨后春笋般出现。

互联网的海量数据和GPU使得深度学习模型训练成为可能。因此,深度学习算法和大数据同等重要,深度学习算法很早就提出来,等待大规模标注数据来训练,两者缺一不可。以上提到的人都对深度学习有着深刻影响。
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 4077
帖子: 60763
注册时间: 2022年 7月 22日 01:22

#5 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 huangchong(净坛使者) »

futureLL 写了: 2024年 8月 9日 07:40 1. 1957 年,Frank Rosenblat 发明感知机(Perceptron), 奠定了之后深度学习的基本结构。
2. 1974 年,Paul Werbos 在博士论文“Beyond regression : new tools for prediction and analysis in the behavioral sciences” 中提出了用误差反向传播来训练人工神经网络的算法,使得训练多层神经网络成为可能,有效解决了异或回路问题。这个工作奠定了之后深度学习的训练方式,深度学习训练系统中最为重要的执行步骤就是通过迭代不断进行反向传播训练模型。
3. BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland为首的科研小组提出,参见他们发表在Nature上的论文 Learning representations by back-propagating errors 值得一提的是,该文的第三作者Geoffrey E. Hinton。
3. 1989 年,Yann LeCun 在论文“Backpropagation Applied to Handwritten Zip Code Recognition”[9]提出了一种用反向传播进行更新的卷积神经网络,称为 LeNet 。启发了后续卷积神经网络的研究与发展。卷积神经网络为深度学习系统的重要算子,大多数的计算机视觉领域的深度学习系统都需要在卷积神经网络上验证性能。
4. 1982年,美国John Hopfield发明了一种单层反馈神经网络Hopfield Network。 1990年,美国Jeffrey L.Elman对Jordan Network进行了简化,并采用BP算法进行训练,便有了如今最简单的包含单个自连接节点的RNN模型。但此时RNN由于梯度消失(Gradient Vanishing)及梯度爆炸(Gradient Exploding)的问题,训练非常困难,应用非常受限。直到1997年,瑞士人工智能研究所的主任Jurgen Schmidhuber提出长短期记忆(LSTM),LSTM使用门控单元及记忆机制大大缓解了早期RNN训练的问题。同样在1997年,Mike Schuster提出双向RNN模型(Bidirectional RNN)。
5. 2006 年,Geoff Hinton、Ruslan Salakhutdinov、Osindero 的论文“Reducing the Dimensionality of Data with Neural Networks”[10]表明,多层前馈神经网络可以一次有效地预训练一层,依次将每一层视为无监督受限的玻尔兹曼(Boltzmann)机,然后使用监督反向传播对其进行微调,其论文主要研究深度信念网络(Deep Belief Nets)的学习。
6. 2009 年,李飞飞开发 ImageNet数据库,之后大量计算机视觉领域的经典模型在此数据库上进行验证,评测并演进, 使得深度学习算法的效果得到验证,也使得人工智能界意识到深度学习模型的重要性,AI进入深度学习时代。
7. 2017年Transformer架构提出,取代RNN,基于Transformer后出现GPT和BERT, 在之后大模型如雨后春笋般出现。

互联网的海量数据和GPU使得深度学习模型训练成为可能。因此,深度学习算法和大数据同等重要,深度学习算法很早就提出来,等待大规模标注数据来训练,两者缺一不可。以上提到的人都对深度学习有着深刻影响。
有几句话说得特别膈应
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#6 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

huangchong 写了: 2024年 8月 9日 07:43 有几句话说得特别膈应
李井泉孙女划时代改进DNN那条?
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 4077
帖子: 60763
注册时间: 2022年 7月 22日 01:22

#7 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 huangchong(净坛使者) »

DonnieTrump 写了: 2024年 8月 9日 08:20 李井泉孙女划时代改进DNN那条?
好几句话,比如第一句,“感知器奠定了深度学习的基本结构”,等于说细胞奠定了人类的基本结构,也不能说全错,但是也不大对头。

后面还有大部分视觉神经网络都要在卷积网络上验证性能,这啥意思,卷积网络成了质检工具了。

当然李飞飞开发imagenet也算一句,这句不算太严重,毕竟领导开发也是开发。

google “李飞飞发明imagenet”
看见的世界,看不见的李飞飞

虎嗅网
https://m.huxiu.com › article
·
Translate this page
Jul 29, 2024 — 李飞飞,被全球学界、商界共同誉为人工智能奠基人,2006年她开始构思发明的ImageNet图片数据集成为新一代人工智能技术的三大基石之一,另两大基石是GPU和 ...
头像
laodongzhe18(组长)
论坛元老
论坛元老
帖子互动: 1289
帖子: 33186
注册时间: 2022年 7月 26日 09:36

#8 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 laodongzhe18(组长) »

现在一个i7就顶500台克雷2,一个深度学习算法用的i7跟克雷2的晶体管是一个数量级的。
DonnieTrump 写了: 2024年 8月 9日 06:35 不就是反向传播对多层结构进行训练?感觉简单得很,不值得一个图灵奖。

学术上而论,Shor用算力践踏NP世界才是最应该图灵的。
而生 在难逃
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#9 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

蛋不是这么扯的

深度学习只需要运算单元,99.9%的逻辑电路可以裁掉
laodongzhe18 写了: 2024年 8月 9日 08:48 现在一个i7就顶500台克雷2,一个深度学习算法用的i7跟克雷2的晶体管是一个数量级的。
头像
laodongzhe18(组长)
论坛元老
论坛元老
帖子互动: 1289
帖子: 33186
注册时间: 2022年 7月 26日 09:36

#10 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 laodongzhe18(组长) »

你算过?
xiaoju 写了: 2024年 8月 9日 08:57 蛋不是这么扯的

深度学习只需要运算单元,99.9%的逻辑电路可以裁掉
而生 在难逃
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#11 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

xiaoju 写了: 2024年 8月 9日 06:53 BP没有卵用,MLP最多3层就优化不动了。真正的突破是CNN的小卷积核。
现在全连接的MLP网络10几层随便算啊。是因为ADAM算法还是啥?Hinton那个一层层训练的方法究竟有多大地位?

感觉图灵奖就是按名气发。古德费洛的GAN起码应该放进去,BP的改进也应该占三分之一。
上次由 DonnieTrump 在 2024年 8月 9日 10:52 修改。
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#12 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

纯MLP是不可能的
参数爆炸
梯度消失
DonnieTrump 写了: 2024年 8月 9日 10:49 现在全连接的MLP网络10几层随便算啊。是因为ADAM算法?
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#13 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

现在一堆10几层DNN的例子在colab上随便跑啊。都不用大数据,MNIST就行。

理论上的推证现在看来都对不上。比如有著名的论断,多层可等同于三层MLP。结果现在多层比三层好太多了。
xiaoju 写了: 2024年 8月 9日 10:51 纯MLP是不可能的
参数爆炸
梯度消失
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#14 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

你先想想参数爆炸的意思,以及怎么解决参数爆炸

MNIST不用DL一样跑得起来
DonnieTrump 写了: 2024年 8月 9日 10:54 现在一堆10几层DNN的例子在colab上随便跑啊。都不用大数据,MNIST就行。

理论上的推证现在看来都对不上。比如有著名的论断,多层可等同于三层MLP。结果现在多层比三层好太多了。
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#15 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

xiaoju 写了: 2024年 8月 9日 19:16 你先想想参数爆炸的意思,以及怎么解决参数爆炸
MNIST不用DL一样跑得起来
就是参数不收敛,发散了?Adams解决得很好啊,当然lr等参数得走经验值。

也就是不能直接牛顿迭代的坑。数学上优化方法基本能解决得很好。
wonderstreet
论坛支柱
论坛支柱
帖子互动: 305
帖子: 11611
注册时间: 2022年 7月 27日 00:46

#16 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 wonderstreet »

那时算力不够,也没啥超大型数据
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#17 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

尼玛,不是这个意思
DonnieTrump 写了: 2024年 8月 13日 01:11 就是参数不收敛,发散了?Adams解决得很好啊,当然lr等参数得走经验值。

也就是不能直接牛顿迭代的坑。数学上优化方法基本能解决得很好。
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#18 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

xiaoju 写了: 2024年 8月 13日 08:37 尼玛,不是这个意思
不是个屁啊,就是震荡不收敛,
https://www.geeksforgeeks.org/vanishing ... -learning/
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1079
帖子: 26120
注册时间: 2023年 9月 5日 20:18

#19 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 xiaoju(可爱的龙猫) »

说的是参数爆炸不是梯度爆炸
DonnieTrump 写了: 2024年 8月 13日 09:20 不是个屁啊,就是震荡不收敛,
https://www.geeksforgeeks.org/vanishing ... -learning/
头像
DonnieTrump(唐闯璞)楼主
论坛支柱
论坛支柱
帖子互动: 489
帖子: 9933
注册时间: 2024年 7月 1日 08:51

#20 Re: Hinton在80年代就提出BP了,咋现在才深度学习?

帖子 DonnieTrump(唐闯璞)楼主 »

xiaoju 写了: 2024年 8月 13日 09:22 说的是参数爆炸不是梯度爆炸
不大模型都炸不了啥,就那几万个参数。

而且参数多了全局次优解一堆,更容易收敛。
回复

回到 “军事天地(Military)”