所谓的python数学都是C++/c
只会python的为什么还自称码农?
版主: Softfist
-
- 论坛元老
Caravel 的博客 - 帖子互动: 680
- 帖子: 27115
- 注册时间: 2022年 7月 24日 17:21
#23 Re: 只会python的为什么还自称码农?
你对CS研究了解太片面了。Algorithms 是什么知道吧。算法在研究阶段就是各种discrete math/linear algebra的证明. 俗人应用的时候是写代码。但是这些算法的突破并不在于它们是什么代码写的,而是这些“法”本身以及它们optimality/complexity的证明。 CS 里最有名的,Dijkstra's algorithm 的paper里一行代码也没有脱离代码的CS研究基本全是垃圾
https://web.archive.org/web/20170718230 ... im1957.pdf
#25 Re: 只会python的为什么还自称码农?
算法的突破是有限度的,后来人类发现了NPC后,新的突破一般就被视为奇技淫巧了
现在有了深度学习后,不仅算法全公开,代码大部分公开,甚至数据基本都是公开的。保密的只是训练方法
图灵奖发了太多cheap的奖,所以目前含金量远低于诺贝尔科学奖
现在有了深度学习后,不仅算法全公开,代码大部分公开,甚至数据基本都是公开的。保密的只是训练方法
图灵奖发了太多cheap的奖,所以目前含金量远低于诺贝尔科学奖
matt_lee 写了: 2024年 10月 28日 11:20 你对CS研究了解太片面了。Algorithms 是什么知道吧。算法在研究阶段就是各种discrete math/linear algebra的证明. 俗人应用的时候是写代码。但是这些算法的突破并不在于它们是什么代码写的,而是这些“法”本身以及它们optimality/complexity的证明。 CS 里最有名的,Dijkstra's algorithm 的paper里一行代码也没有
https://web.archive.org/web/20170718230 ... im1957.pdf
-
- 论坛元老
Caravel 的博客 - 帖子互动: 680
- 帖子: 27115
- 注册时间: 2022年 7月 24日 17:21
#30 Re: 只会python的为什么还自称码农?
PDF里的文章应该是介绍prim'S ALGORTITHM的吧。这个算法应该是算最小生成树的。DIJKSTRA'S 是算图里的两点之间最短路径的。matt_lee 写了: 2024年 10月 28日 11:20 你对CS研究了解太片面了。Algorithms 是什么知道吧。算法在研究阶段就是各种discrete math/linear algebra的证明. 俗人应用的时候是写代码。但是这些算法的突破并不在于它们是什么代码写的,而是这些“法”本身以及它们optimality/complexity的证明。 CS 里最有名的,Dijkstra's algorithm 的paper里一行代码也没有
https://web.archive.org/web/20170718230 ... im1957.pdf
-
- 论坛元老
Caravel 的博客 - 帖子互动: 680
- 帖子: 27115
- 注册时间: 2022年 7月 24日 17:21
#34 Re: 只会python的为什么还自称码农?
我的理解是这样的。xiaoju 写了: 2024年 10月 28日 18:56 算法的突破是有限度的,后来人类发现了NPC后,新的突破一般就被视为奇技淫巧了
现在有了深度学习后,不仅算法全公开,代码大部分公开,甚至数据基本都是公开的。保密的只是训练方法
图灵奖发了太多cheap的奖,所以目前含金量远低于诺贝尔科学奖
1)NPC是定义的,不是发现的。你说的发现,可能是指发现NPC的各种问题(E.G.,第一个NPC是SAT,1971年发现的)。
2)若干重要的计算问题跟NPC没什么关系。比如矩阵乘法,大家都知道的高斯消去法时间复杂度的上限是问题本身的尺度的立方。矩阵乘法的算法这些年一直有进步,往平方那个方向推进。每一次小进步,都是大新闻。因为矩阵乘法太普遍,太重要了(包括神经网络里面的计算)。可以看看这个链接:https://en.wikipedia.org/wiki/Matrix_mu ... _algorithm
3)我没有仔细想过这件事。我猜如果两个矩阵可以在线性时间里相乘,Hinton之流30年前应该就把神经网络带火了,根本不需要去等什么GPU。
#39 Re: 只会python的为什么还自称码农?
NPC是被发现存在高度关联性的一类问题,在人类系统研究时间复杂度前并没有意识到
这个分类的重要性不需要重复,不然也不会列入千禧年问题
深度学习的瓶颈不只是计算量,哪怕计算速度无限大,直接用MLP做LLM,全世界的内存也不够用
这个分类的重要性不需要重复,不然也不会列入千禧年问题
深度学习的瓶颈不只是计算量,哪怕计算速度无限大,直接用MLP做LLM,全世界的内存也不够用
TestCases 写了: 2024年 10月 28日 19:55 我的理解是这样的。
1)NPC是定义的,不是发现的。你说的发现,可能是指发现NPC的各种问题(E.G.,第一个NPC是SAT,1971年发现的)。
2)若干重要的计算问题跟NPC没什么关系。比如矩阵乘法,大家都知道的高斯消去法时间复杂度的上限是问题本身的尺度的立方。矩阵乘法的算法这些年一直有进步,往平方那个方向推进。每一次小进步,都是大新闻。因为矩阵乘法太普遍,太重要了(包括神经网络里面的计算)。可以看看这个链接:https://en.wikipedia.org/wiki/Matrix_mu ... _algorithm
3)我没有仔细想过这件事。我猜如果两个矩阵可以在线性时间里相乘,Hinton之流30年前应该就把神经网络带火了,根本不需要去等什么GPU。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 680
- 帖子: 27115
- 注册时间: 2022年 7月 24日 17:21