分页: 5 / 5
#82 Re: FSD又出事了
发表于 : 2024年 11月 4日 10:54
由 VladPutin
这不是废话嘛,蚂蚁龙的人工智能从来没撞过鹿,怎么学习?好歹也要撞上几万次才有足够的数据训练神经网络。
#83 Re: FSD又出事了
发表于 : 2024年 11月 4日 10:59
由 lsheng
ignius 写了: 2024年 11月 2日 00:24
fsd还有bug,跟tesla算力和软件方面超强不矛盾吧?
任何的软件都有bug。我可从来没说过fsd已经很完美,没有bug了。我只是觉得tesla用的新的算法很强,很有希望解决full autonomy。
自动驾驶和人最本质的区别目前是理解能力不够。人类好司机知道开快了撞车会死。看不到的路都是危险,不知道有没有人或者车,一旦看不到路况就应该减速甚至停车,万一桥断了,涵洞塌了呢?人里面也有不理解的,比如那些飙车的,特别是飙摩托车的,生活都告诉他们命只有一条,断了胳膊缺了腿恢复也不像血条那么简单。
#84 Re: FSD又出事了
发表于 : 2024年 11月 4日 11:16
由 windy
撞鹿这种事有时是没法避免的。我撞过一次,完全正常行驶,限速40,车速40迈,而且跟着traffic走。汽车路过一个小树丛,树丛后突然跳出一只鹿。这种情况任何自动驾驶或者人都不可能避免撞到。
#85 Re: FSD又出事了
发表于 : 2024年 11月 4日 11:31
由 geniushanbiao
VladPutin 写了: 2024年 11月 4日 10:54
这不是废话嘛,蚂蚁龙的人工智能从来没撞过鹿,怎么学习?好歹也要撞上几万次才有足够的数据训练神经网络。
同样的话,人工智能也没撞过人
#86 Re: FSD又出事了
发表于 : 2024年 11月 4日 11:32
由 lsheng
windy 写了: 2024年 11月 4日 11:16
撞鹿这种事有时是没法避免的。我撞过一次,完全正常行驶,限速40,车速40迈,而且跟着traffic走。汽车路过一个小树丛,树丛后突然跳出一只鹿。这种情况任何自动驾驶或者人都不可能避免撞到。
跟车足够远也许可以。比如距离100米跟车。
#87 Re: FSD又出事了
发表于 : 2024年 11月 4日 11:36
由 lsheng
就是随便的障碍物也是不应该撞的。这种就是没有检测到障碍物,属于致命缺陷。难道前面车掉个椅子下来,因为没有训练就要撞么?显然不合理。
#88 Re: FSD又出事了
发表于 : 2024年 11月 4日 11:37
由 geniushanbiao
lsheng 写了: 2024年 11月 4日 11:36
就是随便的障碍物也是不应该撞的。这种就是没有检测到障碍物,属于致命缺陷。难道前面车掉个椅子下来,因为没有训练就要撞么?显然不合理。
我的观点是用这种训练的方式是得不到真正能像人一样的自动驾驶的。
#89 Re: FSD又出事了
发表于 : 2024年 11月 4日 12:36
由 windy
没用,自己一部车也有可能撞上。其实跟得近点反而不容易撞上。就是有点距离鹿才没看到。鹿突然跳出来那种情况是没法躲开的。
lsheng 写了: 2024年 11月 4日 11:32
跟车足够远也许可以。比如距离100米跟车。
#90 Re: FSD又出事了
发表于 : 2024年 11月 4日 13:39
由 ccmath
请问如果前方车上掉下一个马桶,艺龙的网络如何学习?
VladPutin 写了: 2024年 11月 4日 10:54
这不是废话嘛,蚂蚁龙的人工智能从来没撞过鹿,怎么学习?好歹也要撞上几万次才有足够的数据训练神经网络。
#91 Re: FSD又出事了
发表于 : 2024年 11月 4日 13:52
由 lsheng
windy 写了: 2024年 11月 4日 12:36
没用,自己一部车也有可能撞上。其实跟得近点反而不容易撞上。就是有点距离鹿才没看到。鹿突然跳出来那种情况是没法躲开的。
没看到是没办法。我前不久还碰到过,不过我看到它就已经开始减速了。它傻傻的还是非要过,我减速到10mph 让过去了。停住也可以,但没必要就没停了。当它们是小孩子好了,不懂交规。
#92 Re: FSD又出事了
发表于 : 2024年 11月 4日 21:25
由 almostcalm
VladPutin 写了: 2024年 11月 4日 10:54
这不是废话嘛,蚂蚁龙的人工智能从来没撞过鹿,怎么学习?好歹也要撞上几万次才有足够的数据训练神经网络。
难道说要撞上人几万次才学会不再撞人???
#93 Re: FSD又出事了
发表于 : 2024年 11月 4日 23:34
由 geniushanbiao
almostcalm 写了: 2024年 11月 4日 21:25
难道说要撞上人几万次才学会不再撞人???
实际上人开车已经撞过人几万次了,但是这些撞人的都被特斯拉认为是不合格的数据不用来train FSD的。
#94 Re: FSD又出事了
发表于 : 2024年 11月 4日 23:57
由 almostcalm
其实这些讨论都是基于大家真的相信FSD是完全端对端只有一个大的deep net,只能通过不停的Training 来学习才能改进。
其实没有听到特斯拉的工程师们这么说过。Elon这么大嘴一说很多人就都信了,buzz words人云亦云传开了。
其实你看到屏幕显示的各种车和人,就能想到多半不是一个端对端的net。至少感知系统和规划系统多半是分开的。
有一说一:所以也不至于说非得要撞过,才能学习。但是另一方面:也不是说学了就一定能学会。
#95 Re: FSD又出事了
发表于 : 2024年 11月 5日 00:09
由 VladPutin
almostcalm 写了: 2024年 11月 4日 21:25
难道说要撞上人几万次才学会不再撞人???
当然,人可以用模拟场景训练,路,建筑,电线杆,道路标志也一样,都可以通过道路拍摄的实景和模拟场景融合实现,重点是这些实景不包含不常见的东西,比如鹿,黑熊之类,只能通过白老鼠开车的时候实操训练。