omicron 写了: 2025年 6月 26日 18:49 你这是高速,有应急位置,可以绕开
蛇皮袋能不能压过去,人就可以判断,自动驾驶就不会
路上的东西多了,不是什么时候都能绕的
这就是训练没法处理的一个很常见的case
这样类似的case,多了去了,根本是无数情况
我朋友发的亲身视频,他的cybertruck
版主: lexian
#61 Re: 我朋友发的亲身视频,他的cybertruck
那这个呢?
#62 Re: 我朋友发的亲身视频,他的cybertruck
看你training set的质量了。LLM的training pool,特别是如果是实时的,很容易被污染。憋国的DeepSeek就是这样被原来做刷榜公司的那些奸商给污染了。
tesla这个real world ai是完全基于自己fleet的视频数据,加上simulation训练出来的,质量要比LLM的training set质量要高不少。
tesla这个real world ai是完全基于自己fleet的视频数据,加上simulation训练出来的,质量要比LLM的training set质量要高不少。
#63 Re: 我朋友发的亲身视频,他的cybertruck
开车一个错误命就没了ignius 写了: 2025年 6月 26日 19:51 看你training set的质量了。LLM的training pool,特别是如果是实时的,很容易被污染。憋国的DeepSeek就是这样被原来做刷榜公司的那些奸商给污染了。
tesla这个real world ai是完全基于自己fleet的视频数据,加上simulation训练出来的,质量要比LLM的training set质量要高不少。
无论那种生成式AI,真的能质量好,就不会有这么多虚假信息和错误率了
不开车,错误不会有严重后果,chaGPT胡说,也没严重问题
#67 Re: 我朋友发的亲身视频,他的cybertruck
错误也分critical error和非critical error。critical error的避免其实不难,种类不多,容易训练。人类开车其实也犯很多错,只要避免critical error就不会出车祸。
stm32 写了: 2025年 6月 26日 20:00 开车一个错误命就没了
无论那种生成式AI,真的能质量好,就不会有这么多虚假信息和错误率了
不开车,错误不会有严重后果,chaGPT胡说,也没严重问题
#68 Re: 我朋友发的亲身视频,他的cybertruck
fsd现在的逻辑就是路上碰到障碍就要绕开,不会直接撞上去。
就是看怎么绕了。如果右边有空就从右边绕,右边没空,就会试图从左边没车时,或者对面车让行的时候绕。
就是看怎么绕了。如果右边有空就从右边绕,右边没空,就会试图从左边没车时,或者对面车让行的时候绕。
#69 Re: 我朋友发的亲身视频,他的cybertruck
生成式AI训练干什么,不就是对环境状况做判断ignius 写了: 2025年 6月 26日 20:18 错误也分critical error和非critical error。critical error的避免其实不难,种类不多,容易训练。人类开车其实也犯很多错,只要避免critical error就不会出车祸。
不撞到前方的人或者车,这么多传感器,都是正对着前方的,是很容易抓到
出事都是撞到路桩,开到逆向,撞到树,修路标志识别错误,这样的环境状况的错误判断
错误判断根本不分什么critical error和none critical error,因为生成AI根本也不懂这些,也不可能区分两者
#70 Re: 我朋友发的亲身视频,他的cybertruck
所以一个简单情况,不会判断。问题就大了ignius 写了: 2025年 6月 26日 20:22 fsd现在的逻辑就是路上碰到障碍就要绕开,不会直接撞上去。
就是看怎么绕了。如果右边有空就从右边绕,右边没空,就会试图从左边没车时,或者对面车让行的时候绕。
路上障碍物多了,树枝可以落到路面,塑料袋可以掉在路面
如果因为大风,路上很多小垃圾,其实都是可以压过去的,没地方绕,开还是不开
如果是钉子怎么办,看得到吗?
#71 Re: 我朋友发的亲身视频,他的cybertruck
但是它可以根据人类司机在这种情况下的行为来学习,从而学习怎样处理这些场景。比如看到前方有树,人类会减速,甚至停下来,然后绕行。看到修路标志和路上的cone,就会减速,沿着cone的切线开,而不是撞上去。
stm32 写了: 2025年 6月 26日 20:26 生成式AI训练干什么,不就是对环境状况做判断
不撞到前方的人或者车,这么多传感器,都是正对着前方的,是很容易抓到
出事都是撞到路桩,开到逆向,撞到树,修路标志识别错误,这样的环境状况的错误判断
错误判断根本不分什么critical error和none critical error,因为生成AI根本也不懂这些,也不可能区分两者
#72 Re: 我朋友发的亲身视频,他的cybertruck
这个没法学习ignius 写了: 2025年 6月 26日 20:34 但是它可以根据人类司机在这种情况下的行为来学习,从而学习怎样处理这些场景。比如看到前方有树,人类会减速,甚至停下来,然后绕行。看到修路标志和路上的cone,就会减速,沿着cone的切线开,而不是撞上去。
路上的车和路上行人,容易学习
修路或者路况,以及环境的发生变化,这些情况千变万化,人也不是通过预先学习这些情况,来开车的
人是通过思维,预测,临时判断这些状况的危险性,来决定下一步如何做的
#73 Re: 我朋友发的亲身视频,他的cybertruck
障碍物的体积当然要大到一定的程度才会被定义为需要绕开的障碍物。钉子和pothole现在还看不到,很多情况下人也看不到。
omicron 写了: 2025年 6月 26日 20:31 所以一个简单情况,不会判断。问题就大了
路上障碍物多了,树枝可以落到路面,塑料袋可以掉在路面
如果因为大风,路上很多小垃圾,其实都是可以压过去的,没地方绕,开还是不开
如果是钉子怎么办,看得到吗?
#74 Re: 我朋友发的亲身视频,他的cybertruck
只要是开tesla的司机碰到过你说的那些场景,就有视频数据,fsd就可以学习。machine是通过看到大量人类驾驶的各种场景的处理方式,自己总结出的一套规则。对于人类来说是个black box。
stm32 写了: 2025年 6月 26日 20:40 这个没法学习
路上的车和路上行人,容易学习
修路或者路况,以及环境的发生变化,这些情况千变万化,人也不是通过预先学习这些情况,来开车的
人是通过思维,预测,临时判断这些状况的危险性,来决定下一步如何做的
上次由 ignius 在 2025年 6月 26日 20:50 修改。
#75 Re: 我朋友发的亲身视频,他的cybertruck
这个不可能包括所有情况,路上情况千变万化,没人提前知道会发生什么
而且学的也不一定正确
最近孩子学开车,驾校笔试,教defensive driving 技巧,就是要求眼睛看前方远处,提前判断行驶方向,是否存在危险
这个判断不仅仅是车和人,也包括环境状况,任何可能发生的危险,都要求驾驶员提前预知,比如前面路边的树要倒了,就不要开过去了
上次由 stm32 在 2025年 6月 26日 20:52 修改。
#78 Re: 我朋友发的亲身视频,他的cybertruck
fsd也有底层逻辑,比如你说的那种情况,fsd用occupancy network来检测到树,而且通过不同timestamp的视频对比来判断树是否在倒下挡住路,从而决定停止或者绕行。
stm32 写了: 2025年 6月 26日 20:50 这个没有,情况千变万化,学的也不一定正确
最近孩子学开车,驾校笔试,教defensive driving 技巧,就是要求眼睛看前方远处,提前判断行驶方向,是否存在危险
这个判断不仅仅是车和人,也包括环境状况,任何可能发生的危险,都要求驾驶员提前预知,比如前面路边的树要倒了,就不要开过去了
#79 Re: 我朋友发的亲身视频,他的cybertruck
这些fsd有底层逻辑来避免各种collision,可以提前预判。你可以看看occupancy network,occupancy flow detection。
https://www.thinkautonomous.ai/blog/occ ... works/amp/
https://www.thinkautonomous.ai/blog/occ ... works/amp/
#80 Re: 我朋友发的亲身视频,他的cybertruck
显然驾校说的危险不是撞车,撞人
危险包括,路面状况变化,包括修路,或者其他引起的道路变窄,变差,学生要求根据自身能力,提前减速,判断是否可以正常通过
如果道路边上出现没有大人看管的儿童,需要提前预警,减速,防止他们突然跳上马路
还有自行车,其他应急车辆,以及很多case,都需要学生自己判断
总而言之,就是根据前方物体,做预测和判断
预测前方物体的轨迹可能性是第一步,判断是否对行驶构成危险是第二步
上次由 stm32 在 2025年 6月 26日 21:04 修改。