早就说了,AI算法根本不可靠ignius 写了: 2025年 6月 26日 21:58 摄像头看到的场景就会被occupancy network进行四d建模,通过对occupancy flow的预测,就能规避危险。cybertruck为啥会发生事故,可能性很多,没视频没法判断。不能拿这个做为依据。
现在AI这么多错误,还有虚假信息,能可靠才怪
版主: lexian
早就说了,AI算法根本不可靠ignius 写了: 2025年 6月 26日 21:58 摄像头看到的场景就会被occupancy network进行四d建模,通过对occupancy flow的预测,就能规避危险。cybertruck为啥会发生事故,可能性很多,没视频没法判断。不能拿这个做为依据。
这不是废话
stm32 写了: 2025年 6月 26日 22:11 这不是废话
现在的AI算法,根本不能用来做可靠性要求很高的事情,这不是明摆着的
你用AI来开车,不知道啥时候就被撞死了
ChatGPT,还有各种生成式AI,胡说八道,是死不了人的
tops 写了: 2025年 6月 26日 22:13 我一直对纯视觉有问号。我开车久了,有碰到视觉幻觉,不知道大家有没有类似情况。比如类似楼主说的转弯车道,看不出来转弯离我有多远,就会小小紧张一下,只有开近了三维距离的感觉才好起来。还有就是晚上,低光线立体感也不好。如果是有激光雷达,这两个都不是问题。
就这水平的AI,居然有人拿来给人开车,然后还有人去舔。。。。。真是林子大了什么鸟都有stm32 写了: 2025年 6月 26日 22:11 这不是废话
现在的AI算法,根本不能用来做可靠性要求很高的事情,这不是明摆着的
你用AI来开车,不知道啥时候就被撞死了
ChatGPT,还有各种生成式AI,胡说八道,是死不了人的
人类每年因为gunshot死好几万人,但那也不是你养只狗可以乱咬人的理由。你养的狗如果乱咬人就会被安乐死,你也可以辩解说人类每年枪战死多少人我的狗才咬了几个人还没咬死,看看有没有人买你的狡辩。
人的大脑思维可靠性,比现在的生成式AI高多了
你跟这种无脑特粉讲这个没用。他们眼里马斯克永远是对的。stm32 写了: 2025年 6月 26日 22:41 人的大脑思维可靠性,比现在的生成式AI高多了
生成式AI,本身就算错误一堆,你自己用ChatGPT,或者AI搜索,马上就发现了
生成图片和图像,也是不能看细节,细节全是错误
这样的AI,怎么能成为自动驾驶的核心,这不是让使用者不知道哪天,突然死亡?
看有多少傻蛋被忽悠了
我是说给论坛里其他人听的
“可以说我们在用你的case训练一下,下次就不会发生”stm32 写了: 2025年 6月 26日 22:54 我是说给论坛里其他人听的
现在的AI,没法做驾驶这样的对可靠性要求很高的事情
一旦出错,对他们,可以说我们在用你的case训练一下,下次就不会发生
对你而言,可能就死了,而且鬼知道下次会不会再次发生
生成式AI本来就这么不可靠
fantasist 写了: 2025年 6月 27日 00:33 “可以说我们在用你的case训练一下,下次就不会发生”
这句不对。训练不管一下还是几下,都只能降低再次发生的概率,没法保证不会发生。而且以神经网络的复杂性,加数据专门把一个case训收敛了,很容易degrade其它case上的performance,测试集还不一定检测的出来,实际应用中才发现。
小六这类完全不懂AI的人以为马教主的团队都是神,碰到一个问题只要再训练一版就百分百解决了。实际上搞这行的工作重心之一就是打地鼠。
stm32 写了: 2025年 6月 26日 22:41 人的大脑思维可靠性,比现在的生成式AI高多了
生成式AI,本身就算错误一堆,你自己用ChatGPT,或者AI搜索,马上就发现了
生成图片和图像,也是不能看细节,细节全是错误
这样的AI,怎么能成为自动驾驶的核心,这不是让使用者不知道哪天,突然死亡?
看有多少傻蛋被忽悠了
geniushanbiao 写了: 2025年 6月 26日 22:29 人类每年因为gunshot死好几万人,但那也不是你养只狗可以乱咬人的理由。你养的狗如果乱咬人就会被安乐死,你也可以辩解说人类每年枪战死多少人我的狗才咬了几个人还没咬死,看看有没有人买你的狡辩。