
难怪这几天特黑都安静了,不喷销量了
版主: lexian
#2 Re: 难怪这几天特黑都安静了,不喷销量了
新能源,中型,SUV,也就是必须限制在这么个小范围内特斯拉才能领先啊。
再说你看清楚了,还是我说的那个问题,这个范围内,特斯拉就一款车,比亚迪3款车。你把比亚迪3款车销量加一起和MY比比看谁多啊?大家买车都是第一先挑品牌,挑完了品牌再挑型号。特斯拉是用一个型号和别家好几个型号比。
再说你看清楚了,还是我说的那个问题,这个范围内,特斯拉就一款车,比亚迪3款车。你把比亚迪3款车销量加一起和MY比比看谁多啊?大家买车都是第一先挑品牌,挑完了品牌再挑型号。特斯拉是用一个型号和别家好几个型号比。
#8 Re: 难怪这几天特黑都安静了,不喷销量了
全世界rideshare的总市值是2000亿,一龙说Robotaxi可以boost一万亿市值。
一龙把特斯拉主业卖车干死之后,这公司已经进入等死的垃圾时间了。
x1

#9 Re: 难怪这几天特黑都安静了,不喷销量了
太扯淡了。全世界造电车的厂家,除了tesla,其他的还都在赔钱。老马早早的就意识到了tesla只做电车的话没啥希望,早晚会被鳖国超越。只有在real world AI这块全世界还属于处女地发展才有前途。投资人和华尔街也认可他的眼光。
altopalo 写了: 2025年 6月 11日 13:31 全世界rideshare的总市值是2000亿,一龙说Robotaxi可以boost一万亿市值。
一龙把特斯拉主业卖车干死之后,这公司已经进入等死的垃圾时间了。
x1

#14 Re: 难怪这几天特黑都安静了,不喷销量了
你把你的解释发给AI,你看看AI怎么给你解释的。
我给你贴一下
原话:“我每天都用自动驾驶,它对我来说没问题,所以我认为自动驾驶已经很成熟了。”
这种说法存在明显的逻辑错误,主要是以偏概全,也叫个例推断整体或轶事谬误。具体问题如下:
样本太小:只凭个人的有限经验(自己每天用没出事)来判断整个自动驾驶技术的成熟度,没有考虑到自动驾驶在不同环境、不同路况、极端情况等复杂情形下的表现。
忽略反例:没有考虑到其他用户可能遇到的问题或事故,也没有参考更大范围的数据和研究结果。
确认偏差:只关注自己的正面体验,忽略了可能存在的负面案例和统计数据。
举个例子,这就像说:“我从来没生过病,所以人不会生病。”显然是不合理的。
2. 与第二类错误(Type II Error)的关系
第二类错误(Type II Error),在统计学中指的是“未能拒绝一个实际上是错误的原假设”。用在这个场景下:
原假设(H₀):自动驾驶技术还不成熟(存在安全隐患)。
备择假设(H₁):自动驾驶技术已经成熟。
如果仅仅因为自己没遇到问题就认为自动驾驶已经成熟,可能会犯下第二类错误——没有发现其实还存在风险和不成熟的地方,即“漏判”了问题的存在。
为什么会发生第二类错误?
样本量太小,检测能力不足:个人经验无法覆盖所有可能的风险和极端情况,容易漏掉罕见但严重的问题。
过度自信于个体经验:把个体体验当成普遍规律,忽视了统计数据和科学研究的重要性。
总结表格
方面 解释
以偏概全 用个人经历代表整体,忽略大样本和系统性风险。
第二类错误 没有发现其实还存在的问题(风险),错误地接受了“技术成熟”的结论。
正确做法 应该参考大规模统计数据、科学研究和行业报告,而不是仅凭个体经验判断。
结论:
仅凭个人使用体验来判断自动驾驶是否成熟,既是逻辑上的错误,也容易导致统计学上的第二类错误。正确的做法是看大范围的测试数据和科学分析,而不是依赖个例。
AI还给你计算了一下:
假设:
每天独立使用一次,单次失败概率为 1%(即0.01)。
一年有365天。
1. 一天不失败的概率是 1−0.01=0.99
2. 365天都不失败的概率
假设每天的事件独立,那么365天都不失败的概率是:
0.9^365
3. 至少有一天失败的概率
至少一天失败 = 1 - 一天都不失败的概率:
1−0.99^365
4. 实际数值
用计算器算一下:
0.99^365≈0.025
1 −0.025=0.975
也就是说,一年内至少遇到一次失败的概率约为97.5%,
党Musk称呼可以在车上什么都不用做,你是不是考虑一下,自己想活几年?有几条命?
x2

上次由 pnlmpnlm 在 2025年 6月 11日 16:01 修改。
#15 Re: 难怪这几天特黑都安静了,不喷销量了
pnlmpnlm 写了: 2025年 6月 11日 15:55 你把你的解释发给AI,你看看AI怎么给你解释的。
我给你贴一下
原话:“我每天都用自动驾驶,它对我来说没问题,所以我认为自动驾驶已经很成熟了。”
这种说法存在明显的逻辑错误,主要是以偏概全,也叫个例推断整体或轶事谬误。具体问题如下:
样本太小:只凭个人的有限经验(自己每天用没出事)来判断整个自动驾驶技术的成熟度,没有考虑到自动驾驶在不同环境、不同路况、极端情况等复杂情形下的表现。
忽略反例:没有考虑到其他用户可能遇到的问题或事故,也没有参考更大范围的数据和研究结果。
确认偏差:只关注自己的正面体验,忽略了可能存在的负面案例和统计数据。
举个例子,这就像说:“我从来没生过病,所以人不会生病。”显然是不合理的。
2. 与第二类错误(Type II Error)的关系
第二类错误(Type II Error),在统计学中指的是“未能拒绝一个实际上是错误的原假设”。用在这个场景下:
原假设(H₀):自动驾驶技术还不成熟(存在安全隐患)。
备择假设(H₁):自动驾驶技术已经成熟。
如果仅仅因为自己没遇到问题就认为自动驾驶已经成熟,可能会犯下第二类错误——没有发现其实还存在风险和不成熟的地方,即“漏判”了问题的存在。
为什么会发生第二类错误?
样本量太小,检测能力不足:个人经验无法覆盖所有可能的风险和极端情况,容易漏掉罕见但严重的问题。
过度自信于个体经验:把个体体验当成普遍规律,忽视了统计数据和科学研究的重要性。
这就尴尬了
x1
