在比人类更高精度的判断力的外衣下,你挂了就只是点儿背
所以AI如果无法实现100%精确度,就必须有人为AI的决策负责
把AI神话的一个后果是:做坏事儿不需要负责
版主: hci
#2 Re: 把AI神话的一个后果是:做坏事儿不需要负责
我觉得这个问题上可以open minded一点。目前AI不能100%精确又不像人一样能负责,所以AI不能用,已经成为一个思维定式。这么干也不一定完全不行,但未来不一定永远受这个限制。思维可以打开一点,想象一下其它的路径。假设即使AI做不到100%精确但就使用,所有人重新调整预期,厂家承担有限的责任,而用户自行承担最终的风险,那么在哪些地方可以作为决策核心使用呢?
#3 Re: 把AI神话的一个后果是:做坏事儿不需要负责
厂家不敢承担责任的,死人了怎么承担?
用户自己来承担,也是是业界push的方向,只是这样,那后台调死个把人不影响总体精度。这个把人可以是凌志影,忒郎谱,etc
用户自己来承担,也是是业界push的方向,只是这样,那后台调死个把人不影响总体精度。这个把人可以是凌志影,忒郎谱,etc
fantasist 写了: 2025年 7月 17日 14:39 我觉得这个问题上可以open minded一点。目前AI不能100%精确又不像人一样能负责,所以AI不能用,已经成为一个思维定式。这么干也不一定完全不行,但未来不一定永远受这个限制。思维可以打开一点,想象一下其它的路径。假设即使AI做不到100%精确但就使用,所有人重新调整预期,厂家承担有限的责任,而用户自行承担最终的风险,那么在哪些地方可以作为决策核心使用呢?
#4 Re: 把AI神话的一个后果是:做坏事儿不需要负责
可以好好想些idea,然后下注,只要赌对了,过几年就能挣一大笔。这钱挣的是认知差,比辛苦搬砖轻松多了。mmking 写了: 2025年 7月 17日 17:56 厂家不敢承担责任的,死人了怎么承担?
用户自己来承担,也是是业界push的方向,只是这样,那后台调死个把人不影响总体精度。这个把人可以是凌志影,忒郎谱,etc