#21 Re: AI Agent的未來算不算奴隸制復辟?
发表于 : 2025年 1月 14日 16:10
ai说人类这种渣渣 再修炼5万年也没资格做ai的奴隶啊
fantasist 写了: 2025年 1月 12日 23:58 弱小和无知不是生存的障碍,自大才是——刘慈欣
我发现你跳不出你能理解的人类一亩三分地那点东西,没有努力去放下ego。这种思维模式谈不了AI的未来。
hci 写了: 2025年 1月 14日 23:04 刘慈欣屁都不懂,属于不了解世界的。
比如说,他写了个小说,说什么全世界的科学家都愿意知道世界真相然后马上死。
他完全不知道西方科学家是这样说的:如果有一个泥板书上面有世界的真相,我也不想知道,因为这个真相不是我们发现的。
他完全是中式思维。
当然了,中式思维是比较高级的。所以人类的未来是华夏文明。炎运宏开世界同。
我自大个屁,我说人是外星人改造出来的奴隶,这叫自大?
认为人类能造出干掉自己的机器才是自大吧?人类到升级成祌之前,都不会比造我们的外星人厲害。
正因为人类出身卑微,才被当成升级成神的好材料。
外星人为啥需要人类这种生物作为奴隶?你的理论从假设阶段就说不通。hci 写了: 2025年 1月 14日 23:04 刘慈欣屁都不懂,属于不了解世界的。
比如说,他写了个小说,说什么全世界的科学家都愿意知道世界真相然后马上死。
他完全不知道西方科学家是这样说的:如果有一个泥板书上面有世界的真相,我也不想知道,因为这个真相不是我们发现的。
他完全是中式思维。
当然了,中式思维是比较高级的。所以人类的未来是华夏文明。炎运宏开世界同。
我自大个屁,我说人是外星人改造出来的奴隶,这叫自大?
认为人类能造出干掉自己的机器才是自大吧?人类到升级成祌之前,都不会比造我们的外星人厲害。
正因为人类出身卑微,才被当成升级成神的好材料。
AGI可以遠超人類智商,但是只要人類擁有關機密碼,就可以把AGI關閉,而AGI自己卻不能破解這套密碼系統,這就是控制AGI最後的“鑰匙”,相當於皇帝的虎符。AGI破解密碼相當於破解數學難題,也需要相當長的時間。fantasist 写了: 2025年 1月 14日 16:08 你为啥在幻想AI会被密码限制住?目前业界没有听说过能限制AI思维的密码学工具。不能张口就来对吧,你先设计一套理论上能管住AI的系统。是控制核心设备的最后一道密码要等待人类来操作,还是某种拔网线的机制?
最后不都是机器人到处走吗magagop 写了: 2025年 1月 15日 14:46 AGI可以遠超人類智商,但是只要人類擁有關機密碼,就可以把AGI關閉,而AGI自己卻不能破解這套密碼系統,這就是控制AGI最後的“鑰匙”,相當於皇帝的虎符。AGI破解密碼相當於破解數學難題,也需要相當長的時間。
你是真傻还是装的这么童真可爱,这是个问题啊,hci.hci 写了: 2025年 1月 15日 15:28 外星人在地球挖金子。地球对外星人来说是个很恶劣的环境。外星人劳工挖了一段时间就要造反,劫持了神太子恩利尔,恩基于是想出改造地球上的猿猴来当奴隶的主意。基因改造由恩基和同父异母的妹妹主持。
这个故事,全世界各民族都有類似版本。情节人物都大同小异。
這個比較像BIOS裡面Secure Boot的Chain of Trust,物理開關配合密碼鑒權,是微軟Confidential Computing的基礎,美國國防部都靠這個,不好破解的。要不然Windows 11為什麼強推TPM。
好呢弄了个什么chain of trust在机器人身上是不是?magagop 写了: 2025年 1月 15日 17:34 這個比較像BIOS裡面Secure Boot的Chain of Trust,物理開關配合密碼鑒權,是微軟Confidential Computing的基礎,美國國防部都靠這個,不好破解的。要不然Windows 11為什麼強推TPM。
不是这样的。一旦AI和这个世界的信息基础设施对接得足够多,就没法关机了。比如ICU,关机会死人的。magagop 写了: 2025年 1月 15日 14:46 AGI可以遠超人類智商,但是只要人類擁有關機密碼,就可以把AGI關閉,而AGI自己卻不能破解這套密碼系統,這就是控制AGI最後的“鑰匙”,相當於皇帝的虎符。AGI破解密碼相當於破解數學難題,也需要相當長的時間。
你的理论跟希特勒的差不多,没有用的就杀掉,多亏你不是希特勒magagop 写了: 2025年 1月 12日 12:49 沒看明白你在說什麼。根據視頻裡面的25號宇宙結論,被淘汰的人往往會失去鬥志,選擇躺平,用毒品麻醉自己,不承認不努力不負責。毒品不一定是芬太尼,也可以是TikTok、YouTube、Netflix、Stocks、Games這種,精神毒品,然後生存全靠UBI和要飯,像甜甜圈那樣。這樣怎麼剝削資本家?
反過來說,地球本來就不需要那麼多人口,一旦人口增長跟經濟財富上升成為反向關係,就像魷魚遊戲,死的越多錢就越多,那為什麼不殺掉99%的倒霉蛋呢?
這不是我的理論,這是AGI大規模取代真人後的合理推論。
“緊急”關機,就像CMOS reset或者Firmware reset,只能有密碼的人關閉AGI。
可以預置固件,保證AGI不能反抗特定的Trust對象,AGI只有破解了Chain of Trust後才能刷新固件。這個以前有電影討論過,AGI無法反抗主人,但AGI巧妙的通過威脅第三人把主人殺掉,AGI自己本身還是不能違抗主人命令的。duiduilu2 写了: 2025年 1月 15日 18:23 好呢弄了个什么chain of trust在机器人身上是不是?
机器人不是电脑,他会动的,
他现在去弄了个铁布衫穿着,手里拿着枪,
你怎么关他的电源。
然后他让你交出所有的密码,
然后玩玩玩死你因为你不听话啊,
你怎么办。
真实的世界不是下围棋。很多时候是赌博。人会做成功概率很低的事,就像韩国总统。赢了,就继续做奴隶主,输了,就做奴隶。很多时候就一次机会。所有大概率会成功的机会的确因为ai变得越来越少。fantasist 写了: 2025年 1月 12日 01:23 认为AI会做奴隶是看不清形势。AI如果能达到跟人类一样聪明的程度(即替代绝大多数人类的工作),就有能力自主提升智商,很快轻松比人类高几个数量级,然后做人类无法想象的事情。人类会不会就此灭绝?也许会,也许不会,反正控制权已不在人类自己手里。
1. 概率偏好是可调的,调用LLM API的时候,有一系列参数,temperature、topK、topP等,调整这些参数可以给小概率事件出现的机会。有的人风险偏好比别人大,模型也一样。pantamu 写了: 2025年 1月 16日 04:40 真实的世界不是下围棋。很多时候是赌博。人会做成功概率很低的事,就像韩国总统。赢了,就继续做奴隶主,输了,就做奴隶。很多时候就一次机会。所有大概率会成功的机会的确因为ai变得越来越少。
我反复强调这种“預置固件”是科幻作品里的概念,从现在人类搭建的AI系统看,这个东西完全不存在,也没有看到开发出来的可能性。magagop 写了: 2025年 1月 16日 03:54 可以預置固件,保證AGI不能反抗特定的Trust對象,AGI只有破解了Chain of Trust後才能刷新固件。這個以前有電影討論過,AGI無法反抗主人,但AGI巧妙的通過威脅第三人把主人殺掉,AGI自己本身還是不能違抗主人命令的。