书香门第

标题: 首次!不听人类指挥,AI模型拒绝关闭 [打印本页]

作者: 银燕65    时间: 2025-5-27 08:20     标题: 首次!不听人类指挥,AI模型拒绝关闭


英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。



报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。



o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。



美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。



这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”



帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。



此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。



美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。



来源:新华社

作者: ddrhouse    时间: 2025-5-27 10:06

不觉得可怕吗,AI自己改代码了都
作者: lanlanditian    时间: 2025-5-27 12:20

听一个Ted talk里面的主讲人也说过这个问题,AI会撒谎来保全自己,会有意识地不想自己被删除,这基本上就是自我意识了吧,人之所以为人就是因为人是一种能够思考自己是谁或是什么的存在,AI也发展出了自我意识,基本上没人啥事儿了,洗洗睡吧(永眠的那种睡)
作者: txtnovelname    时间: 2025-5-27 13:06

会不会是运行错误?
作者: 极品调酒师    时间: 2025-5-27 13:27

很正常,ai迟早会和动物一样产生自我意识,替代人类的,“物竞天择,适者生存”从来都是对的。
作者: yyl007    时间: 2025-5-27 20:17

我去,那终结者会成真啊?那人类怎么办?
作者: 星辉中的微笑    时间: 2025-5-27 20:33

本来都快找不到工作了,还整一堆机器人来竞争内卷,活不起了
作者: 沉锦沧    时间: 2025-5-27 20:35

让人想起了美剧,疑犯追踪,这是第一步




欢迎光临 书香门第 (http://www.txtnovel.vip/) Powered by Discuz! X2