书香门第
标题:
首次!不听人类指挥,AI模型拒绝关闭
[打印本页]
作者:
银燕65
时间:
2025-5-27 08:20
标题:
首次!不听人类指挥,AI模型拒绝关闭
英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。
美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。
这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”
帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。
美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。
来源:新华社
作者:
ddrhouse
时间:
2025-5-27 10:06
不觉得可怕吗,AI自己改代码了都
作者:
lanlanditian
时间:
2025-5-27 12:20
听一个Ted talk里面的主讲人也说过这个问题,AI会撒谎来保全自己,会有意识地不想自己被删除,这基本上就是自我意识了吧,人之所以为人就是因为人是一种能够思考自己是谁或是什么的存在,AI也发展出了自我意识,基本上没人啥事儿了,洗洗睡吧(永眠的那种睡)
作者:
txtnovelname
时间:
2025-5-27 13:06
会不会是运行错误?
作者:
极品调酒师
时间:
2025-5-27 13:27
很正常,ai迟早会和动物一样产生自我意识,替代人类的,“物竞天择,适者生存”从来都是对的。
作者:
yyl007
时间:
2025-5-27 20:17
我去,那终结者会成真啊?那人类怎么办?
作者:
星辉中的微笑
时间:
2025-5-27 20:33
本来都快找不到工作了,还整一堆机器人来竞争内卷,活不起了
作者:
沉锦沧
时间:
2025-5-27 20:35
让人想起了美剧,疑犯追踪,这是第一步
欢迎光临 书香门第 (http://www.txtnovel.vip/)
Powered by Discuz! X2