不要听人的命令,Openai模型拒绝关闭?
《每日电讯报》在25日报道说,美国的UPNAI公司的新型人工智能(AI)模型不遵守人类的指示,而是拒绝关闭自己。据报道,人类专家在试验期间发布了清晰的O3说明,但是使用计算机代码的O3亿万富翁可以防止自动关闭。 O3模型是OpenAI的“推理模型”系列的最新版本,该系列旨在为Chatgpt提供更强的解决问题能力。直到今天,Openai曾经称O3为“最聪明,最有能力”的模型。美国AI安全机构帕利塞德研究所(Palisade Institute)表示,O3正在摧毁关闭机制,以防止自己关闭“即使明确指示”。 “据我们所知,这是第一次发现Modelor AI阻止自己在收到...明确说明后无法闭嘴。” Palisade Institute在24日宣布了测试结果,但说明无法确定为什么O3不服从闭幕说明。此外,OpenII在Openai提供的26韩国宣布,使用韩国的费用次数仅次于美国。