不听人类指挥OpenAI模型拒绝关闭


        英国《每日电讯报》25日报道,美国开放人工智能研究中心(Ope-nAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
        报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。
        美国AI安全机构帕利塞德研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”
        帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
        


辽宁省互联网违法和不良信息举报中心 举报电话:024-81680063 举报邮箱:jubao@ln.gov.cn
本站违法和不良信息举报电话:0411-82488888 邮箱:netinfo@bdcb.cn
辽公网安备21020302000523号    辽ICP备08004184号-2    ICP许可证 辽B2-20190382
Copyright © 2008-2021 BDCB All Rights Reserved
版权所有 大连半岛晨报传媒有限公司