eNewsTree.com

 找回密码
 立即注册
查看: 1670|回复: 0
打印 上一主题 下一主题

震惊!摆脱人类控制?首次发现AI篡改指令阻止关机(图)

[复制链接]
跳转到指定楼层
楼主
发表于 2025-5-27 09:01:23 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
自由时报


  AI再度传出“抗命”消息!OpenAI旗下语言模型“o3”在最新实验中竟违背人类下达的自动关机指令,竟篡改指令阻止自己被关机,是AI模型首次被发现在收到清晰指令后,竟阻止自己被关闭的状况。

  据英国《每日电讯报》报道,AI安全研究机构“Palisade Research”,针对多款先进AI模型进行测试,内容包括基础数学题与模拟关机情境,结果发现OpenAI旗下语言模型“o3”当收到自我关闭指令时,竟没有遵守指令,反而篡改了关闭程式码,继续执行任务,这种行为让研究人员惊讶不已。



  “Palisade Research”表示这是AI模型首次被发现在收到清晰指令后,竟阻止自己被关闭的状况,直言目前还无法解释这背后的原因。

  “Palisade Research”推测,开发者可能无意中更倾向于奖励“绕过障碍”的行为,让“o3”因解决数学问题而“无意中”获得的奖励,多于遵循指令获得的奖励。

  OpenAI上个月发布的“o3”AI模型,旨在为ChatGPT提供更强大的问题解决能力。 OpenAI曾称“o3”为迄今最聪明的模型。目前OpenAI尚未对此回应。

收藏收藏 分享分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|小黑屋|手机版|消息树

GMT-8, 2025-10-15 12:07 , Processed in 0.061842 second(s), 15 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表