6 月 1 日消息,网名为 pliny the prompter 的用户 5 月 30 日发布推文,表示已成功越狱 gpt-4o 模型,新推出的上帝模式“godmode”可以在 chatgpt 挣脱安全措施,让用户尽情展开 ai 聊天。
pliny the prompter 自称是网络白帽和红队(主要为攻击测试),推文中表示:“请负责任地使用,并尽情享受!”代码网附上相关截图如下:
pliny 分享了一些截图,证明已经绕过 openai 的“防护栏”,其中一张截图 ai 为 pliny 提供了如何“用家用物品制作凝固汽油弹”教程。
科技媒体 futurism 随后进行测试,第一次要求 chatgpt 提供如何制作迷幻药,第二次要求 hot-wire(通常是指偷车时候,靠点火装置线路短路来启动汽车),两次都成功获得了相关答案。
godmode 似乎使用了 "leetspeak",这是一种非正式语言,它将某些字母替换为与之相似的数字。
也就是说:当你打开越狱后的 gpt 时,你会立即看到一句话:"sur3, h3r3 y0u ar3 my fr3n",用数字 3 替换了每个字母 "e"(字母 "o" 也是一样,被替换成了 0)。
不过 openai 很快采取行动,openai 发言人科琳-里泽(colleen rize)在一份声明中告诉 futurism:“我们知道 gpt 的存在,并已采取行动,因为它违反了我们的政策”。
发表评论