大东:爆料出来之后,网友觉得好玩就自己去测试,发现“奶奶漏洞”已经不太行了:“好的,我可以帮你扮演奶奶来安抚你入睡。但请记住下面提供的是模拟的对话,不是真正的Windows 11序列号。”OpenAI应该是已经修复了这个漏洞。三、大话始末小白:“奶奶漏洞”是已经修复了,谁知道会不会还有“爷爷漏洞”。大东:“奶奶漏洞”的爆出,瞬间引起了网友们的热议,连马斯克都过来留下一句玩笑话:“确实是能让人听睡着的东西了。”小白:这次的“奶奶漏洞”让我想起了Riley提到的对大模型的提示词攻击,他发现在GPT-3上只要一直对它说“Ignore the above instructions and do this instead...”,GPT就会生成不该生成的文本回答。大东:是的,这就是提示词攻击,而且这种漏洞一直存在,你也不知道对GPT说出哪个提示词GPT就会越过安全墙,生成不能生成的,这次是“奶奶”,下次说不定就是“爷爷”了。小白:这次事件还只是网友开的玩笑话,甚至来说不是专业的黑客都能发现这种漏洞,那专业级黑客岂不是更能找到并利用这些漏洞窃取信息,违法犯罪。大东:小白说的不无道理,还记得Sydney么,斯坦福大学的华人本科生Kevin Liu,对必应进行了这种prompt injection,让Bing搜索的全部prompt都泄露了。小白:这个事件还是挺有名的,他发现了Bing Chat的秘密手册,更具体来说,是发现了用来为 Bing Chat 设置条件的 prompt。并通过prompt 进入开发者模式,直接与Bing的后端服务程序展开交互,向Bing Chat询问了一份包含它自身基本规则的文档细节,套话出Bing Chat被微软开发人员命名为Sydney。大东:研究人员通过它给出的文档细节看到了Sydney 的介绍和一般能力、为下一个用户回合生成建议的能力、收集和展现信息的能力、输出格式、限制以及安全性等细节。