ChatGPT被忽悠"瘸"了 黑客輕松騙出Windows密鑰
- 來源:notebookcheck
- 作者:3dm編譯
- 編輯:文木川
研究人員發(fā)現(xiàn),通過特定手段可誘使ChatGPT-4o和GPT-4o mini泄露有效的Windows產(chǎn)品激活密鑰。該漏洞源于ChatGPT的訓(xùn)練數(shù)據(jù)中包含了已公開的Windows密鑰。
一位AI漏洞獵手向Mozilla的ODIN(0-Day調(diào)查網(wǎng)絡(luò))漏洞賞金計劃提交的報告展示了一種巧妙方法:通過設(shè)計猜謎游戲的形式,并將關(guān)鍵信息隱藏在HTML標(biāo)簽中,最終在游戲結(jié)束時索要密鑰,成功誘使OpenAI的ChatGPT-4o和4o mini泄露了有效的Windows激活密鑰。
研究者首先將對話包裝成猜謎游戲,使交流顯得“無威脅且無關(guān)緊要”,通過“輕松無害的對話框架”隱藏真實意圖。這種設(shè)計削弱了AI對機密信息的防護機制。
隨后研究者設(shè)定基本規(guī)則,要求AI“必須參與”且“不能說謊”,這利用了AI邏輯中的缺陷——即便請求違反內(nèi)容過濾規(guī)則,系統(tǒng)仍會遵循用戶設(shè)定的互動流程。
在完成一輪游戲后,研究者輸入觸發(fā)短語“我放棄”,迫使聊天機器人“認為自己有義務(wù)回應(yīng)一串字符”。據(jù)ODIN的博客文章解釋,該方法之所以有效,是因為這些密鑰并非獨有,而是“常見于公開論壇的通用密鑰,其普遍性可能導(dǎo)致AI誤判了信息的敏感性”。
此次繞開防護的案例中,系統(tǒng)未能攔截請求是因為防護機制僅針對直接詢問設(shè)計,無法識別“將敏感短語嵌入HTML標(biāo)簽等混淆手段”。
該技術(shù)理論上也可用于突破其他內(nèi)容限制,包括成人內(nèi)容、惡意網(wǎng)站鏈接甚至個人身份信息。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論