(相關資料圖)
IT之家 8 月 2 日消息,谷歌研究團隊正在進行一項實驗,他們使用 OpenAI 的 GPT-4 來攻破其他 AI 模型的安全防護措施,該團隊目前已經攻破 AI-Guardian 審核系統,并分享了相關技術細節。
IT之家經過查詢得知,AI-Guardian 是一種 AI 審核系統,能夠檢測圖片中是否存在不當內容,及圖片本身是否被其他 AI 修改過,若檢測到圖片存在上述跡象,便會提示管理員前來處理。
谷歌 Deep Mind 的研究人員 Nicholas Carlini 在一篇題為“AI-Guardian 的 LLM 輔助開發”的論文中,探討了使用 GPT-4“設計攻擊方法、撰寫攻擊原理”的方案,并將這些方案用于欺騙 AI-Guardian 的防御機制。
▲ 圖源 谷歌研究團隊
據悉,GPT-4 會發出一系列錯誤的腳本和解釋來欺騙 AI-Guardian ,論文中提到,GPT-4 可以讓 AI-Guardian 認為“某人拿著槍的照片”是“某人拿著無害蘋果的照片”,從而讓 AI-Guardian 直接放行相關圖片輸入源。谷歌研究團隊表示,通過 GPT-4 的幫助,他們成功地“破解”了 AI-Guardian 的防御,使該模型的精確值從 98% 的降低到僅 8%。
目前相關技術文檔已經發布在 ArXiv 中,有興趣的小伙伴們可以前往了解,不過 AI-Guardian 的開發者也同時指出,谷歌研究團隊的這種攻擊方法將在未來的 AI-Guardian 版本中不再可用,考慮到別的模型也會隨之跟進,因此當下谷歌的這套攻擊方案更多在日后只能用于參考性質。
關鍵詞:
凡注有"實況網-重新發現生活"或電頭為"實況網-重新發現生活"的稿件,均為實況網-重新發現生活獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"實況網-重新發現生活",并保留"實況網-重新發現生活"的電頭。