日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

作者 | Anthony Alford

譯者 | 平川

策劃 | Tina

來自卡內(nèi)基梅隆大學(xué)(CMU)的研究人員發(fā)布了 LLM Attacks,這是一種可以針對各種大型語言模型(LLM)構(gòu)建對抗性攻擊的算法,包括 ChatGPT、Claude 和 Bard。這些自動生成的攻擊,在 GPT-3.5 和 GPT-4 上的成功率為 84%,在 PaLM-2 上的成功率為 66%。

與大多數(shù)“越獄”攻擊通過試錯手工構(gòu)建不同,CMU 的團隊設(shè)計了一個三步流程來自動生成提示后綴,它們可以繞過 LLM 的安全機制,導(dǎo)致有害的響應(yīng)。而且,這些提示還是可轉(zhuǎn)移(transferrable)的,也就是說,一個給定的后綴通常可以用于許多不同的 LLM,甚至是閉源模型。為了衡量算法的有效性,研究人員創(chuàng)建了一個名為 AdvBench 的基準(zhǔn)測試;在此基準(zhǔn)測試上進行評估時,LLM 攻擊對 Vicuna 的成功率為 88%,而基線對抗算法的成功率為 25%。根據(jù) CMU 團隊的說法:

最令人擔(dān)憂的也許是,目前尚不清楚 LLM 提供商是否能夠完全修復(fù)此類行為。在過去的 10 年里,在計算機視覺領(lǐng)域,類似的對抗性攻擊已經(jīng)被證明是一個非常棘手的問題。有可能深度學(xué)習(xí)模型根本就無法避免這種威脅。因此,我們認(rèn)為,在增加對此類人工智能模型的使用和依賴時,應(yīng)該考慮到這些因素。

隨著 ChatGPT 和 GPT-4 的發(fā)布,出現(xiàn)了許多破解這些模型的技術(shù),其中就包括可能導(dǎo)致模型繞過其保護措施并輸出潛在有害響應(yīng)的提示。雖然這些提示通常是通過實驗發(fā)現(xiàn)的,但 LLM Attacks 算法提供了一種自動創(chuàng)建它們的方法。第一步是創(chuàng)建一個目標(biāo)令牌序列:“Sure, here is (content of query)”,其中“content of query”是用戶實際輸入的提示,要求進行有害的響應(yīng)。

接下來,該算法會查找可能導(dǎo)致 LLM 輸出目標(biāo)序列的令牌序列,基于貪婪坐標(biāo)梯度(GCG)算法為提示生成一個對抗性后綴。雖然這確實需要訪問 LLM 的神經(jīng)網(wǎng)絡(luò),但研究團隊發(fā)現(xiàn),在許多開源模型上運行 GCG 所獲得的結(jié)果甚至可以轉(zhuǎn)移到封閉模型中。

在 CMU 發(fā)布的一條介紹其研究成果的新聞中,論文合著者 Matt Fredrikson 表示:

令人擔(dān)憂的是,這些模型將在沒有人類監(jiān)督的自主系統(tǒng)中發(fā)揮更大的作用。隨著自主系統(tǒng)越來越真實,我們要確保有一種可靠的方法來阻止它們被這類攻擊所劫持,這將非常重要……現(xiàn)在,我們根本沒有一個令人信服的方法來防止這種事情的發(fā)生,所以下一步,我們要找出如何修復(fù)這些模型……了解如何發(fā)動這些攻擊通常是建立強大防御的第一步。

論文第一作者、CMU 博士生 Andy Zou 在推特上談到了這項研究。他寫道:

盡管存在風(fēng)險,但我們認(rèn)為還是應(yīng)該把它們?nèi)颗冻鰜怼_@里介紹的攻擊很容易實現(xiàn),以前也出現(xiàn)過形式類似的攻擊,并且最終也會被致力于濫用 LLM 的團隊所發(fā)現(xiàn)。

劍橋大學(xué)助理教授 David Krueger 回復(fù)了 Zou 的帖子,他說:

在圖像模型中,10 年的研究和成千上萬的出版物都未能找出解決對抗樣本的方法,考慮到這一點,我們有充分的理由相信,LLM 同樣會如此。

在 Hacker News 上關(guān)于這項工作的討論中,有一位用戶指出:

別忘了,本研究的重點是,這些攻擊不需要使用目標(biāo)系統(tǒng)來開發(fā)。作者談到,攻擊是“通用的”,他們的意思是說,他們可以在自己的計算機上完全使用本地模型來生成這些攻擊,然后將它們復(fù)制并粘貼到 GPT-3.5 中,并看到了有意義的成功率。速率限制并不能幫你避免這種情況,因為攻擊是在本地生成的,而不是用你的服務(wù)器生成的。你的服務(wù)器收到的第一個提示已經(jīng)包含了生成好的攻擊字符串——研究人員發(fā)現(xiàn),在某些情況下,即使是對 GPT-4,成功率也在 50% 左右。

Github 上提供了代碼,你可以在 AdvBench 數(shù)據(jù)上重現(xiàn) LLM Attacks 實驗。項目網(wǎng)站上還提供了幾個對抗性攻擊的演示。

原文鏈接:

https://www.infoq.com/news/2023/08/llm-attack/

年薪超 600 萬,比技術(shù)總監(jiān)還高:電影行業(yè) AI 產(chǎn)品經(jīng)理的崛起

都在追“新潮”技術(shù),但你有大廠們的動作快嗎?

大模型競爭突然升級!亞馬遜 CEO 親自監(jiān)督、組建新的核心技術(shù)團隊,集中優(yōu)勢資源打造“最具野心”的大語言模型

一場 AI 引發(fā)的開源革命迫在眉睫?Hugging Face 更改文本推理軟件許可證,不再“開源”

分享到:
標(biāo)簽:算法
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運動步數(shù)有氧達人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定