克雷西 發自 凹非寺
量子位 | 公眾號 QbitAI
OpenAI又招人了,非技術出身那種!
一年只需5-10小時工作。
不僅能夠從中獲得報酬,還能得到和各界大佬展開交流的機會。
這次OpenAI招募的是紅隊軍團成員,也就是以對抗性方式幫助提高模型安全性的外部專家。
OpenAI總裁Brockman也在個人賬號上發表了這則消息,而此前他剛剛和馬斯克等人探討了AI的安全問題。
此次招募的目的說起來也很簡單——安全、安全,還是安全。
不懂技術也能報名
紅隊成立之初主要是在內部進行對抗性測試,現在已經發展到了與外部專業人士進行合作。
OpenAI的通告中具體提到了紅隊此前的成果,包括與OpenAI內部人員共同發現的DALL-E 2偏見問題和GPT的越獄風險。
這次OpenAI紅隊的意向人群是各個領域的專業人士。
具體來說,這些專業學科包括但不限于下表中的物理學、化學等自然科學,以及法律、心理等社會科學和其他領域。
看到OpenAI通告中的這個表格,有網友忍不住發表了自己的疑問(不過通告中已經說了不限于這些領域):
為啥不要數學專業的啊?
除了專業領域,OpenAI的要求還包括掌握兩種及以上語言、熱衷于AI安全等。
而技術能力,反而是非必須項。
那么這些紅隊成員的任務和待遇又是怎么樣的呢?
通告中只提及了幫助改善模型的安全性,除了“測試”并未做過多的具體說明。
不過通過中透露,紅隊在模型開發的各個階段都可以進行研究,具體任務會結合專業領域和空閑時間進行分配。
紅隊成員的工作時間靈活,可以根據實際情況要求調整,一年大概只需要5-10個小時。
除了完成紅隊的任務、提高模型可靠性之外,紅隊的成員之間也可以進行交流,擴充自己的知識儲備。
至于待遇,只是明確說到了有報酬,以及需要受保密協議約束,除此之外就沒有其他信息了。
此次招募的報名截止時間為今年的12月1日,采用滾動錄用方式,截止后將根據實際情況決定是否或何時再次開啟。
除了招募紅客團隊成員,此次OpenA的通過中還提及了其他有關AI安全的工作。
比如對模型的安全性進行評估分析并形成報告,OpenAI為此提供了Evals開源庫,其中包括模板和示例。
另一方面則是加入研究人員訪問計劃(Researcher Access Program),還可以獲得API點數來研究如何讓模型更可靠。
不過,也有專業人士對于紅隊到底“夠不夠用”提出過質疑。
哈佛大學Berkman Klein研究中心附屬機構成員Aviv Ovadya就認為,破解團隊比紅隊的進展要迅速多了。
除此之外,還有網友擔心安全性能的提升會導致ChatGPT等模型的性能下降。
One More Thing
這已經不是OpenAI第一次為了提高模型的安全性面向全世界“搖人”了。
今年四月,OpenAI就曾開啟過漏洞賞金計劃,尋找“bug hunter”。
當時,根據所報告漏洞的嚴重程度,最高獎金高達兩萬美元。
對OpenAI招募紅隊成員這件事,你是怎么看的呢?
參考鏈接:
[1]https://openai.com/blog/red-teaming.NETwork
[2]https://techcrunch.com/2023/09/19/openai-launches-a-red-teaming-network-to-make-its-models-more-robust/
— 完—