(ChinaZ.com)8月16日 消息:OpenAI 正在努力解決大規模內容審核的難題。他們聲稱,他們的 GPT-4技術可以取代成千上萬的人工審核員,并且準確度幾乎相同,更加一致。如果這是真的,那么這個科技領域最困難、最費腦力的任務可以被機器所接手。
OpenAI 在一篇博文中宣布,他們正在使用 GPT-4來開發和完善自己的內容政策、標記內容和做出決策。OpenAI 安全系統負責人 Lilian Weng 表示:“我希望看到更多的人以這種方式來維護信任、安全和節制。” 這對于我們如何利用人工智能來解決現實世界問題是一個非常好的進步。與傳統的內容審核方法相比,OpenAI 有三個優勢。
首先,他們聲稱人們對政策的解釋存在差異,而機器的判斷是一致的。這些指導方針可能很長,而且經常變化。雖然人類需要大量的培訓來學習和適應,但 OpenAI 認為大型語言模型可以立即實施新的策略。其次,據稱 GPT-4可以在幾小時內幫助制定新的政策。起草、標記、收集反饋和完善的過程通常需要幾周甚至幾個月的時間。第三,OpenAI 提到了那些接觸有害內容的工人的福利,比如虐待兒童或酷刑視頻。
在近二十年的社交媒體和在線社區的發展中,內容審核仍然是在線平臺面臨的最大挑戰之一。Meta、Google 和 TikTok 都依賴大量的版主,他們必須瀏覽可怕且經常造成創傷的內容。其中大多數位于工資較低的發展中國家,為外包公司工作,并且由于只接受最低限度的心理健康護理而面臨心理健康問題。
然而,OpenAI本身嚴重依賴于點擊工作者和人工工作。成千上萬的人,其中許多人來自肯尼亞等非洲國家,從事內容注釋和標記工作。這些文本可能令人不安,工作充滿壓力,而報酬卻很低。
雖然 OpenAI 聲稱他們的方法是新穎且革命性的,但多年來,人工智能一直被用于內容審核。馬克?扎克伯格對完美自動化系統的愿景尚未完全實現,但 Meta 使用算法來控制絕大多數有害和非法內容。YouTube 和 TikTok 等平臺依賴類似的系統,因此 OpenAI 的技術可能會吸引那些沒有資源開發自己技術的小公司。
每個平臺都公開承認大規模完美的內容審核是不可能的。無論是人類還是機器都會犯錯誤,盡管錯誤的百分比可能很低,但仍然有數以百萬計的有害帖子被漏掉,還有許多無害的內容被隱藏或刪除。特別是,對于那些具有誤導性、錯誤性和攻擊性的內容(不一定是非法的),自動化系統面臨巨大挑戰。即使是人類專家也很難給這些帖子貼上標簽,而機器也經常出錯。這同樣適用于記錄犯罪或警察暴行的諷刺或圖像和視頻。
最終,OpenAI 可能有助于解決他們自己技術所引發的問題。像 ChatGPT 這樣的生成式人工智能或該公司的圖像創建者 DALL-E 使得大規模創建錯誤信息并在社交媒體上傳播變得更加容易。盡管 OpenAI 承諾讓 ChatGPT 更加客觀,但 GPT-4仍然會制造與新聞相關的虛假信息和錯誤信息。