快科技7月21日消息,據(jù)外媒消息,目前已有包括OpenAI在內(nèi)的多家人工智能頭部公司的自愿承諾,將對AI生成的內(nèi)容添加水印等鑒別措施,從而提高技術(shù)安全性。
類似水印等識別措施的加入,將有效解決目前AI生成內(nèi)容難以分辨的困境。
同時,當(dāng)前亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI這七家公司都同意提高其系統(tǒng)的安全性和透明度,包括允許第三方專家對其模型進(jìn)行審查。
首先,這七家公司承諾在向公眾發(fā)布AI系統(tǒng)之前,對其進(jìn)行內(nèi)部和外部安全測試,并與相關(guān)行業(yè)參與者、政府、學(xué)術(shù)界和公眾共享信息,以幫助管理人工智能風(fēng)險。
這些公司還將致力于網(wǎng)絡(luò)安全投資和內(nèi)部威脅控制,以保護(hù)專有和未發(fā)布的模型權(quán)重”,這對于驅(qū)動生成人工智能的數(shù)據(jù)模型的運行至關(guān)重要。
此外,他們還同意促進(jìn)第三方調(diào)查并報告系統(tǒng)中的任何安全漏洞。