【ITBEAR】8月5日消息,隨著生成式人工智能技術的飛速發展,如OpenAI推出的ChatGPT等應用,已經在撰寫郵件、設計文案、編程和翻譯等多個領域為用戶提供了極大的便利。然而,隨著這些技術的廣泛應用,其潛在問題也逐漸浮出水面。
近期,關于學生濫用生成式AI完成作業和論文的現象引發了社會的廣泛關注。更令人震驚的是,部分學術論文中也出現了來自生成式AI的內容,這無疑對學術誠信構成了威脅。在此背景下,如何確保內容的真實性和來源的可靠性成為了亟待解決的問題。
據ITBEAR了解,為了應對這一問題,行業領軍企業OpenAI正在積極研發新的技術手段。據最新報道,OpenAI正在為ChatGPT測試一種文本水印技術。這種水印技術在檢測文本釋義等局部變化時展現出了高度的準確性。盡管OpenAI尚未公開這項技術的具體運作方式,但業內普遍猜測,它可能是在生成的文本中嵌入隱藏的標識符,以便于追蹤和驗證內容的來源。
然而,這項技術也面臨著諸多挑戰。一方面,當文本經過翻譯工具或其他模型的處理后,水印的識別可能會受到影響;另一方面,有研究表明,文本水印可能會對某些特定用戶群體,如使用ChatGPT作為寫作輔助工具的非母語寫作者產生影響。
除了文本水印技術外,OpenAI還在探索其他方法來確認文本內容的來源。例如,通過加密簽名的元數據來提供一種更可靠的方式來跟蹤文本的來源;同時,他們也在研發檢測分類器,這是一種利用AI技術來識別文本是否由OpenAI模型生成的工具。這些舉措旨在確保生成式AI技術的健康發展,并維護內容的真實性和來源的可靠性。