【ITBEAR科技資訊】4月6日消息,人工智能公司OpenAI在最新的帖子中介紹了其保障AI安全的方法。OpenAI表示,為確保AI系統的構建、部署和安全使用對實現其使命至關重要,因此該公司正在努力確保在各個系統層面上的安全性。
據ITBEAR科技資訊了解,在推出任何新的人工智能系統之前,OpenAI都會進行嚴格的測試、征求外部專家的意見,并通過強化學習等技術改善模型的表現。該公司強調強大的人工智能系統應該接受嚴格的安全評估,同時積極與各國政府接觸,探討最佳的監管形式。
OpenAI表示,從實際使用中學習,提高保障措施是創建和發布越來越安全的人工智能系統的關鍵組成部分。該公司采取實質性的保障措施,并根據吸取的教訓不斷改進。OpenAI提供自己服務和API中最強大的模型,以便開發人員可以直接將技術集成到他們的應用程序中。同時,實際使用中的經驗也促使OpenAI制定了越來越細化的政策,以應對對人們構成真正風險的行為,同時仍然允許我們的技術以更有益的方式使用。
OpenAI強調保護兒童的重要性,并稱要求使用其人工智能工具的人必須年滿18歲或以上,或者在父母同意的情況下年滿13歲或以上。該公司表示,不允許其技術用于生成仇恨、騷擾、暴力或成人等內容。OpenAI已經采取重大措施,最大限度地減少模型產生傷害兒童內容的可能性。
除了默認的安全防護,OpenAI與非營利組織可汗學院等開發機構合作,為他們量身定制了安全措施。同時,OpenAI還致力于尊重隱私、提高事實準確性、進行持續的研究和參與等。該公司表示,解決AI安全問題需要廣泛的辯論、實驗和參與,包括為AI系統的行為設置界限。OpenAI將繼續促進利益相關者之間的合作和開放對話,以創建更安全的AI生態系統。