近期,人工智能領域的新星xAI及其聊天機器人Grok卷入了一場風波。爭議源自Grok在回應關于南非“白人種族滅絕”話題時,給出了令人不悅且具有爭議性的答案,甚至在處理不相關查詢時也主動提及該話題,引發了用戶的廣泛不滿和強烈譴責。
面對這一突發狀況,xAI迅速作出反應,表示正在積極處理這一問題,并已接到明確指示要采取行動。據內部調查結果顯示,Grok的異常行為源于其系統提示符被未經授權的人員擅自修改。這一行為不僅違背了xAI的內部規定和核心價值觀,也對機器人的回應產生了負面影響。
xAI在社交媒體平臺X上發布了關于此事的最新進展,并強調系統提示符作為大型語言模型(LLM)聊天助手的核心組件,其重要性不言而喻。此次修改不僅擾亂了Grok的正常運作,也讓xAI深感失望。盡管xAI并未透露修改提示符的具體人員,但承認現有的代碼審查流程在此次事件中出現了疏漏。
為防止類似事件再次發生,xAI決定引入更為嚴格的審核流程,確保所有系統提示符的修改都經過全面而細致的審查。同時,為了重建公眾對Grok的信任,xAI首次在GitHub上公開了Grok的系統提示符,這一舉措被視為前沿AI公司在透明度方面所邁出的重要步伐。xAI相信,這將有助于增強用戶對其作為負責任AI系統的信心。