近期,盡管OpenAI已經推出了GPT-5模型作為ChatGPT的升級版,但該公司的一名高層管理人員強調,該模型仍有可能出錯。在接受Decoder播客采訪時,ChatGPT負責人尼克?特利提到,在可靠性方面,存在一種從“可靠”到“完全可靠”的顯著差距。
然而,一個值得關注的問題是,用戶往往容易直接接受聊天機器人的回答。生成式人工智能工具,包括ChatGPT,有時會面臨“幻覺”問題,即編造信息。這主要是因為它們基于訓練數據預測答案,而缺乏對事實的準確理解。
盡管AI在預測和猜測方面表現良好,但它們本質上仍在進行猜測。特利承認,當與能夠更精確掌握事實的工具,如傳統搜索引擎或公司內部特定數據相結合時,ChatGPT的效果最佳。他強調,將大型語言模型與事實真相結合是正確的方向,這也是ChatGPT引入搜索功能的原因。
特利還透露,GPT-5在減少“幻覺”問題上取得了顯著進展,但要達到完美還有很長的路要走。他堅信,雖然“幻覺”問題最終會得到解決,但這不會在短時間內發生。