近期,一種被稱為“AI幻覺”的現象引發了廣泛關注。所謂“AI幻覺”,指的是AI系統基于不完整信息生成看似合理實則錯誤的答案,令人難以分辨真偽。這種現象不僅出現在學術文獻的杜撰、名人觀點的引用錯誤上,還包括編造數據、將舊聞當作新聞傳播等多種情形。
在4月25日的百度AI開發者大會上,李彥宏坦誠指出了deepseek存在的幻覺多、速度慢等問題,再次將“AI幻覺”這一概念帶入公眾視野。事實上,“AI幻覺”早在2023年就已在互聯網上初露端倪,但至今仍在各大社交平臺頻繁出現,引發了諸多爭議。
以小紅書和微博為例,關于“DeepSeek生成假的參考文獻”的帖子和話題層出不窮。小紅書上相關帖子數量高達5萬條,微博上#防止DeepSeek亂編文獻的方法#也一度沖上熱搜。這反映出部分用戶過于依賴AI,不經判斷就走“捷徑”的現象普遍存在。
面對AI大模型的這一缺陷,如何兼顧正確與效率,同時保持個人的思辨能力,成為亟待解決的問題。中國人民大學新聞學院教授盧家銀指出,“AI幻覺”在知識建構與思維發展上存在雙重隱患。它可能扭曲青年對科學方法論的理解,削弱其科研邏輯訓練,同時也不利于批判性思維的培養。
因此,盧家銀教授建議,應將AI輸出的內容視為認知的起點而非終點。用戶需要主動驗證信息的可靠性,查閱權威信源、對比多元觀點,甚至與領域專家直接交流。在避免被誤導的同時,與AI進行良性互動,而非全盤接受其輸出結果。
為了破解“AI幻覺”,酷開探索出了一條“AI+教育”的新路徑。他們讓AI大模型在教育場景中僅承擔宏觀調度與規劃功能,而不是直接作為答題工具。這一思路在酷開AI學習機Y41 Air上得到了實踐。學習機先通過大模型拆解分析題目,再依據具體需求調用適配工具解題,從源頭上降低了AI幻覺的風險。
在酷開AI學習機Y41 Air中,AI的角色從“答題工具”轉變為“思考輔助者”。它不僅能夠呈現答案和完整的推理過程,還能通過一對一的提問引導方式,促使學生主動觀察和分析問題。這種個性化的互動設計,不僅提升了人機交互的擬真感,更有助于培養學生的思維能力。
以初中幾何題為例,酷開AI學習機Y41 Air如同私人“家教”,不僅給出答案,還引導學生觀察圖形特征、自主推導輔助線添加邏輯。這種融入個性化互動引導的教學方式,與傳統AI答題工具形成了本質區別。
在AI教育應用日益普及的今天,酷開學習機的實踐表明,化解“AI幻覺”風險不能單純依賴模型優化,更需要從教育本質出發重構人機關系。如何在AI與教育深度融合的進程中平衡技術能力與教育邏輯,酷開的探索提供了一個值得借鑒的答案。