7月7日,世界人工智能大會期間,騰訊舉辦以“無限可能”為主題的論壇。騰訊云副總裁、騰訊云智能負責人、優圖實驗室負責人吳運聲發表《騰訊云MaaS,激活產業發展新動能》主題演講,分享了關于大模型行業應用觀點,同時介紹了騰訊云行業大模型技術解決方案的最新進展。
騰訊云副總裁、騰訊云智能負責人、優圖實驗室負責人吳運聲
吳運聲認為,產業場景已經成為大模型的最佳練兵場,但企業在應用大模型時,又會面臨計算資源少、數據質量差、投入成本高、專業經驗少等現實問題的挑戰。
對此,騰訊云不久前公布了行業大模型技術解決方案。該方案依托騰訊云TI平臺打造行業大模型精選商店,為客戶提供MaaS一站式服務,客戶只需要加入自己獨有的場景數據,就可以快速生成專屬模型,結合實際業務場景需求,開發低成本、高可用的智能應用和服務。
據吳運聲介紹,繼6月19日公布解決方案后,騰訊云MaaS平臺能力敏捷迭代,在行業大模型技術底座、應用場景、助力科學計算等方向,均有所優化和提升。
在技術底座層面,騰訊不久前發布了自研星脈高性能計算網絡、向量數據庫,為大模型的行業應用提供更充沛的算力基礎設施;在應用創新方面,騰訊云也將行業大模型的能力,應用到金融風控、交互翻譯、數智人客服等場景中,提升智能應用效率;在科學計算方面,騰訊云始終堅持“AI for Science”,今年將大模型技術,應用在天文探索、甲骨文考釋等科研場景。
吳運聲最后強調,AI大模型技術發展和產業探索,離不開產業鏈協同和生態共建,騰訊希望與行業伙伴攜手,共同推進大模型在產業領域的創新和落地。
以下為吳運聲主題演講全文:
尊敬的各位嘉賓、媒體朋友們,大家下午好,歡迎來到騰訊論壇!我是騰訊的吳運聲。
作為國內規格最高、影響力最大的技術盛會,世界人工智能大會已經連續舉辦六屆,很多新的技術趨勢、創新方案、產業成果在這里發布,已經成為人工智能技術發展的風向標。回顧人工智能發展歷史,這項技術自誕生之初,就始終伴隨人們的期待與失望,呈螺旋式上升的發展趨勢。今天,大語言模型驅動“智慧涌現”,又一次將人工智能技術推到了一個新的制高點。
在過去這段時間里,我們發現大語言模型在智能問答、內容創作、智能決策、智能風控等很多業務場景,表現出令人驚艷的應用效果。尤其是廣泛的產業場景,已經成為大模型的最佳練兵場。
快速了解、應用大模型能力,是新一輪人工智能技術浪潮中,保持市場核心競爭力的關鍵。這也成為越來越多企業家共同思考的方向,同時也存在一些焦慮。
實際上,大模型雖好,但用起來還是有很高的門檻。尤其對一些傳統領域企業而言,通用大模型無法精準適配、達到降本增效的預期。企業需要的,是在實際場景中真正解決某個問題,而不是在100個場景中解決了70%-80%的問題。
相比之下,訓練和部署專屬行業大模型,讓“通才”變“專才”,對企業來說或許是一個可行路徑,但又普遍存在計算資源少、數據質量差、投入成本高、專業經驗少等現實挑戰。此外,安全、合規,也是企業需要考慮的關鍵因素。
針對這些問題,我們在6月19日推出了騰訊云MaaS一站式行業大模型解決方案:基于騰訊云TI平臺,打造一站式行業大模型精選商店,TI平臺內置多個行業高質量大模型,同時支持客戶多模型訓練任務,客戶只需要加入自己獨有的場景數據,就可以快速生成自己的“專屬模型”,結合實際業務場景需求,開發低成本、高可用的智能應用和服務。
目前,我們已經聯合金融、文旅、政務、傳媒、教育等十多個行業頭部客戶,共同打造了超過50個行業大模型解決方案。
在金融領域,我們助力中金所技術公司,打造自有模型,降低技術開發與運營成本,支撐多部門業務。針對資源、開發等需求,基于騰訊云TI平臺能力,實現資源統一調度,按需擴縮容,降低開發門檻、成本,提高模型開發效率,支持投服部等部門的輿情數據分析場景,每日調用峰值高達1億次,整體調用成功率超過99%。
在文旅領域,我們聯合一家線上旅游OTA公司,共同探索文旅行業大模型的應用。過去,傳統智能客服需要人工進行對話配置:知識維護量大、耗時長,但運營人力有限、人力配置成本高,涉及訂單等復雜業務場景,在無配置的情況下無法通過機器人閉環解決問題。精調后的客戶專屬模型,無需配置對話流程,即可實現端到端解決業務問題。提升任務完成率,降低對話構建成本。
在傳媒領域,我們聯合央視總臺,打造了傳媒大模型方案。央視總臺積累了海量的音視頻、圖片、文稿等信息資源,但人工編目低效且成本高,傳統檢索方式召回率低,無法滿足時效性和高質量需求。通過騰訊云智能媒體AI中臺的大模型能力,央視總臺實現智能標簽理解、泛化能力提升,以及人臉、圖像、視頻和自然語言描述的精準檢索,提高了資源管理效率和準確性,推動了媒體內容生產與傳播的智能化進程。
騰訊云MaaS行業大模型精調解決方案,具備五大優勢。基于騰訊深耕產業互聯網的行業經驗積累,我們在TI平臺內置了高質量的行業大模型,同時我們提供完善的平臺工具,成熟的流程方法,全面配套服務,領先的安全能力保障,可以為客戶提供從模型選擇、到落地部署的一站式服務。
同時,在過去兩周多時間里,我們也在不斷優化和升級騰訊云MaaS平臺能力,旨在為客戶提供更普惠的行業大模型解決方案。在技術底座層面,我們前幾天剛剛發布了自研星脈高性能計算網絡、向量數據庫,為大模型的行業應用提供更充沛的算力基礎設施。在應用創新方面,我們也將行業大模型能力,應用到金融風控、交互翻譯、數智人客服等場景中,極大提升了智能應用效率。在科學計算方向,AI for Science一直是我們關注的重要方向。今年,我們也將大模型技術,應用在天文探索、甲骨文考釋等科研場景,取得了不錯的成果。
首先,行業大模型加持的金融風控解決方案,相比之前有了10倍效率提升。騰訊云風控大模型融合了騰訊過去20多年黑灰產對抗經驗,和上千個真實業務場景,整體反欺詐效果比傳統模式有20%左右的提升。企業可以基于prompt模式,迭代風控能力,從樣本收集、模型訓練到部署上線,實現全流程零人工參與,建模時間也從2周減少到僅需2天。
同時,很多企業受限于積累的樣本有限,或者是新品剛剛上線,面臨“零樣本”搭建風控體系,制定策略非常困難。我們也可以基于騰訊云風控大模型豐富的場景樣本快速搭建能力,助力客戶跳過“冷啟動”過程。
行業大模型在交互翻譯場景,也有不錯的提升效果。過去的同傳技術,往往需要大量樣本數據進行訓練,尤其涉及一些特別專業領域的翻譯,也需要人工加持進行調優,才能保障翻譯效果。基于行業大模型技術,不再需要百萬級的訓練數據,使用小樣本訓練便也可以獲得不錯的翻譯結果,讓每一次交互翻譯,都對下一句的翻譯提升發揮實時作用,目前已經在多個垂直行業落地。大家看到今天會場,以及世界人工智能大會開幕式、主論壇的同傳翻譯,都是由騰訊同傳進行的技術支持,我們已經連續6年為大會提供同傳翻譯服務。
今年早些時候,我們推出了小樣本數智人工廠,僅需少量數據、24小時即可復刻2D數字分身,大幅提升了生產效率。接下來,我們依托AI生成算法,提升3D形象復刻速度,推進生成式動作驅動,結合行業大模型能力,讓企業獲得更“個性化、專業、自然逼真”的數智員工,讓“面對面”專業服務成為可能。這幾天,我們在展臺設置了小樣本數智人體驗,現場拍攝3分鐘素材,24小時就可以領取專屬數字分身。
與此同時,我們也看到大模型在科學計算方面,也有非常驚艷的表現。在關注AI產業落地同時,AI for Science是我們一直關注的方向。早在2021年,我們將AI技術應用在天文領域,聯合國家天文臺、復旦大學計算機科學技術學院,發起“探星計劃”,旨在通過人工智能技術,提升天文發現和科研的效率,已經幫助Fast發現30顆脈沖星。
在今年,我們首次通過AI技術助力,從巡天觀測數據中發現了2顆快速射電暴。相比脈沖星,快速射電暴因為發現時間晚、AI訓練數據少、出現頻率低,發現難度相比脈沖星要大很多。為此,團隊通過全新設計的端到端AI算法,提升數據運算速度。引入多示例學習、注意力機制,同時結合騰訊云行業大模型輔助AI訓練,通過自監督預訓練+數據精調,提升模型精度,降低數據標注成本。
在文化領域,我們與內外部多個部門攜手合作,首次將文字檢測、摹本生成、字形匹配等多種AI算法,綜合應用于甲骨文研究。截至目前,已建立覆蓋143萬字的全球最大甲骨文單字數據庫,提升甲骨內容提取、甲骨文識別與考釋等效率,探索甲骨文研究的人機協同新模式。
大模型訓練,算力是基礎。騰訊云在大模型算力方面擁有領先優勢,今年早些時候,我們發布了面向大模型訓練新一代HCC高性能計算集群,整體性能比過去提升了3倍。就在過去一周,騰訊云首次完整披露了自研星脈高性能計算網絡,能提升40%的GPU利用率,節省30%~60%的模型訓練成本,為AI大模型帶來10倍通信性能提升。基于騰訊云新一代算力集群HCC,可支持10萬卡的超大計算規模。
最新發布的AI原生向量數據庫最高支持10億級向量檢索規模,延遲控制在毫秒級,相比傳統單機插件式數據庫檢索規模提升10倍,同時具備百萬級每秒查詢(QPS)的峰值能力。這些技術底座能力的持續提升,將為客戶的模型訓練提供強大的支持和動力。
當然,AI大模型技術發展和產業探索,離不開產業鏈協同和生態共建,這也是騰訊在AI發展方面一直堅持的態度。為此,我們也在早些時候發布了騰訊云行業大模型共建計劃。我們愿與行業伙伴攜手,去探索無限的可能性。謝謝大家!