今年上半年大模型產品和概念火出圈,也引發(fā)了一系列問題和擔憂。
10月19日,在2023第六屆SSC網(wǎng)絡安全大會上,西安電子科技大學教授王皓表示:“大模型迅速發(fā)展所暴露出的安全問題,在做好監(jiān)管亟的同時,要加強對于網(wǎng)絡安全人才的培養(yǎng)”。
王皓在第六屆SSC網(wǎng)絡安全大會以“大模型時代的數(shù)字安全法治人才培養(yǎng)初探討”為題演講
2022年底chatGPT的爆發(fā),帶來了巨大的技術變革,在國內外引起了廣泛討論以及關注,國際上各類通用大模型迅速相繼涌現(xiàn)。發(fā)展至今通用大模型已經(jīng)突破自然語言屏障,升華為多模態(tài)的生成式人工智能工具。能夠真正像人類一樣來聊天、交流,完成撰寫郵件、文案、代碼、論文等復雜任務。目前,國內外眾多網(wǎng)絡科技公司紛紛推出了自己的通用大模型,如華為的盤古系統(tǒng),訊飛的星火系列以及百度的文心一言。
大模型由于發(fā)展時間短,信息保護比較脆弱,容易導致信息泄露。此外,別有用心的群體或個人設計了“邪惡大模型”,通過創(chuàng)建破解工具、釣魚郵件、甚至惡意的攻擊軟件,進行一些危害個人或者社會的事情。”王皓說道。
目前,全球范圍都已意識到大模型迅速發(fā)展所暴露出的問題。我國上半年出臺了《生成式人工智能服務管理暫行辦法》,歐洲、美國也頒布了一些初級的協(xié)議、權力法案,開始加強對大模型的約束。
除了通過立法加強AI監(jiān)管、通過技術進步不斷完善大模型外,我們也要加強對于網(wǎng)絡安全人才的培養(yǎng)。王皓表示,“西安電子科技大學通過構建‘安全人才’培養(yǎng)與‘人才安全’培育雙促進、雙保障格局,加強信息安全學科建設、加快信息安全人才培養(yǎng)”。