近日,科技界迎來了一項(xiàng)新的突破,谷歌公司正式推出了其最新一代的人工智能模型——PaliGemma 2。這款模型不僅具備圖像分析與描述生成的能力,還宣稱能夠識(shí)別圖像中人物的情感狀態(tài),這一消息迅速引起了業(yè)界的廣泛關(guān)注。
據(jù)悉,PaliGemma 2在情感識(shí)別技術(shù)上的實(shí)現(xiàn),離不開進(jìn)一步的模型微調(diào)。然而,這一技術(shù)的問世,已經(jīng)引發(fā)了專家們的熱議與擔(dān)憂。多年來,眾多企業(yè)和研究機(jī)構(gòu)一直致力于開發(fā)能夠檢測(cè)情感的AI技術(shù),旨在將其應(yīng)用于銷售培訓(xùn)、事故預(yù)防等多個(gè)領(lǐng)域。谷歌方面表示,PaliGemma 2已經(jīng)經(jīng)過了廣泛的測(cè)試,并在人群偏見方面進(jìn)行了評(píng)估,聲稱其在“毒性和粗俗程度”上的表現(xiàn)優(yōu)于行業(yè)基準(zhǔn)。
盡管如此,谷歌并未公開完整的測(cè)試基準(zhǔn)和具體的測(cè)試類型,僅透露了PaliGemma 2在FairFace數(shù)據(jù)集上的良好表現(xiàn)。然而,一些研究人員對(duì)FairFace作為偏見衡量標(biāo)準(zhǔn)提出了質(zhì)疑,認(rèn)為該數(shù)據(jù)集的人種代表性有限,可能無法全面反映模型在情感識(shí)別上的真實(shí)表現(xiàn)。
情感識(shí)別技術(shù)一直以來都面臨著可靠性和偏見性的問題。以面部分析為例,近年來的研究表明,現(xiàn)有的系統(tǒng)往往對(duì)某些面部表情存在偏好,如更傾向于將微笑解讀為正面情感。部分情感分析模型還存在將黑人面部的情感解讀為負(fù)面,而對(duì)白人面部則較為正面的傾向,這進(jìn)一步加劇了人們對(duì)情感識(shí)別技術(shù)公正性的擔(dān)憂。
對(duì)于谷歌公開發(fā)布PaliGemma 2的決定,專家們主要擔(dān)憂其潛在的濫用風(fēng)險(xiǎn)。如果將情感識(shí)別AI應(yīng)用于執(zhí)法、招聘、邊境管理等高風(fēng)險(xiǎn)領(lǐng)域,可能會(huì)加劇對(duì)邊緣群體的歧視,甚至導(dǎo)致人們的情感狀態(tài)被錯(cuò)誤解讀,從而引發(fā)不公平待遇。針對(duì)這些擔(dān)憂,谷歌回應(yīng)稱,已經(jīng)對(duì)PaliGemma 2的倫理性和安全性進(jìn)行了全面評(píng)估,涵蓋了兒童安全、內(nèi)容安全等多個(gè)方面,并承諾在發(fā)布前已經(jīng)進(jìn)行了嚴(yán)格的測(cè)試。
然而,隨著AI技術(shù)的不斷發(fā)展,科幻作品中的場(chǎng)景正逐漸走向現(xiàn)實(shí)。如何防止技術(shù)濫用,確保其公正性和可靠性,已成為AI行業(yè)亟需解決的核心問題。谷歌作為科技巨頭,在推動(dòng)技術(shù)創(chuàng)新的同時(shí),也應(yīng)承擔(dān)起相應(yīng)的社會(huì)責(zé)任,從產(chǎn)品開發(fā)初期就全面考慮其可能帶來的社會(huì)影響,并在整個(gè)產(chǎn)品生命周期內(nèi)持續(xù)進(jìn)行評(píng)估和改進(jìn)。