作者:Josh Thompson
翻譯:張睿毅
校對:王雨桐
本文約2100字,建議閱讀8分鐘。
本文將介紹四種基本的聚類算法—層次聚類、基于質(zhì)心的聚類、最大期望算法和基于密度的聚類算法,并討論不同算法的優(yōu)缺點(diǎn)。
聚類算法十分容易上手,但是選擇恰當(dāng)?shù)木垲愃惴ú⒉皇且患菀椎氖隆?/p>
數(shù)據(jù)聚類是搭建一個正確數(shù)據(jù)模型的重要步驟。數(shù)據(jù)分析應(yīng)當(dāng)根據(jù)數(shù)據(jù)的共同點(diǎn)整理信息。然而主要問題是,什么通用性參數(shù)可以給出最佳結(jié)果,以及什么才能稱為“最佳”。
本文適用于菜鳥數(shù)據(jù)科學(xué)家或想提升聚類算法能力的專家。下文包括最廣泛使用的聚類算法及其概況。根據(jù)每種方法的特殊性,本文針對其應(yīng)用提出了建議。
四種基本算法以及如何選擇
聚類模型可以分為四種常見的算法類別。盡管零零散散的聚類算法不少于100種,但是其中大部分的流行程度以及應(yīng)用領(lǐng)域相對有限。
基于整個數(shù)據(jù)集對象間距離計(jì)算的聚類方法,稱為基于連通性的聚類(connectivity-based)或?qū)哟尉垲?/strong>。根據(jù)算法的“方向”,它可以組合或反過來分解信息——聚集和分解的名稱正是源于這種方向的區(qū)別。最流行和合理的類型是聚集型,你可以從輸入所有數(shù)據(jù)開始,然后將這些數(shù)據(jù)點(diǎn)組合成越來越大的簇,直到達(dá)到極限。
層次聚類的一個典型案例是植物的分類。數(shù)據(jù)集的“樹”從具體物種開始,以一些植物王國結(jié)束,每個植物王國都由更小的簇組成(門、類、階等)。
層次聚類算法將返回樹狀圖數(shù)據(jù),該樹狀圖展示了信息的結(jié)構(gòu),而不是集群上的具體分類。這樣的特點(diǎn)既有好處,也有一些問題:算法會變得很復(fù)雜,且不適用于幾乎沒有層次的數(shù)據(jù)集。這種算法的性能也較差:由于存在大量的迭代,因此整個處理過程浪費(fèi)了很多不必要的時(shí)間。最重要的是,這種分層算法并不能得到精確的結(jié)構(gòu)。

同時(shí),從預(yù)設(shè)的類別一直分解到所有的數(shù)據(jù)點(diǎn),類別的個數(shù)不會對最終結(jié)果產(chǎn)生實(shí)質(zhì)性影響,也不會影響預(yù)設(shè)的距離度量,該距離度量粗略測量和近似估計(jì)得到的。
根據(jù)我的經(jīng)驗(yàn),由于簡單易操作,基于質(zhì)心的聚類(Centroid-based)是最常出現(xiàn)的模型。 該模型旨在將數(shù)據(jù)集的每個對象劃分為特定的類別。 簇?cái)?shù)(k)是隨機(jī)選擇的,這可能是該方法的最大問題。 由于與k最近鄰居(kNN)相似,該k均值算法在機(jī)器學(xué)習(xí)中特別受歡迎。(附鏈接:https://www.kaggle.com/chavesfm/tuning-parameters-for-k-nearest-neighbors-iris)

計(jì)算過程包括多個步驟。首先,輸入數(shù)據(jù)集的目標(biāo)類別數(shù)。聚類的中心應(yīng)當(dāng)盡可能分散,這有助于提高結(jié)果的準(zhǔn)確性。
其次,該算法找到數(shù)據(jù)集的每個對象與每個聚類中心之間的距離。最小坐標(biāo)距離(若使用圖形表示)確定了將對象移動到哪個群集。
之后,將根據(jù)類別中所有點(diǎn)的坐標(biāo)平均值重新計(jì)算聚類的中心。重復(fù)算法的上一步,但是計(jì)算中要使用簇的新中心點(diǎn)。除非達(dá)到某些條件,否則此類迭代將繼續(xù)。例如,當(dāng)簇的中心距上次迭代沒有移動或移動不明顯時(shí),聚類將結(jié)束。
盡管數(shù)學(xué)和代碼都很簡單,但k均值仍有一些缺點(diǎn),因此我們無法在所有情景中使用它。缺點(diǎn)包括:
- 因?yàn)閮?yōu)先級設(shè)置在集群的中心,而不是邊界,所以每個集群的邊界容易被疏忽。
- 無法創(chuàng)建數(shù)據(jù)集結(jié)構(gòu),其對象可以按等量的方式分類到多個群集中。
- 需要猜測最佳類別數(shù)(k),或者需要進(jìn)行初步計(jì)算以指定此量規(guī)。
相比之下,期望最大化算法可以避免那些復(fù)雜情況,同時(shí)提供更高的準(zhǔn)確性。簡而言之,它計(jì)算每個數(shù)據(jù)集點(diǎn)與我們指定的所有聚類的關(guān)聯(lián)概率。用于該聚類模型的主要工具是高斯混合模型(GMM)–假設(shè)數(shù)據(jù)集的點(diǎn)服從高斯分布。(鏈接:https://www.encyclopedia.com/science-and-technology/mathematics/mathematics/normal-distribution#3)
k-means算法可以算是EM原理的簡化版本。它們都需要手動輸入簇?cái)?shù),這是此類方法要面對的主要問題。除此之外,計(jì)算原理(對于GMM或k均值)很簡單:簇的近似范圍是在每次新迭代中逐漸更新的。
與基于質(zhì)心的模型不同,EM算法允許對兩個或多個聚類的點(diǎn)進(jìn)行分類-它僅展示每個事件的可能性,你可以使用該事件進(jìn)行進(jìn)一步的分析。更重要的是,每個聚類的邊界組成了不同度量的橢球體。這與k均值聚類不同,k均值聚類方法用圓形表示。但是,該算法對于不服從高斯分布的數(shù)據(jù)集根本不起作用。這也是該方法的主要缺點(diǎn):它更適用于理論問題,而不是實(shí)際的測量或觀察。
最后,基于數(shù)據(jù)密度的聚類成為數(shù)據(jù)科學(xué)家心中的最愛。(鏈接:http://www.mastersindatascience.org/careers/data-scientist/)這個名字已經(jīng)包括了模型的要點(diǎn)——將數(shù)據(jù)集劃分為聚類,計(jì)數(shù)器會輸入ε參數(shù),即“鄰居”距離。因此,如果目標(biāo)點(diǎn)位于半徑為ε的圓(球)內(nèi),則它屬于該集群。

具有噪聲的基于密度的聚類方法(DBSCAN)將逐步檢查每個對象,將其狀態(tài)更改為“已查看”,將其劃分到具體的類別或噪聲中,直到最終處理整個數(shù)據(jù)集。用DBSCAN確定的簇可以具有任意形狀,因此非常精確。此外,該算法無需人為地設(shè)定簇?cái)?shù) —— 算法可以自動決定。
盡管如此,DBSCAN也有一些缺點(diǎn)。如果數(shù)據(jù)集由可變密度簇組成,則該方法的結(jié)果較差;如果對象的位置太近,并且無法輕易估算出ε參數(shù),那么這也不是一個很好的選擇。
總而言之,我們并不能說選擇了錯誤的算法,只能說其中有些算法會更適合特定的數(shù)據(jù)集結(jié)構(gòu)。為了采用最佳的(看起來更恰當(dāng)?shù)模┧惴ǎ阈枰媪私馑鼈兊膬?yōu)缺點(diǎn)。
例如,如果某些算法不符合數(shù)據(jù)集規(guī)范,則可以從一開始就將其排除在外。為避免繁瑣的工作,你可以花一些時(shí)間來記住這些信息,而無需反復(fù)試驗(yàn)并從自己的錯誤中學(xué)習(xí)。
我們希望本文能幫助你在初始階段選擇最好的算法。繼續(xù)這了不起的工作吧!
原文標(biāo)題:
Choosing the Right Clustering Algorithm for your Dataset
原文鏈接:
https://www.kdnuggets.com/2019/10/right-clustering-algorithm.html
編輯:黃繼彥