A.JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時(shí)間復(fù)雜度為O(m)
您可能感興趣的試卷
你可能感興趣的試題
A.概率
B.鄰近度
C.密度
D.聚類
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
以下是哪一個(gè)聚類算法的算法流程()。
①構(gòu)造k-最近鄰圖。
②使用多層圖劃分算法劃分圖。
③repeat:合并關(guān)于相對(duì)互連性和相對(duì)接近性而言,最好地保持簇的自相似性的簇。
④until:不再有可以合并的簇。
A.MST
B.OPOSSUM
C.Chameleon
D.Jarvis-Patrick(JP)
A.K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇
A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度
A.O(m)
B.O(m2)
C.O(logm)
D.O(m*logm)
最新試題
通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過(guò)允許更多隱藏狀態(tài)來(lái)增加訓(xùn)練數(shù)據(jù)的可能性。
任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
管理員不需要驗(yàn)證就可以訪問(wèn)數(shù)據(jù)存儲(chǔ)系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
使決策樹(shù)更深將確保更好的擬合度,但會(huì)降低魯棒性。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。