A.概率
B.鄰近度
C.密度
D.聚類
您可能感興趣的試卷
你可能感興趣的試題
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
A.當(dāng)簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因為它可以使用各種類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點時不會存在問題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
以下是哪一個聚類算法的算法流程()。
①構(gòu)造k-最近鄰圖。
②使用多層圖劃分算法劃分圖。
③repeat:合并關(guān)于相對互連性和相對接近性而言,最好地保持簇的自相似性的簇。
④until:不再有可以合并的簇。
A.MST
B.OPOSSUM
C.Chameleon
D.Jarvis-Patrick(JP)
A.K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇
A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度
A.O(m)
B.O(m2)
C.O(logm)
D.O(m*logm)
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
最新試題
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
使用偏差較小的模型總是比偏差較大的模型更好。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
當(dāng)反向傳播算法運行到達到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。