最新試題

由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

任務(wù)調(diào)度系統(tǒng)的設(shè)計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。

題型:判斷題

非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

使決策樹更深將確保更好的擬合度,但會降低魯棒性。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。

題型:判斷題

支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。

題型:判斷題

無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。

題型:判斷題

當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機(jī)森林通常比AdaBoost更好。

題型:判斷題