免费观看又色又爽又黄的小说免费_美女福利视频国产片_亚洲欧美精品_美国一级大黄大色毛片

如何解析ApacheSpark中的決策樹

這期內(nèi)容當中小編將會給大家?guī)碛嘘P(guān)如何解析Apache Spark中的決策樹,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

為昆明等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計制作服務(wù),及昆明網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為成都網(wǎng)站設(shè)計、網(wǎng)站建設(shè)、昆明網(wǎng)站設(shè)計,以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達到每一位用戶的要求,就會得到認可,從而選擇與我們長期合作。這樣,我們也可以走得更遠!

Apache Spark中的決策樹

決策樹是在順序決策問題進行分類,預(yù)測和促進決策的有效方法。決策樹由兩部分組成:

  • 決策(Desion)

  • 結(jié)果(Outcome)

決策樹包含三種類型的節(jié)點:

  • 根節(jié)點(Root node):包含所有數(shù)據(jù)的樹的頂層節(jié)點。

  • 分割節(jié)點(Splitting node):將數(shù)據(jù)分配給子組(subgroup)的節(jié)點。

  • 終端節(jié)點(Terminal node):最終決定(即結(jié)果)。

(分割節(jié)點(Splitting node),僅就離散數(shù)學(xué)中的樹的概念而言,就是指分支節(jié)點,下面的翻譯為了強調(diào)"分支"有時會翻譯成分支結(jié)點,譯者注)

為了抵達終端結(jié)點或者說獲得結(jié)果,該過程從根節(jié)點開始。根據(jù)在根節(jié)點上做出的決定,選擇分支節(jié)點?;谠诜种Ч?jié)點上做出的決定,選擇下一個子分支節(jié)點。這個過程繼續(xù)下去,直到我們到達終端節(jié)點,終端節(jié)點的值是我們的結(jié)果。

Apache Spark中的決策樹

Apache Spark中沒有決策樹的實現(xiàn)可能聽起來很奇怪。然而從技術(shù)上來說是有的。在Apache  Spark中,您可以找到一個隨機森林算法的實現(xiàn),該算法實現(xiàn)可以由用戶指定樹的數(shù)量。因此,Apache Spark使用一棵樹來調(diào)用隨機森林。

在Apache  Spark中,決策樹是在特征空間上執(zhí)行遞歸二進制分割的貪婪算法。樹給每個***部(即葉子結(jié)點)分區(qū)預(yù)測了相同的標簽。為了***化樹的節(jié)點處的信息增益,通過在一組可能的分支中選擇其中的***分割來貪婪地選擇每個分支結(jié)點。

節(jié)點不純度(impurity)是節(jié)點上標簽一致性的度量。目前的實施提供了兩種不純的分類方法(Gini雜質(zhì)和熵(Gini impurity and  entropy))。

如何解析Apache Spark中的決策樹

停止規(guī)則

在滿足以下列條件之一的情況下,在節(jié)點處停止遞歸樹構(gòu)建(即只要滿足一個就停止,譯者注):

  • 節(jié)點深度等于訓(xùn)練用的 maxDepth 參數(shù)。

  • 沒有候選的分割結(jié)點導(dǎo)致信息收益大于 minInfoGain 。

  • 沒有候選的分割結(jié)點去產(chǎn)生(至少擁有訓(xùn)練minInstancesPerNode實例)的子節(jié)點 。

有用的參數(shù)

  • algo:它可以是分類或回歸。

  • numClasses:分類類的數(shù)量。

  • maxDepth:根據(jù)節(jié)點定義樹的深度。

  • minInstancesPerNode:對于要進一步拆分的節(jié)點,其每個子節(jié)點必須至少接收到這樣的訓(xùn)練實例數(shù)(即實例數(shù)必須等于這個參數(shù))。

  • minInfoGain:對于一個節(jié)點進一步拆分,必須滿足拆分后至少提高這么多信息量。

  • maxBins:離散連續(xù)特征時使用的bin數(shù)。

準備決策樹的訓(xùn)練數(shù)據(jù)

您不能直接向決策樹提供任何數(shù)據(jù)。它需要一種特殊的格式來提供。您可以使用 HashingTF  技術(shù)將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換為標記數(shù)據(jù),以便決策樹可以理解。這個過程也被稱為數(shù)據(jù)的標準化。

(數(shù)據(jù))供給和獲得結(jié)果

一旦數(shù)據(jù)被標準化,您就可以提供相同的決策樹算法進來行分類。但在此之前,您需要分割數(shù)據(jù)以用于訓(xùn)練和測試目的;  為了測試的準確性,你需要保留一部分數(shù)據(jù)進行測試。你可以像這樣提供數(shù)據(jù):

al splits = data.randomSplit(Array(0.7, 0.3)) val (trainingData, testData) = (splits(0), splits(1))  // Train a DecisionTree model. // Empty categoricalFeaturesInfo indicates all features are continuous.  val numClasses = 2 val categoricalFeaturesInfo = Map[Int, Int]() val impurity = "gini" val maxDepth = 5 val maxBins = 32 val model = DecisionTree.trainClassifier(trainingData, numClasses, categoricalFeaturesInfo, impurity, maxDepth, maxBins)

在這里,數(shù)據(jù)是我的標準化輸入數(shù)據(jù),為了訓(xùn)練和測試目的,我將其分成7:3的比例。我們正在使用***深度的為5的"gini" 雜質(zhì)("gini"  impurity)。

一旦模型生成,您也可以嘗試預(yù)測其他數(shù)據(jù)的分類。但在此之前,我們需要驗證最近生成的模型的分類準確性。您可以通過計算"test  error"來驗證其準確性。

/ Evaluate model on test instances and compute test error val labelAndPreds = testData.map { point => val prediction = model.predict(point.features) (point.label, prediction) }  val testErr = labelAndPreds.filter(r => r._1 != r._2).count().toDouble / testData.count() println("Test Error = " + testErr)

上述就是小編為大家分享的如何解析Apache Spark中的決策樹了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

名稱欄目:如何解析ApacheSpark中的決策樹
當前地址:http://m.newbst.com/article42/gohpec.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供做網(wǎng)站企業(yè)建站、服務(wù)器托管、關(guān)鍵詞優(yōu)化、網(wǎng)站內(nèi)鏈域名注冊

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)