spark通過combineByKey算子實現條件性聚合的方法

實際開發過程中遇到了需要實現選擇性聚合的場景,即對於某一個key對應的數據,將滿足條件的記錄進行聚合,不滿足條件的則不進行聚合。

使用spark處理這種計算場景時,想到了使用combineByKey算子,先將輸入數據中的value映射成含一個元素的ArrayBuffer(scala中相當於java中的ArrayList),然後在聚合時對滿足聚合條件的記錄聚合後覆蓋這一個ArrayBuffer,不滿足條件的待聚合的兩條記錄都填入ArrayBuffer。最後調用flatMap將ArrayBuffer中的元素分拆。

比如下面的代碼實現了對某個字段聚合時,按照時間條件進行選擇性的聚合:

val rdd1 = sc.textFile(dayDayDir).union(sc.textFile(thisDayDir))

    .map(line => line.split("\\|"))

    .filter(arr => if(arr.length != 14 || !arr(3).substring(0, 8).equals(lastDay)) false else true)

    .map(arr => (arr(0), arr))

    .reduceByKey( (pure, after) => reduceSession(pure, after))

    .map(tup => (tup._2(13), tup._2))

    .combineByKey( x => ArrayBuffer(x),

    (x:ArrayBuffer[Array[String]],y) => combineMergeValue(x, y),

    (x:ArrayBuffer[Array[String]],y:ArrayBuffer[Array[String]]) => combineMergeCombiners(x, y))

    .flatMap(tup => arrToStr(tup._2))

def combineMergeValue(x:ArrayBuffer[Array[String]], y:Array[String])

                    : ArrayBuffer[Array[String]] = {

    var outList = x.clone()

    var outarr = y.clone()

    var flag = true

    for(i <- 0 until outList.length){

        if(checkTime(outList(i)(3), outList(i)(4), y(3), y(4))) {

            outarr = reduceSession(outList(i), y)

            outList(i) = outarr

            flag = false

        }

    }

    if(flag) {

        outList += y

    }

    outList

}

def combineMergeCombiners(x:ArrayBuffer[Array[String]], y:ArrayBuffer[Array[String]])

                : ArrayBuffer[Array[String]] = {

    var outList = x.clone();

    for(i <- 0 until y.length){

    var outarr = y(i).clone()

    var flag = true

    for(j <- 0 until outList.length){

        if(checkTime(outList(j)(3), outList(j)(4), y(i)(3), y(i)(4))) {

            outarr = reduceSession(outList(j), y(i))

            outList(j) = outarr

            flag = false

        }

    }

    if(flag) {

        outList += y(i)

    }

    }

    outList

}
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章